«داریو آمودی»، مدیرعامل استارتاپ هوش مصنوعی آنتروپیک، در اظهارنظری تازه تأکید کرده است که شرکتهای فعال در حوزه هوش مصنوعی باید درباره خطرات و تأثیرات محصولاتشان شفاف و صادق باشند؛ در غیر این صورت ممکن است به سرنوشت شرکتهای تولیدکننده سیگار، تنباکو و مواد افیونی دچار شوند که سالها اثرات مخرب محصولات خود را پنهان کردند.
او در گفتوگویی با شبکه CBS News اشاره کرد که هوش مصنوعی در آیندهای نهچندان دور میتواند در بسیاری از جنبهها از اکثر انسانها هوشمندتر باشد. آمودی از مدیران و فعالان این صنعت خواست تا با رویکردی صریح، مسئولیتپذیری و شفافیت را در دستور کار قرار دهند و خطرات بالقوه را بهطور واقعی برای جامعه توضیح دهند.
به گفته او، پنهانکاری یا کماهمیت جلوهدادن ریسکهای فناوریهای نوظهور—بهویژه هوش مصنوعی پیشرفته—میتواند اشتباهات تاریخی صنعت دخانیات و تولیدکنندگان مواد افیونی را تکرار کند؛ اشتباهاتی که بهدلیل عدم اطلاعرسانی درست، منجر به آسیبهای گسترده اجتماعی و بحرانهای طولانیمدت شد.این هشدار آمودی نهتنها بهجا، بلکه ضروری است. هرچقدر هوش مصنوعی قدرتمندتر و فراگیرتر شود، مسئولیت اخلاقی و اجتماعی شرکتهای سازنده نیز چند برابر اهمیت پیدا میکند. مسیر توسعه AI باید با شفافیت، گزارشدهی دقیق و فرهنگ پاسخگویی همراه باشد. تاریخ نشان داده هر صنعتی که در برابر عواقب محصولاتش سکوت کرده، در نهایت با بحرانهای اخلاقی، حقوقی و اجتماعی روبهرو شده است. اگر صنعت هوش مصنوعی از همین حالا با صداقت پیش برود، هم اعتماد عمومی افزایش مییابد و هم زمینه برای نوآوریهای امنتر و پایدارتر فراهم میشود.
هشدار جدی آنتروپیک: بیتوجهی به ریسکهای هوش مصنوعی میتواند سرنوشتی مشابه صنعت سیگار رقم بزند
«داریو آمودی»، مدیرعامل آنتروپیک، در ادامه انتقادهای اخیر خود نسبت به نبود شفافیت در صنعت هوش مصنوعی، بار دیگر هشدار داد که بیاعتنایی به خطرات این فناوری میتواند همان مسیری را تکرار کند که شرکتهای تولیدکننده سیگار و مواد افیونی طی کردند؛ یعنی جایی که با آگاهی از تهدیدها، سکوت کردند و از جلوگیری آنها شانه خالی کردند.
آمودی که پیشتر نیز درباره دگرگونی سریع مشاغلی مانند حسابداری، حقوق و بانکداری هشدار داده بود، معتقد است تأثیرات هوش مصنوعی بر اشتغال میتواند گستردهتر و سریعتر از تمام فناوریهای گذشته باشد. او میگوید: بدون مداخلههای جدی، تصور اینکه این موج تحول عظیم دنیای کار را درنوردد، کار دشواری نیست.
او همچنین درباره خطراتی مانند اخاذی دیجیتالی و حملات سایبری پیشرفته توضیح داد که یکی از نقاط قوت مدلهای هوش مصنوعی—توانایی عمل مستقل و مختارانه—میتواند به نقطه نگرانی نیز تبدیل شود. هر اندازه اختیار بیشتری به این سیستمها داده شود، کنترلپذیری آنها سختتر خواهد شد و این سؤال ایجاد میشود که آیا خروجی دقیقاً همان چیزی خواهد بود که ما انتظار داریم یا خیر.
آمودی مثال میزند: اگر یک مدل بتواند برای ساخت سلاح بیولوژیکی به فردی کمک کند، به همان اندازه توانایی آن برای ساخت واکسن یا توسعه دارو نیز افزایش یافته است. به همین دلیل نقش سازندگان این فناوریها در جهتدهی درست و ایمنسازی فرآیند توسعه، حیاتی و تعیینکننده است.
او اضافه میکند: «شما مدلی میخواهید که برایتان کسبوکار بسازد و سودآوری عظیمی ایجاد کند، اما نمیخواهید روزی بیدار شوید و ببینید کنترل همهچیز را از دست دادهاید.» به همین دلیل آنتروپیک بر ارزیابی دقیق قابلیتهای خودمختارانه مدلها و انجام آزمایشهای پیچیده و حتی غیرمعمول تأکید دارد تا رفتار این سیستمها بهتر درک شود.
صحبتهای آمودی منعکسکننده یک واقعیت جدی و قابلتأمل است: هرچقدر هوش مصنوعی پیشرفتهتر میشود، فاصله میان «کاربرد مفید» و «خطر بالقوه» باریکتر و حساستر میگردد. اگر شرکتها بهجای شفافیت، رویکرد پنهانکارانه پیش بگیرند، جامعه با ریسکهایی مواجه میشود که ممکن است تا سالها قابل جبران نباشند—مشابه آنچه در ماجرای دخانیات یا داروهای افیونی رخ داد. صنعت AI امروز در نقطهای ایستاده که تصمیمات امروز آن میتواند آینده جهان را شکل دهد. شفافیت، نظارت، و آزمایشهای سختگیرانه تنها راههایی هستند که میتوانند این مسیر را امن، اخلاقی و سودمند نگه دارند.
