هشدار رهبران فناوری به ریسکهای ابرهوش AGI
بیش از ۸۰۰ چهره برجسته از جمله استیو وزنیاک، ریچارد برنسون و پدران AI مانند یوشوا بنجیو و جفری هینتون، بیانیهای برای تعلیق توسعه ابرهوش مصنوعی (Superintelligence) امضا کردهاند. این هوش فراتر از توانایی انسانی، نگرانیهایی مانند از دسترفتن کنترل، کاهش نقش اقتصادی انسان و حتی خطر انقراض را برمیانگیزد.

تمرکز بر ایمنی و اجماع علمی
امضاکنندگان، که شامل دانشگاهیان، رهبران مذهبی و سیاستمداران هستند، خواستار توقف تا تضمین ایمنی و کنترلپذیری شدهاند. رقابت شرکتهایی مانند متا (با Meta Superintelligence Labs) و OpenAI، این ریسکها را تشدید کرده و نیاز به پشتیبانی عمومی و اجماع علمی را ضروری میسازد.
پیامدهای اخلاقی و سیاستگذاری
این بیانیه، بحثهای جهانی بر سر مقررات AI را شعلهور میکند و بر لزوم تعادل بین نوآوری و ایمنی تأکید دارد. در حالی که صنعت به جلو میتازد، صدای متخصصان یادآوری میکند که ابرهوش بدون چارچوب، میتواند بشریت را تهدید کند.