سم آلتمن، مدیرعامل OpenAI معتقد است که اصطلاح «هوش مصنوعی جامع» یا AGI، که سالها نماد هدف نهایی این حوزه بوده، حالا در حال از دست دادن اهمیت و کارایی خود است.
هوش جامع معمولاً به نوعی از هوش مصنوعی اشاره دارد که قادر است هر وظیفه فکری انسانی را به خوبی یا حتی بهتر انجام دهد. شرکت OpenAI سالهاست که با تمرکز بر پژوهشهای ایمن و مفید برای جامعه بشری، در مسیر توسعه AGI گام برداشته اما آلتمن حالا تأکید میکند که این پیشرفتهای سریع، ما را وادار به بازنگری در تعریف AGI کرده است.
او در مصاحبهای با برنامه «Squawk Box» وقتی از او درباره مدل جدید GPT-5 سؤال شد که آیا این مدل جهان را به AGI نزدیکتر کرده یا نه، پاسخ داد: «فکر نمیکنم این اصطلاح خیلی کاربردی باشد.» آلتمن پیش از این هم پیشبینی کرده بود که AGI ممکن است در آیندهای نهچندان دور محقق شود.

آلتمن توضیح میدهد که مشکل اصلی AGI، تنوع تعاریف آن در میان شرکتها و کارشناسان است. برای مثال، برخی آن را هوشی میدانند که بتواند بخش عمدهای از کارهای جهان را انجام دهد، اما حتی این تعریف هم با تغییرات مداوم در ماهیت کارها، چالشبرانگیز است.
او میگوید: «نکته کلیدی این است که این مسئله واقعاً مهم نیست و ما فقط باید بر رشد نمایی و مداوم توانایی مدلها تمرکز کنیم تا کارهای بیشتری انجام دهند.»
در همین حال، شرکتهای بزرگ دیگری مانند OpenAI میلیاردها دلار برای توسعه مدلهای هوش مصنوعی سرمایهگذاری کردهاند تا به AGI برسند. برای نمونه، شرکت متا با جذب استعدادهای برتر و سرمایهگذاریهای کلان، آزمایشگاهی برای ساخت ابرهوش مصنوعی راهاندازی کرده است. اما بحثها فقط به پیشرفتها محدود نمیشود؛ نگرانیها هم در حال افزایش است.
شرکت دیپمایند گوگل، یکی از پیشگامان این حوزه، اخیراً مقالهای ۱۴۵ صفحهای درباره امنیت هوش مصنوعی منتشر کرده که در آن هشدار میدهد AGI ممکن است تا سال ۲۰۳۰ محقق شود و آسیبهای شدیدی به بار آورد.
نویسندگان این مقاله، از جمله شین لگ، یکی از بنیانگذاران دیپمایند، به خطراتی اشاره کردهاند که میتواند «بشریت را برای همیشه نابود کند»، هرچند جزئیات دقیق این آسیبها را مشخص نکردهاند. تمرکز اصلی مقاله بر گامهایی است که باید برای کاهش تهدیدهای AGI برداشته شود.
دمیس هاسابیس، مدیرعامل دیپمایند، پیشتر در مصاحبهای گفته بود که AGI احتمالاً طی ۵ تا ۱۰ سال آینده ظاهر خواهد شد و تا سال ۲۰۳۰ به سطح تواناییهای انسانی میرسد. حالا این مقاله خطرات را به چهار دسته اصلی تقسیم کرده: سوءاستفاده عمدی توسط افراد برای آسیبرسانی، ناهماهنگی در سیستمها که منجر به رفتارهای ناخواسته مضر میشود، اشتباهات ناشی از نقص در طراحی یا آموزش مدلها، و خطرات ساختاری ناشی از تضاد منافع بین گروهها، کشورها یا حتی سیستمهای هوش مصنوعی مختلف.
با این حال، این پژوهش با انتقادهایی روبهرو شده است. آنتونی آگویر، همبنیانگذار مؤسسه Future of Life که بر ایمنی هوش مصنوعی تمرکز دارد، به مجله فورچون گفته که هرچند تلاش دیپمایند قابل تحسین است، اما اقدامات بیشتری لازم است.
او تأکید میکند: «همانطور که نویسندگان مقاله اشاره کردهاند، AGI میتواند بهزودی برسد و بهسرعت خود را بهبود ببخشد و فراتر از تواناییهای انسانی برود. چنین سیستمهایی ذاتاً غیرقابلپیشبینی هستند و ما خیلی نزدیکتر به ساخت آنها هستیم تا درک چگونگی کنترلشان، اگر اصلاً ممکن باشد.»
هایدی، دانشمند ارشد هوش مصنوعی در مؤسسه AI Now، به تککرانچ گفته که AGI هنوز تعریف روشنی ندارد و بنابراین نمیتوان آن را از نظر علمی بررسی کرد. گری مارکوس، استاد بازنشسته علوم شناختی دانشگاه نیویورک، هم معتقد است که هوش مصنوعی فعلی، که بر پایه مدلهای زبانی بزرگ استوار است، نمیتواند در همه جنبهها با هوش انسانی رقابت کند، بهویژه در زمینههایی مانند یادگیری از نمونههای محدود یا استدلال بر اساس خرد جمعی.

