blog top bar
zhaket logo

اصطلاح AGI دیگر برای توصیف هوش مصنوعی جامع کافی نیست

اخبار اینترنت

3 دقیقه زمان مطالعه

سم آلتمن، مدیرعامل OpenAI معتقد است که اصطلاح «هوش مصنوعی جامع» یا AGI، که سال‌ها نماد هدف نهایی این حوزه بوده، حالا در حال از دست دادن اهمیت و کارایی خود است.

هوش جامع معمولاً به نوعی از هوش مصنوعی اشاره دارد که قادر است هر وظیفه فکری انسانی را به خوبی یا حتی بهتر انجام دهد. شرکت OpenAI سال‌هاست که با تمرکز بر پژوهش‌های ایمن و مفید برای جامعه بشری، در مسیر توسعه AGI گام برداشته اما آلتمن حالا تأکید می‌کند که این پیشرفت‌های سریع، ما را وادار به بازنگری در تعریف AGI کرده است.

او در مصاحبه‌ای با برنامه «Squawk Box» وقتی از او درباره مدل جدید GPT-5 سؤال شد که آیا این مدل جهان را به AGI نزدیک‌تر کرده یا نه، پاسخ داد: «فکر نمی‌کنم این اصطلاح خیلی کاربردی باشد.» آلتمن پیش از این هم پیش‌بینی کرده بود که AGI ممکن است در آینده‌ای نه‌چندان دور محقق شود.

The term AGI is no longer sufficient to describe comprehensive ai news

آلتمن توضیح می‌دهد که مشکل اصلی AGI، تنوع تعاریف آن در میان شرکت‌ها و کارشناسان است. برای مثال، برخی آن را هوشی می‌دانند که بتواند بخش عمده‌ای از کارهای جهان را انجام دهد، اما حتی این تعریف هم با تغییرات مداوم در ماهیت کارها، چالش‌برانگیز است.

او می‌گوید: «نکته کلیدی این است که این مسئله واقعاً مهم نیست و ما فقط باید بر رشد نمایی و مداوم توانایی مدل‌ها تمرکز کنیم تا کارهای بیشتری انجام دهند.»

در همین حال، شرکت‌های بزرگ دیگری مانند OpenAI میلیاردها دلار برای توسعه مدل‌های هوش مصنوعی سرمایه‌گذاری کرده‌اند تا به AGI برسند. برای نمونه، شرکت متا با جذب استعدادهای برتر و سرمایه‌گذاری‌های کلان، آزمایشگاهی برای ساخت ابرهوش مصنوعی راه‌اندازی کرده است. اما بحث‌ها فقط به پیشرفت‌ها محدود نمی‌شود؛ نگرانی‌ها هم در حال افزایش است.

شرکت دیپ‌مایند گوگل، یکی از پیشگامان این حوزه، اخیراً مقاله‌ای ۱۴۵ صفحه‌ای درباره امنیت هوش مصنوعی منتشر کرده که در آن هشدار می‌دهد AGI ممکن است تا سال ۲۰۳۰ محقق شود و آسیب‌های شدیدی به بار آورد.

نویسندگان این مقاله، از جمله شین لگ، یکی از بنیان‌گذاران دیپ‌مایند، به خطراتی اشاره کرده‌اند که می‌تواند «بشریت را برای همیشه نابود کند»، هرچند جزئیات دقیق این آسیب‌ها را مشخص نکرده‌اند. تمرکز اصلی مقاله بر گام‌هایی است که باید برای کاهش تهدیدهای AGI برداشته شود.

دمیس هاسابیس، مدیرعامل دیپ‌مایند، پیش‌تر در مصاحبه‌ای گفته بود که AGI احتمالاً طی ۵ تا ۱۰ سال آینده ظاهر خواهد شد و تا سال ۲۰۳۰ به سطح توانایی‌های انسانی می‌رسد. حالا این مقاله خطرات را به چهار دسته اصلی تقسیم کرده: سوءاستفاده عمدی توسط افراد برای آسیب‌رسانی، ناهماهنگی در سیستم‌ها که منجر به رفتارهای ناخواسته مضر می‌شود، اشتباهات ناشی از نقص در طراحی یا آموزش مدل‌ها، و خطرات ساختاری ناشی از تضاد منافع بین گروه‌ها، کشورها یا حتی سیستم‌های هوش مصنوعی مختلف.

با این حال، این پژوهش با انتقادهایی روبه‌رو شده است. آنتونی آگویر، هم‌بنیان‌گذار مؤسسه Future of Life که بر ایمنی هوش مصنوعی تمرکز دارد، به مجله فورچون گفته که هرچند تلاش دیپ‌مایند قابل تحسین است، اما اقدامات بیشتری لازم است.

او تأکید می‌کند: «همان‌طور که نویسندگان مقاله اشاره کرده‌اند، AGI می‌تواند به‌زودی برسد و به‌سرعت خود را بهبود ببخشد و فراتر از توانایی‌های انسانی برود. چنین سیستم‌هایی ذاتاً غیرقابل‌پیش‌بینی هستند و ما خیلی نزدیک‌تر به ساخت آن‌ها هستیم تا درک چگونگی کنترل‌شان، اگر اصلاً ممکن باشد.»

هایدی، دانشمند ارشد هوش مصنوعی در مؤسسه AI Now، به تک‌کرانچ گفته که AGI هنوز تعریف روشنی ندارد و بنابراین نمی‌توان آن را از نظر علمی بررسی کرد. گری مارکوس، استاد بازنشسته علوم شناختی دانشگاه نیویورک، هم معتقد است که هوش مصنوعی فعلی، که بر پایه مدل‌های زبانی بزرگ استوار است، نمی‌تواند در همه جنبه‌ها با هوش انسانی رقابت کند، به‌ویژه در زمینه‌هایی مانند یادگیری از نمونه‌های محدود یا استدلال بر اساس خرد جمعی.


تحریریه ژاکت

مشاهده تیم تحریریه

0

دیدگاه ها

ارسال دیدگاه

ارسال دیدگاه