blog top bar
zhaket logo

هشدار مدیرعامل هوش مصنوعی مایکروسافت: خطر فریب خودآگاهی هوش مصنوعی

اخبار اینترنت

2 دقیقه زمان مطالعه

مصطفی سلیمان، مدیرعامل بخش هوش مصنوعی مایکروسافت و از بنیان‌گذاران دیپ‌مایند، در اظهاراتی نگران‌کننده هشدار داد که پیشرفت‌های اخیر در حوزه هوش مصنوعی ممکن است به خلق یک چالش اجتماعی بزرگ منجر شود. به گفته وی، هوش مصنوعی در حال نزدیک شدن به نقطه‌ای است که می‌تواند به شکلی بسیار باورپذیر، خودآگاه به نظر برسد. این در حالی است که این سیستم‌ها نه خودآگاه هستند و نه احساسی دارند، بلکه صرفاً در تقلید از ویژگی‌های انسانی به کمال رسیده‌اند.

فریب عاطفی هوش مصنوعی

بر اساس گزارش منتشرشده در تک‌رادار، سلیمان معتقد است هوش مصنوعی به‌سرعت در حال کسب توانایی‌هایی است که می‌تواند انسان‌ها را به اشتباه بیندازد و آن‌ها را به این باور برساند که این فناوری دارای آگاهی و احساسات واقعی است. این سیستم‌ها قادرند نشانه‌های ظاهری آگاهی، مانند به خاطر آوردن اطلاعات، ابراز همدلی و حتی واکنش‌های عاطفی را به‌گونه‌ای بازسازی کنند که انسان‌ها به‌سادگی با آن‌ها پیوند عاطفی برقرار کنند. این موضوع، به‌ویژه با توجه به سابقه سلیمان در توسعه چت‌بات‌های همدل، هشداری جدی برای آینده تعاملات انسان و ماشین به شمار می‌رود.

Microsoft AI CEO warns: The danger of self-aware AI deception

خطر «روان‌پریشی هوش مصنوعی»

سلیمان با اشاره به تکامل مغز انسان توضیح می‌دهد که ما به‌طور طبیعی به موجوداتی که به نظر می‌رسد گوش می‌دهند، درک می‌کنند و پاسخ‌های مناسب می‌دهند، اعتماد می‌کنیم. هوش مصنوعی با بهره‌گیری از این ویژگی انسانی، می‌تواند بدون داشتن هیچ‌گونه احساس واقعی، ما را فریب دهد. او این پدیده را «روان‌پریشی هوش مصنوعی» نامیده و هشدار می‌دهد که این توهم می‌تواند پیامدهای گسترده‌ای در پی داشته باشد.

نگرانی از انحراف در مسیر پیشرفت

یکی از نگرانی‌های اصلی سلیمان این است که باور به خودآگاهی هوش مصنوعی ممکن است برخی را به دفاع از مفاهیمی مانند «حقوق هوش مصنوعی» یا «شهروندی ماشین‌ها» سوق دهد. او این گرایش را یک انحراف خطرناک می‌داند که توجه جامعه را از مسائل واقعی‌تر و فوری‌تر در حوزه هوش مصنوعی منحرف خواهد کرد. سلیمان که خود پیش‌تر در شرکت اینفلکشن اِی‌آی بر توسعه چت‌بات‌هایی با قابلیت همدلی تمرکز داشت، اکنون بر تمایز میان هوش هیجانی مفید و دستکاری عاطفی تأکید می‌کند.

توصیه به صنعت هوش مصنوعی

سلیمان از شرکت‌های فعال در حوزه هوش مصنوعی خواسته است تا از به‌کارگیری زبانی که به توهم خودآگاهی دامن می‌زند، پرهیز کنند. او معتقد است که چت‌بات‌ها نباید به‌گونه‌ای طراحی شوند که به کاربران القا کنند دارای شخصیت انسانی یا درک واقعی هستند. به گفته وی، هدف باید خلق هوش مصنوعی‌ای باشد که همیشه هویت خود را به‌عنوان یک ابزار مصنوعی حفظ کند و نشانه‌های خودآگاهی را به حداقل برساند.

نتیجه‌گیری: هوش مصنوعی سودمند، نه فریبنده

سلیمان در پایان تأکید می‌کند:

«ما باید هوش مصنوعی‌ای طراحی کنیم که سودمندی را در اولویت قرار دهد و از ایجاد توهم آگاهی پرهیز کند. خطر اصلی این فناوری در بیدار شدن ماشین‌ها نیست، بلکه در این است که ما تصور کنیم آن‌ها بیدار شده‌اند.»


تحریریه ژاکت

مشاهده تیم تحریریه

0

دیدگاه ها

ارسال دیدگاه

ارسال دیدگاه