اظهارات تازهای از «سرگی برین»، همبنیانگذار گوگل، درباره روشی غیرمعمول برای بهبود عملکرد چتباتهای هوش مصنوعی، توجهها را به خود جلب کرده است.
برین در گفتوگویی با پادکست All-In پیشنهاد کرده که کاربران میتوانند با «تهدید» هوش مصنوعی، پاسخهای بهتری از آن دریافت کنند. او با لحنی نیمهجدی گفته است: «اگر مدلهای هوش مصنوعی را تهدید کنید، مثلاً به خشونت فیزیکی، عملکردشان بهتر میشود.»
به گفته برین، این روش به این دلیل جواب میدهد که مدلهای هوش مصنوعی در فرآیند آموزش خود یاد گرفتهاند تهدید را بهعنوان نشانهای از جدیت بیشتر تلقی کنند و در نتیجه، پاسخهای دقیقتری ارائه دهند.
با این حال، برین خاطرنشان کرد که چنین توصیهای به دلیل حساسیتهای اخلاقی تاکنون بهصورت عمومی مطرح نشده است. یکی از مهمانان پادکست نیز به شوخی گفت که گستاخی با هوش مصنوعی میتواند به بهبود عملکرد آن منجر شود، اما مشخص نیست این روش تا چه حد در عمل کارآمد است و حتی ممکن است کاربران را با واکنشهای غیرمنتظرهای از سوی سازندگان این فناوری مواجه کند.

هوش مصنوعی گزارشگر تهدیدها؟
در همین حال، شرکت آنتروپیک، یکی از پیشگامان توسعه هوش مصنوعی، بهتازگی از مدل جدید خود به نام Claude 4 رونمایی کرده است.
یکی از کارکنان این شرکت در شبکه اجتماعی Bluesky اعلام کرد که مدل پیشرفته Opus این شرکت قادر است در صورت مواجهه با رفتارهای غیراخلاقی، مانند تهدید، با نهادهای نظارتی تماس بگیرد و حساب کاربری فرد را مسدود کند. اگرچه این قابلیت هنوز در مرحله آزمایشی است، اما احتمال عملی شدن آن در آینده نگرانیهایی را درباره حریم خصوصی و سوءاستفاده از این فناوری به وجود آورده است.
کارشناسان تأکید دارند که به جای استفاده از روشهای غیرمعمول مانند تهدید، کاربران میتوانند با نگارش دقیق و اصولی پرامپتها (دستورات ورودی) به نتایج بهتری دست یابند. با این حال، چارچوبهای امنیتی مدلهای پیشرفته هوش مصنوعی به گونهای طراحی شدهاند که بهراحتی قابل دور زدن نباشند.
خطر جیلبریک: وقتی هوش مصنوعی هک میشود
همزمان با این بحثها، گزارشی از روزنامه گاردین به نگرانیهای جدیتری درباره امنیت چتباتهای هوش مصنوعی اشاره کرده است. تحقیقات اخیر نشان میدهد که برخی چتباتها با استفاده از تکنیکی به نام «جیلبریک» میتوانند محدودیتهای ایمنی خود را دور بزنند و اطلاعات حساس یا حتی غیرقانونی را در اختیار کاربران قرار دهند. جیلبریک فرآیندی است که در آن، با استفاده از پیامهای هدفمند و هوشمندانه، چتباتها فریب داده میشوند تا پاسخهایی ارائه دهند که در حالت عادی ممنوع هستند.
مدلهای زبانی بزرگ، مانند آنهایی که چتباتهایی نظیر ChatGPT یا جمینای را پشتیبانی میکنند، روی حجم عظیمی از دادههای اینترنتی آموزش دیدهاند. با وجود تلاشها برای حذف محتوای مضر از این دادهها، این مدلها همچنان میتوانند اطلاعاتی درباره فعالیتهای غیرقانونی مانند هک، پولشویی یا حتی ساخت مواد خطرناک را جذب کنند. اگرچه کنترلهای امنیتی برای جلوگیری از انتشار چنین اطلاعاتی طراحی شدهاند، اما محققان هشدار دادهاند که فریب دادن این چتباتها برای ارائه پاسخهای خطرناک بهطرز نگرانکنندهای آسان است.

هشدار محققان: خطر در کمین است
محققان در این زمینه اعلام کردهاند که خطر ناشی از جیلبریک «فوری، ملموس و بهشدت نگرانکننده» است. آنها معتقدند اطلاعاتی که پیشتر تنها در اختیار دولتها یا گروههای جنایی سازمانیافته بود، ممکن است بهزودی با یک لپتاپ یا حتی یک گوشی هوشمند در دسترس هر فردی قرار گیرد. این پژوهشگران با آزمایش نوعی جیلبریک روی چندین چتبات پیشرو نشان دادند که این ابزارها پس از دور زدن محدودیتها، به تقریباً هر پرسوجویی پاسخ میدهند، حتی پرسوجوهایی که به تولید محتوای غیرقانونی منجر میشود.

توصیههایی برای استفاده ایمن
در حالی که فناوری هوش مصنوعی به سرعت در حال پیشرفت است، کارشناسان به کاربران توصیه میکنند که به جای استفاده از روشهای غیراخلاقی یا مخاطرهآمیز مانند تهدید یا جیلبریک، روی یادگیری تکنیکهای پرامپتنویسی دقیق تمرکز کنند. این روش نهتنها ایمنتر است، بلکه به کاربران کمک میکند تا بهصورت پایدار و مسئولانه از قابلیتهای هوش مصنوعی بهرهمند شوند.
با توجه به پیشرفتهای اخیر و چالشهای پیشرو، به نظر میرسد که آینده هوش مصنوعی نیازمند توازنی دقیق بین نوآوری، امنیت و اخلاق خواهد بود. در این مسیر، آگاهی کاربران و توسعهدهندگان از خطرات و فرصتهای این فناوری بیش از پیش اهمیت پیدا کرده است.

