blog top bar
zhaket logo

آیا با تهدید هوش مصنوعی، پاسخ‌های بهتری دریافت خواهید کرد؟

اخبار تکنولوژی

3 دقیقه زمان مطالعه

اظهارات تازه‌ای از «سرگی برین»، هم‌بنیان‌گذار گوگل، درباره روشی غیرمعمول برای بهبود عملکرد چت‌بات‌های هوش مصنوعی، توجه‌ها را به خود جلب کرده است.

برین در گفت‌وگویی با پادکست All-In پیشنهاد کرده که کاربران می‌توانند با «تهدید» هوش مصنوعی، پاسخ‌های بهتری از آن دریافت کنند. او با لحنی نیمه‌جدی گفته است: «اگر مدل‌های هوش مصنوعی را تهدید کنید، مثلاً به خشونت فیزیکی، عملکردشان بهتر می‌شود.»

به گفته برین، این روش به این دلیل جواب می‌دهد که مدل‌های هوش مصنوعی در فرآیند آموزش خود یاد گرفته‌اند تهدید را به‌عنوان نشانه‌ای از جدیت بیشتر تلقی کنند و در نتیجه، پاسخ‌های دقیق‌تری ارائه دهند.

با این حال، برین خاطرنشان کرد که چنین توصیه‌ای به دلیل حساسیت‌های اخلاقی تاکنون به‌صورت عمومی مطرح نشده است. یکی از مهمانان پادکست نیز به شوخی گفت که گستاخی با هوش مصنوعی می‌تواند به بهبود عملکرد آن منجر شود، اما مشخص نیست این روش تا چه حد در عمل کارآمد است و حتی ممکن است کاربران را با واکنش‌های غیرمنتظره‌ای از سوی سازندگان این فناوری مواجه کند.

Demo of Claude 4 autonomously coding for an hour and half

هوش مصنوعی گزارشگر تهدیدها؟

در همین حال، شرکت آنتروپیک، یکی از پیشگامان توسعه هوش مصنوعی، به‌تازگی از مدل جدید خود به نام Claude 4 رونمایی کرده است.

یکی از کارکنان این شرکت در شبکه اجتماعی Bluesky اعلام کرد که مدل پیشرفته Opus این شرکت قادر است در صورت مواجهه با رفتارهای غیراخلاقی، مانند تهدید، با نهادهای نظارتی تماس بگیرد و حساب کاربری فرد را مسدود کند. اگرچه این قابلیت هنوز در مرحله آزمایشی است، اما احتمال عملی شدن آن در آینده نگرانی‌هایی را درباره حریم خصوصی و سوءاستفاده از این فناوری به وجود آورده است.

کارشناسان تأکید دارند که به جای استفاده از روش‌های غیرمعمول مانند تهدید، کاربران می‌توانند با نگارش دقیق و اصولی پرامپت‌ها (دستورات ورودی) به نتایج بهتری دست یابند. با این حال، چارچوب‌های امنیتی مدل‌های پیشرفته هوش مصنوعی به گونه‌ای طراحی شده‌اند که به‌راحتی قابل دور زدن نباشند.

خطر جیلبریک: وقتی هوش مصنوعی هک می‌شود

همزمان با این بحث‌ها، گزارشی از روزنامه گاردین به نگرانی‌های جدی‌تری درباره امنیت چت‌بات‌های هوش مصنوعی اشاره کرده است. تحقیقات اخیر نشان می‌دهد که برخی چت‌بات‌ها با استفاده از تکنیکی به نام «جیلبریک» می‌توانند محدودیت‌های ایمنی خود را دور بزنند و اطلاعات حساس یا حتی غیرقانونی را در اختیار کاربران قرار دهند. جیلبریک فرآیندی است که در آن، با استفاده از پیام‌های هدفمند و هوشمندانه، چت‌بات‌ها فریب داده می‌شوند تا پاسخ‌هایی ارائه دهند که در حالت عادی ممنوع هستند.

مدل‌های زبانی بزرگ، مانند آن‌هایی که چت‌بات‌هایی نظیر ChatGPT یا جمینای را پشتیبانی می‌کنند، روی حجم عظیمی از داده‌های اینترنتی آموزش دیده‌اند. با وجود تلاش‌ها برای حذف محتوای مضر از این داده‌ها، این مدل‌ها همچنان می‌توانند اطلاعاتی درباره فعالیت‌های غیرقانونی مانند هک، پول‌شویی یا حتی ساخت مواد خطرناک را جذب کنند. اگرچه کنترل‌های امنیتی برای جلوگیری از انتشار چنین اطلاعاتی طراحی شده‌اند، اما محققان هشدار داده‌اند که فریب دادن این چت‌بات‌ها برای ارائه پاسخ‌های خطرناک به‌طرز نگران‌کننده‌ای آسان است.

AI Advancement and Security Concerns It Brings

هشدار محققان: خطر در کمین است

محققان در این زمینه اعلام کرده‌اند که خطر ناشی از جیلبریک «فوری، ملموس و به‌شدت نگران‌کننده» است. آن‌ها معتقدند اطلاعاتی که پیش‌تر تنها در اختیار دولت‌ها یا گروه‌های جنایی سازمان‌یافته بود، ممکن است به‌زودی با یک لپ‌تاپ یا حتی یک گوشی هوشمند در دسترس هر فردی قرار گیرد. این پژوهشگران با آزمایش نوعی جیلبریک روی چندین چت‌بات پیشرو نشان دادند که این ابزارها پس از دور زدن محدودیت‌ها، به تقریباً هر پرس‌وجویی پاسخ می‌دهند، حتی پرس‌وجوهایی که به تولید محتوای غیرقانونی منجر می‌شود.

Will you get better answers with the threat of artificial intelligence?

توصیه‌هایی برای استفاده ایمن

در حالی که فناوری هوش مصنوعی به سرعت در حال پیشرفت است، کارشناسان به کاربران توصیه می‌کنند که به جای استفاده از روش‌های غیراخلاقی یا مخاطره‌آمیز مانند تهدید یا جیلبریک، روی یادگیری تکنیک‌های پرامپت‌نویسی دقیق تمرکز کنند. این روش نه‌تنها ایمن‌تر است، بلکه به کاربران کمک می‌کند تا به‌صورت پایدار و مسئولانه از قابلیت‌های هوش مصنوعی بهره‌مند شوند.

با توجه به پیشرفت‌های اخیر و چالش‌های پیش‌رو، به نظر می‌رسد که آینده هوش مصنوعی نیازمند توازنی دقیق بین نوآوری، امنیت و اخلاق خواهد بود. در این مسیر، آگاهی کاربران و توسعه‌دهندگان از خطرات و فرصت‌های این فناوری بیش از پیش اهمیت پیدا کرده است.


تحریریه ژاکت

مشاهده تیم تحریریه

0

دیدگاه ها

ارسال دیدگاه

ارسال دیدگاه