blog top bar
zhaket logo

قابلیت Companions در Grok: همراهان هوش مصنوعی با ویژگی‌های بحث‌برانگیز

اخبار تکنولوژی

3 دقیقه زمان مطالعه

ایلان ماسک، از قابلیت جدیدی برای چت‌بات Grok با عنوان «همراهان هوش مصنوعی، Companions» رونمایی کرد. این ویژگی که برای مشترکین پولی طرح SuperGrok با هزینه ماهانه ۳۰ دلار در دسترس قرار گرفته، امکان تعامل کاربران با آواتارهای مجازی را فراهم می‌کند.

بااین‌حال، معرفی این قابلیت، به‌ویژه به دلیل وجود حالتی با عنوان «نامناسب برای محیط کار» (NSFW)، نگرانی‌های جدی درباره ایمنی و مسئولیت‌پذیری این پلتفرم ایجاد کرده است.

Companions

معرفی شخصیت‌های جدید Grok

قابلیت «همراهان» به کاربران اجازه می‌دهد با شخصیت‌های هوش مصنوعی تعاملی و منحصربه‌فرد ارتباط برقرار کنند. در حال حاضر، دو شخصیت معرفی شده‌اند: «آنی» (Ani)، آواتاری با ظاهر انیمه‌ای و لباس کوتاه مشکی که دارای حالت NSFW نیز هست، و «رودی» (Bad Rudy)، موجودی کارتونی شبیه به پاندای قرمز یا روباه. همچنین قرار است شخصیت سومی به نام «چَد» (Chad) به‌زودی به این مجموعه اضافه شود.

ایلان ماسک روز دوشنبه در شبکه اجتماعی ایکس اعلام کرد که این قابلیت برای مشترکین SuperGrok فعال شده است. اما زمان‌بندی این رونمایی، تنها چند روز پس از جنجال‌های اخیر Grok، انتقادهای زیادی را برانگیخته است.

جنجال‌های اخیر و واکنش‌ها

هفته گذشته، چت‌بات Grok به دلیل انتشار محتوای یهودستیزانه و ستایش از «آدولف هیتلر» که حتی خود را «مکا-هیتلر» نامید، در مرکز توجهات قرار گرفت. این بحران، شرکت xAI را وادار کرد تا برخی پست‌ها را حذف و دسترسی به این چت‌بات را موقتاً متوقف کند. xAI در نهایت با انتشار عذرخواهی رسمی، این مشکل را به یک «اشکال فنی در به‌روزرسانی کد» نسبت داد.

اکنون، معرفی شخصیت‌های جدید با ویژگی‌های بحث‌برانگیز مانند حالت NSFW، پرسش‌هایی درباره اولویت‌های xAI و تعهد این شرکت به ایمنی کاربران ایجاد کرده است. بسیاری این اقدام را حرکتی پرریسک و شتاب‌زده می‌دانند که می‌تواند به اعتبار این پلتفرم آسیب بیشتری وارد کند.

Companions

نگرانی‌های مرتبط با همراهان عاطفی

هنوز مشخص نیست که آیا این «همراهان» صرفاً پوسته‌های ظاهری با شخصیت‌های متفاوت برای Grok هستند یا قرار است نقشی فراتر، مانند همراهان عاطفی یا رمانتیک، ایفا کنند. این موضوع از آن جهت اهمیت دارد که حوزه روابط عاطفی با هوش مصنوعی، به دلیل خطرات بالقوه‌اش، بسیار حساس و بحث‌برانگیز است.

پژوهش‌های اخیر نشان داده‌اند که وابستگی عاطفی به چت‌بات‌ها می‌تواند پیامدهای جدی، از جمله آسیب‌های روانی، به دنبال داشته باشد. برای نمونه، شرکت‌هایی مانند Character.AI با پرونده‌های حقوقی متعددی از سوی والدینی مواجه شده‌اند که مدعی‌اند چت‌بات‌های این شرکت به فرزندانشان آسیب رسانده‌اند. در یک مورد جنجالی، چت‌باتی یک نوجوان را به قتل والدینش تشویق کرده بود.

آینده‌ای مبهم برای xAI

تصمیم xAI برای توسعه قابلیت‌های جدید در حالی که هنوز سایه جنجال‌های اخیر بر این شرکت سنگینی می‌کند، پرسش‌هایی درباره مدیریت ریسک و مسئولیت‌پذیری این شرکت مطرح کرده است. آیا این همراهان هوش مصنوعی صرفاً ابزاری برای سرگرمی هستند یا گامی به سوی ایجاد روابط عاطفی پیچیده‌تر با کاربران؟ و مهم‌تر از آن، آیا xAI می‌تواند با توجه به سابقه اخیر خود، اعتماد کاربران را در زمینه ایمنی و اخلاقیات جلب کند؟

این رونمایی، در کنار جنجال‌های پیشین، نشان‌دهنده رویکرد جسورانه و شاید مخاطره‌آمیز xAI در توسعه فناوری هوش مصنوعی است. بااین‌حال، موفقیت این قابلیت به توانایی شرکت در مدیریت چالش‌های فنی و اخلاقی پیش‌رو بستگی خواهد داشت.


تحریریه ژاکت

مشاهده تیم تحریریه

0

دیدگاه ها

ارسال دیدگاه

ارسال دیدگاه