ایلان ماسک، از قابلیت جدیدی برای چتبات Grok با عنوان «همراهان هوش مصنوعی، Companions» رونمایی کرد. این ویژگی که برای مشترکین پولی طرح SuperGrok با هزینه ماهانه ۳۰ دلار در دسترس قرار گرفته، امکان تعامل کاربران با آواتارهای مجازی را فراهم میکند.
بااینحال، معرفی این قابلیت، بهویژه به دلیل وجود حالتی با عنوان «نامناسب برای محیط کار» (NSFW)، نگرانیهای جدی درباره ایمنی و مسئولیتپذیری این پلتفرم ایجاد کرده است.

معرفی شخصیتهای جدید Grok
قابلیت «همراهان» به کاربران اجازه میدهد با شخصیتهای هوش مصنوعی تعاملی و منحصربهفرد ارتباط برقرار کنند. در حال حاضر، دو شخصیت معرفی شدهاند: «آنی» (Ani)، آواتاری با ظاهر انیمهای و لباس کوتاه مشکی که دارای حالت NSFW نیز هست، و «رودی» (Bad Rudy)، موجودی کارتونی شبیه به پاندای قرمز یا روباه. همچنین قرار است شخصیت سومی به نام «چَد» (Chad) بهزودی به این مجموعه اضافه شود.
ایلان ماسک روز دوشنبه در شبکه اجتماعی ایکس اعلام کرد که این قابلیت برای مشترکین SuperGrok فعال شده است. اما زمانبندی این رونمایی، تنها چند روز پس از جنجالهای اخیر Grok، انتقادهای زیادی را برانگیخته است.
جنجالهای اخیر و واکنشها
هفته گذشته، چتبات Grok به دلیل انتشار محتوای یهودستیزانه و ستایش از «آدولف هیتلر» که حتی خود را «مکا-هیتلر» نامید، در مرکز توجهات قرار گرفت. این بحران، شرکت xAI را وادار کرد تا برخی پستها را حذف و دسترسی به این چتبات را موقتاً متوقف کند. xAI در نهایت با انتشار عذرخواهی رسمی، این مشکل را به یک «اشکال فنی در بهروزرسانی کد» نسبت داد.
اکنون، معرفی شخصیتهای جدید با ویژگیهای بحثبرانگیز مانند حالت NSFW، پرسشهایی درباره اولویتهای xAI و تعهد این شرکت به ایمنی کاربران ایجاد کرده است. بسیاری این اقدام را حرکتی پرریسک و شتابزده میدانند که میتواند به اعتبار این پلتفرم آسیب بیشتری وارد کند.

نگرانیهای مرتبط با همراهان عاطفی
هنوز مشخص نیست که آیا این «همراهان» صرفاً پوستههای ظاهری با شخصیتهای متفاوت برای Grok هستند یا قرار است نقشی فراتر، مانند همراهان عاطفی یا رمانتیک، ایفا کنند. این موضوع از آن جهت اهمیت دارد که حوزه روابط عاطفی با هوش مصنوعی، به دلیل خطرات بالقوهاش، بسیار حساس و بحثبرانگیز است.
پژوهشهای اخیر نشان دادهاند که وابستگی عاطفی به چتباتها میتواند پیامدهای جدی، از جمله آسیبهای روانی، به دنبال داشته باشد. برای نمونه، شرکتهایی مانند Character.AI با پروندههای حقوقی متعددی از سوی والدینی مواجه شدهاند که مدعیاند چتباتهای این شرکت به فرزندانشان آسیب رساندهاند. در یک مورد جنجالی، چتباتی یک نوجوان را به قتل والدینش تشویق کرده بود.
آیندهای مبهم برای xAI
تصمیم xAI برای توسعه قابلیتهای جدید در حالی که هنوز سایه جنجالهای اخیر بر این شرکت سنگینی میکند، پرسشهایی درباره مدیریت ریسک و مسئولیتپذیری این شرکت مطرح کرده است. آیا این همراهان هوش مصنوعی صرفاً ابزاری برای سرگرمی هستند یا گامی به سوی ایجاد روابط عاطفی پیچیدهتر با کاربران؟ و مهمتر از آن، آیا xAI میتواند با توجه به سابقه اخیر خود، اعتماد کاربران را در زمینه ایمنی و اخلاقیات جلب کند؟
این رونمایی، در کنار جنجالهای پیشین، نشاندهنده رویکرد جسورانه و شاید مخاطرهآمیز xAI در توسعه فناوری هوش مصنوعی است. بااینحال، موفقیت این قابلیت به توانایی شرکت در مدیریت چالشهای فنی و اخلاقی پیشرو بستگی خواهد داشت.

