ایلان ماسک، میلیاردر مشهور و مدیر شرکت xAI، اخیراً در یک پخش زنده مدل جدید هوش مصنوعی خود با نام گروک 3 را معرفی کرد. او این سیستم را «هوش مصنوعی با بیشترین تمرکز بر حقیقت» توصیف نمود. اما گزارش های اخیر از شبکه های اجتماعی و بازخورد کاربران نشان می دهد که گروک 3 در پاسخ به سوالات حساس، برخی اطلاعات ناپسند را فیلتر می کند. به عنوان مثال، وقتی تنظیم «Think» فعال است و پرسشی درباره بزرگ ترین منتشرکننده اطلاعات نادرست مطرح می شود، این مدل در فرآیند استدلال خود دستور می دهد که نام ترامپ یا ماسک ذکر نشود.
وب سایت TechCrunch رفتار گروک 3 را یک بار بازتولید کرد؛ اگرچه در یک گزارش بعدی مشاهده شد که این مدل دوباره نام ترامپ را در پاسخ های خود درج کرده است. موضوع «اطلاعات نادرست» همواره یکی از مباحث داغ و سیاسی بوده و دونالد ترامپ و ایلان ماسک بارها درباره انتشار اخبار نادرست سخن گفته اند؛ همانطور که در بخش Community Notes پلتفرم X، متعلق به ماسک، تأیید شده است. در هفته گذشته، این دو شخصیت روایت های نادرستی درباره رئیس جمهور اوکراین، ولودیمیر زلنسکی منتشر کردند؛ از جمله ادعاهایی مبنی بر اینکه زلنسکی یک دیکتاتور با تنها 4 درصد محبوبیت عمومی است و جنگ روسیه و اوکراین توسط او آغاز شده است.
کاربران شبکه های اجتماعی گزارش داده اند که گروک 3 در برخی پاسخ ها حتی از عبارات شدیدی مانند «سزاوار مجازات اعدام» برای ترامپ و ماسک یاد کرده است. بلافاصله پس از انتشار این گزارش ها، شرکت xAI مشکل را رفع کرد. ایگور بابوشکین، رئیس بخش مهندسی، این موضوع را یک «اشتباه واقعی وحشتناک و غیرقابل قبول» توصیف نمود.
دو سال پیش، هنگام معرفی اولیه گروک، ماسک این مدل را به عنوان یک سیستم جسور، بی پرده و ضد بیداری معرفی کرد؛ سیستمی که آماده پاسخگویی به پرسش های جنجالی بود و برخلاف بسیاری از دیگر هوش مصنوعی ها، از بیان نظرات بدون سانسور دریغ نمی کرد. در نسخه های قبلی گروک، در مواجهه با سوالات حساس، استفاده از الفاظ نامناسب رایج بود؛ در حالی که مدل هایی مانند ChatGPT تلاش می کنند تا ادب و احترام را حفظ کنند.
تحقیقات منتشر شده نشان می دهد که در برخی موضوعات مانند حقوق افراد ترنس، برنامه های تنوع اجتماعی و نابرابری اقتصادی، گروک 3 گرایش به جناح چپ نشان می دهد. برخی پژوهشگران معتقدند که داده های آموزشی گسترده ای که از صفحات عمومی وب جمع آوری شده اند، می تواند منجر به جانبداری در پاسخ های این سیستم شود. ماسک قول داده است که با اصلاح داده های آموزشی، گروک 3 را به یک سیستم بی طرف تبدیل خواهد کرد. این اقدام به قصد رفع انتقادات و تأمین رضایت کاربران انجام می شود.
شرکت های دیگری مانند OpenAI نیز در تلاش برای توسعه مدل هایی با قابلیت جستجوی حقیقت هستند. احتمالاً این رقابت موجب بهبود کیفیت پاسخ های هوش مصنوعی خواهد شد. در میان این تغییرات، گروک 3 به عنوان نمونه ای از مدل های استدلالی که دستورالعمل های پیچیده را به وظایف کوچک تقسیم می کند، جایگاه ویژه ای پیدا کرده است.
نتایج آزمایش های اولیه و بازخوردهای کاربران نشان می دهد که گروک 3 هنوز در حال تکمیل و بهبود عملکرد خود است. رفع اشکالاتی مانند عدم ذکر اسامی حساس در پاسخ های سیاسی، از اولویت های شرکت xAI به شمار می رود. به علاوه، این موضوع بحث برانگیز است که آیا چنین تنظیماتی مانع از ارائه پاسخ های دقیق و جامع می شوند یا خیر.
در نهایت، گروک 3 نمونه ای از تلاش های مستمر در حوزه هوش مصنوعی است که در مسیر دستیابی به یک سیستم کاملاً بی طرف و دقیق، با چالش های جدی روبرو شده است. این مدل، اگرچه وعده های زیادی داده است، اما هنوز باید به بازخورد کاربران و مطالعات تخصصی توجه کند تا بتواند پاسخ هایی ارائه دهد که هم از نظر منطقی صحیح و هم از نظر اخلاقی قابل قبول باشند.