آگاه: به گزارش مهر به نقل از تک کرانچ، گروک، چتبات هوش مصنوعی ایلان ماسک، به دلیل یک باگ به پستهای متعدد در شبکه اجتماعی ایکس با اطلاعاتی درباره «نسلکشی سفید پوستها» در آفریقای جنوبی، حتی هنگامی که کاربر سوالی در این موضوع نپرسیده بود، پاسخ میداد. این پاسخهای عجیب از یک حساب کاربری ایکس برای گروک، سرچشمه میگرفت که هرگاه یک کاربر grok@را تگ میکند، با پستهای تولید شده با هوش مصنوعی به وی پاسخ میدهد. هنگامی که از گروک درباره موضوعات غیرمرتبط پرسیده شد، این چت بات مکررا درباره نسلکشی سفیدپوستها و همچنین یک سرود ضد آپارتاید پاسخ میداد. در یکی از نمونه رفتارهای عجیب گروک، هنگامی که کاربر درباره دستمزد سالانه یک بازیکن حرفهای بیسبال سوال پرسید، این چتبات پاسخ داد ادعای نسلکشی سفیدپوستها در آفریقای جنوبی مورد بحث و جدل است. پاسخ های عجیب و بیربط گروک، نشان میدهند که چتباتهای هوش مصنوعی هنوز یک فناوری نوپا هستند و احتمالا منبع معتبری برای اطلاعات به حساب نمیآیند. تهیهکنندگان مدلهای هوش مصنوعی در ماههای اخیر برای بازبینی پاسخهایی که چتبات هایشان میدهند، با چالش روبهرو شدهاند. اوپنایآی، اخیرا مجبور شد یک آپدیت چت جیپیتی را که باعث میشد چت ربات هوش مصنوعی بیش از حد متعصب شود، لغو کند. از سوی دیگر، چت بات جمینای گوگل نیز با پاسخگویی یا ارائه اطلاعات نادرست در مورد موضوعات سیاسی، مشکلاتی برای شرکت بهوجود آورده است.
۲۷ اردیبهشت ۱۴۰۴ - ۱۲:۰۸
پاسخهای بیربط چتبات هوش مصنوعی گروک به کاربران، جنجال برانگیز شده است.