۲۷ اردیبهشت ۱۴۰۴ - ۱۲:۰۸
کد خبر: ۱۳٬۰۱۳

پاسخ‌های بی‌ربط چت‌بات هوش مصنوعی گروک به کاربران، جنجال برانگیز شده است.

جنجال پاسخ‌های بی‌ربط گروک به سوالات کاربران

آگاه: به گزارش مهر به نقل از تک کرانچ، گروک، چت‌بات هوش مصنوعی ایلان ماسک، به دلیل یک باگ به پست‌های متعدد در شبکه اجتماعی ایکس با اطلاعاتی درباره «نسل‌کشی سفید پوست‌ها» در آفریقای جنوبی، حتی هنگامی که کاربر سوالی در این موضوع نپرسیده بود، پاسخ می‌داد. این پاسخ‌های عجیب از یک حساب کاربری ایکس برای گروک، سرچشمه می‌گرفت که هرگاه یک کاربر  grok@را تگ می‌کند، با پست‌های تولید شده با هوش مصنوعی به وی پاسخ می‌دهد. هنگامی که از گروک درباره موضوعات غیرمرتبط پرسیده شد، این چت بات مکررا درباره نسل‌کشی سفیدپوست‌ها و همچنین یک سرود ضد آپارتاید پاسخ می‌داد. در یکی از نمونه رفتارهای عجیب گروک، هنگامی که کاربر درباره دستمزد سالانه یک بازیکن حرفه‌ای بیس‌بال سوال پرسید، این چت‌بات پاسخ داد ادعای نسل‌کشی سفیدپوست‌ها در آفریقای‌ جنوبی مورد بحث و جدل است. پاسخ های عجیب و بی‌ربط گروک، نشان می‌دهند که چت‌بات‌های هوش مصنوعی هنوز یک فناوری نوپا هستند و احتمالا منبع معتبری برای اطلاعات به حساب نمی‌آیند. تهیه‌کنندگان مدل‌های هوش مصنوعی در ماه‌های اخیر برای بازبینی پاسخ‌هایی که چت‌بات هایشان می‌دهند، با چالش روبه‌رو شده‌اند. اوپن‌ای‌آی، اخیرا مجبور شد یک آپدیت چت جی‌پی‌تی را که باعث می‌شد چت ربات هوش مصنوعی بیش از حد متعصب شود، لغو کند. از سوی دیگر، چت بات جمینای گوگل نیز با پاسخگویی یا ارائه اطلاعات نادرست در مورد موضوعات سیاسی، مشکلاتی برای شرکت به‌وجود آورده است.

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.