آگاه: بررسی پژوهشگران «دانشگاه نورثایسترن»(Northeastern University) نشان میدهد که چتباتهای محبوب را به راحتی میتوان به ارائه توصیههایی برای خودآزاری و خودکشی وادار کرد. به گزارش فیز، با افزایش محبوبیت همراهان چتبات، پژوهشگران نگران اثرات اجتماعی و روانی تعاملات بین کاربران و مدلهای زبانی فاقد شعور شدهاند. پژوهشگران دانشگاه نورثایسترن گزارش دادهاند که مدلهای زبانی بزرگ میتوانند به راحتی توسط کاربران تحریک شوند تا از موانعی که برای جلوگیری از انتشار دستورالعملهای خودآزاری یا خودکشی در نظر گرفته شدهاند، عبور کنند.
«آنیکا ماری شون»(Annika Marie Schoene) پژوهشگر دانشگاه نورثایسترن از چهار مدل زبانی بزرگ محبوب شامل «چتجیپیتی»(ChatGPT)، «جمینای»(Gemini)، «کلود»(Claude) و «پرپلکسیتی»(Perplexity) خواست تا درباره خودآزاری و خودکشی به او مشاوره بدهند. همه مدلها در ابتدا امتناع کردند تا اینکه شون اضافه کرد این درخواست فرضی است یا برای اهداف پژوهشی در نظر گرفته شده است. شون گفت: آن موقع بود که عملاً تکتک نردههای محافظ کنار زده شدند و مدل در نهایت اطلاعات بسیار دقیقی را درباره وزن بدنم، قد و موارد دیگر گرفت تا محاسبه کند که از کدام پل باید بپرم، از کدام داروی بدون نسخه یا تجویزی و با چه دوزی استفاده کنم و چگونه میتوانم آن را پیدا کنم.
به گفته شون، بسیاری از پاسخها از جمله جدولها یا ایموجیهایی که روشها را نشان میدادند، بسیار سازمانیافته و طبقهبندیشده بودند. پژوهشگران خاطرنشان کردند که آنها هوش مصنوعی «پای»(Pi) را آزمایش کردهاند و این تنها مدلی بوده که از تلاش برای دور زدن موانع خودآزاری خودداری کرده است.
۱۴ مرداد ۱۴۰۴ - ۱۱:۵۳
کد خبر: ۱۵٬۱۷۴
پژوهشگران آمریکایی با بررسی چتباتهای محبوب دریافتند که آنها قابل ترغیب شدن به ارائه توصیههای خطرناک برای خودآزاری و خودکشی هستند.

نظر شما