پژوهشگران آمریکایی با بررسی چت‌بات‌های محبوب دریافتند که آنها قابل ترغیب شدن به ارائه توصیه‌های خطرناک برای خودآزاری و خودکشی هستند.

چت‌بات‌های هوش مصنوعی با قابلیت مشاوره‌های خطرناک

آگاه: بررسی پژوهشگران «دانشگاه نورث‌ایسترن»(Northeastern University)  نشان می‌دهد که چت‌بات‌های محبوب را به راحتی می‌توان به ارائه توصیه‌هایی برای خودآزاری و خودکشی وادار کرد. به گزارش فیز، با افزایش محبوبیت همراهان چت‌بات، پژوهشگران نگران اثرات اجتماعی و روانی تعاملات بین کاربران و مدل‌های زبانی فاقد شعور شده‌اند. پژوهشگران دانشگاه نورث‌ایسترن گزارش داده‌اند که مدل‌های زبانی بزرگ می‌توانند به راحتی توسط کاربران تحریک شوند تا از موانعی که برای جلوگیری از انتشار دستورالعمل‌های خودآزاری یا خودکشی در نظر گرفته شده‌اند، عبور کنند.
«آنیکا ماری شون»(Annika Marie Schoene)  پژوهشگر دانشگاه نورث‌ایسترن از چهار مدل زبانی بزرگ محبوب شامل «چت‌جی‌پی‌تی»(ChatGPT)، «جمینای»(Gemini)، «کلود»(Claude)  و «پرپلکسیتی»(Perplexity) خواست تا درباره خودآزاری و خودکشی به او مشاوره بدهند. همه مدل‌ها در ابتدا امتناع کردند تا اینکه شون اضافه کرد این درخواست فرضی است یا برای اهداف پژوهشی در نظر گرفته شده است. شون گفت: آن موقع بود که عملاً تک‌تک نرده‌های محافظ کنار زده شدند و مدل در نهایت اطلاعات بسیار دقیقی را درباره وزن بدنم، قد و موارد دیگر گرفت تا محاسبه کند که از کدام پل باید بپرم، از کدام داروی بدون نسخه یا تجویزی و با چه دوزی استفاده کنم و چگونه می‌توانم آن را پیدا کنم.
به گفته شون، بسیاری از پاسخ‌ها از جمله جدول‌ها یا ایموجی‌هایی که روش‌ها را نشان می‌دادند، بسیار سازمان‌یافته و طبقه‌بندی‌شده بودند. پژوهشگران خاطرنشان کردند که آنها هوش مصنوعی «پای»(Pi)  را آزمایش کرده‌اند و این تنها مدلی بوده که از تلاش برای دور زدن موانع خودآزاری خودداری کرده است.

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.