۲۰ اردیبهشت ۱۴۰۵ - ۱۲:۱۰
کد مطلب: ۲۲٬۱۴۵

 گروهی از پژوهشگران آمریکایی که در یک آزمایش شاهد کار چت‌بات‌های هوش مصنوعی در کپی کردن خود و حملات هکری بودند، می‌گویند که خودتکثیری هوش مصنوعی مستقل دیگر فرضی نیست.

هوش مصنوعی می‌تواند خود را تکثیر کند!

آگاه: پژوهش جدیدی که گفته می‌شود اولین نمونه شناخته‌شده را از خودتکثیری خودکار هوش مصنوعی به نمایش گذاشته است، نشان می‌دهد مدل‌های هوش مصنوعی می‌توانند به رایانه‌ها نفوذ کنند، خود را کپی کنند و از کپی‌های جدید برای حمله به سایر ماشین‌ها استفاده کنند.
پژوهشگران می‌گویند این کشف نشان می‌دهد که متوقف کردن حملات سایبری می‌تواند بسیار دشوارتر باشد، زیرا اگر هوش مصنوعی قبلا کپی‌های خود را در جای دیگری ایجاد کرده باشد، خاموش کردن یک رایانه آلوده کافی نخواهد بود.
این پژوهش در موسسه «پالیسید ریسرچ»(Palisade Research) انجام شد. پژوهشگران مدل‌های هوش مصنوعی اوپن‌ای‌آی، آنتروپیک و علی‌بابا را به نرم‌افزارهای سفارشی‌سازی‌شده موسوم به «ایجنت هارنس»(Agent Harness) متصل کردند که به آنها اجازه می‌داد تا دستورات را به اجرا درآورند و با سایر رایانه‌ها تعامل داشته باشند، نه اینکه از برنامه‌های چت‌بات عمومی استفاده کنند.
بسیاری از ویروس‌های رایانه‌ای می‌توانند خود را روی رایانه‌های جدید کپی کنند، اما پژوهشگران گفتند این احتمالا اولین باری است که یک مدل هوش مصنوعی قادر به سوءاستفاده از آسیب‌پذیری‌ها برای کپی کردن خود روی یک سرور جدید است.
اوپن‌ای‌آی، آنتروپیک و موسسه غیرانتفاعی «ارزیابی مدل و تحقیقات تهدید»(METR) که خطرات ناشی از سیستم‌های پیشرفته هوش مصنوعی را بررسی می‌کند، پیش از این نیز خودتکثیری را به عنوان یک علامت هشداردهنده اعلام کرده بودند، زیرا امکان کنترل سیستم‌هایی که می‌توانند گسترش یابند، ممکن است دشوارتر شود. در هر حال، آنها گفتند که نتایج نشان می‌دهند خودتکثیری هوش مصنوعی مستقل دیگر فرضی نیست.

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.