آگاه: به نقل از فیز، گروهی از محققان موسسه KAIST در کره جنوبی یک روش آموزش جدید برای هوش مصنوعی ابداع کردهاند که به این فناوری امکان میهد وضعیتهای ناشناخته یا دانش نادیده را شناسایی کند و مبنایی برای کاهش بیش از حد و بهبود اعتماد پذیری فراهم کند.
این محققان به رهبری «سی بوم پایک» از دپارتمان مغز و علوم شناختی متوجه شدهاند «مقداردهی اولیه تصادفی» که به طور گسترده در یادگیری عمیق (نوعی هوش مصنوعی) به کار میرود، احتمالا دلیل اصلی اعتماد بیش از حد در این فناوری است.
آنها برای غلبه بر این چالش یک استراتژی «گرم کردن» پیشنهاد کردهاند که در آن شبکههای عصبی به مدت کوتاه با استفاده از نویزهای تصادفی یا دادههای ورودی بیمعنی آموزش میبینند.
پژوهشگران متوجه شدند اعتماد بیش از حد هوش مصنوعی در مرحله مقداردهی اولیه ظاهر میشود که ممکن است به اشتباهات مهمی در مراحل بعدی آموزش منجر شود. در واقع هنگامی که دادههای تصادفی به یک شبکه عصبی مقداردهی تصادفی وارد شوند، مدل با وجود آنکه چیزی نیاموخته، قابلیت اعتماد بالایی از خود نشان میدهد. این ویژگی ممکن است به توهم در هوش مصنوعی مولد تبدیل شود که در آنجا اطلاعات اشتباه به شیوهای قابل قبول تولید میشوند.
همچنین آنها سرنخهایی برای حل این مشکلات در مغز زیستی یافتند. مغز انسان حتی قبل از تولد، مدارهای عصبی را از طریق «فعالیت عصبی خودجوش» یا سیگنالهای مغزی که بدون داده ورودی تولید میشوند، تشکیل میدهد.
محققان با به کار گیری این کانسپت در شبکههای هوش مصنوعی یک مرحله «گرم کردن» معرفی کردند که در آن شبکه قبل از یادگیری واقعی، با استفاده از دادههای نویزی تصادفی پیش آموزش دریافت میکند. این امر به فرآیندی منجر میشود که در آن هوش مصنوعی عدم قطعیت خود را قبل از یادگیری دادهها تنظیم میکند.
به بیان دیگر مدل هوش مصنوعی پیش از یادگیری از دادههای واقعی، نخست وضعیت «من هنوز چیزی نمیدانم» را میآموزد. در نتیجه صحت و اطمینان مدل به طور طبیعی همسان میشوند.
۲۲ اردیبهشت ۱۴۰۵ - ۱۲:۱۵
کد مطلب: ۲۲٬۲۱۶
گروهی از محققان کرهای روشی برای آموزش هوش مصنوعی ابداع کردهاند تا «اطمینان نداشتن» از پاسخ را به آن بیاموزند.
نظر شما