زهرا بذرافکن- خبرنگار گروه فرهنگ: در جریان هیجان‌ و هراس‌های روزافزون درباره هوش مصنوعی، بحثی عمیق و بنیادین در محافل آکادمیک در جریان است که اغلب در میان اخبار مربوط به جایگزینی مشاغل یا تقلب‌های دانشجویی گم می‌شود. این بحث، موجودیت خود علوم انسانی را نه به عنوان یک رشته تحصیلی، بلکه به مثابه یک روش برای فهم جهان به چالش می‌کشد. نگرانی اصلی این نیست که هوش مصنوعی مقالاتی بهتر از دانشجویان فلسفه بنویسد؛ نگرانی عمیق‌تر این است که هوش مصنوعی در حال تغییر بنیادین فرآیند تولید معرفت است و علوم انسانی را در یکی از اساسی‌ترین کارکردهایش، یعنی «نظریه‌پردازی» با بحرانی جدی مواجه کرده است.

بحران اصالت فکری در علوم انسانی

آگاه: ورود ناگهانی هوش مصنوعی زایا، به‌ویژه مدل‌های زبان بزرگ (LLMs)، یک تغییر پارادایم بنیادی را در سراسر آکادمیا و به ویژه در علوم انسانی رقم زده است. این فناوری فقط یک ابزار محاسباتی منفعل، مانند کامپیوتر یا پایگاه داده، نیست. تحلیل‌های عمیق‌تر نشان می‌دهد که هوش مصنوعی تبدیل به یک نیروی معرفت‌شناختی شده است که نحوه ساختاردهی، فیلتر و ارائه دانش را به نحو فعال شکل می‌دهد. این تحول، در ابتدا با ترس ساده از تقلب آکادمیک آغاز شد؛ جایی که اساتید نگران بودند که چت‌بات‌ها به دستگاه‌های کاملی برای تقلب تبدیل شوند و بتوانند مقالات و حتی آزمون‌های صلاحیت دکتری را بدون دخالت محسوس انسان پشت سر بگذارند. با این حال، نگرانی عمیق‌تر، زوال کار فکری  و خلاقیت انسانی است. پرسش اصلی برای دانشجویان و پژوهشگران این است که اگر هوش مصنوعی در چند ثانیه بتواند تحلیل‌های مناسب ارائه دهد و به تولید تئوری‌ها یا تفسیرهای بی‌نهایت بپردازد، ارزش دانش آکادمیک و اصالت انسانی کجا خواهد بود؟

پایان «نظریه» در حال وقوع است؟
در سال۲۰۰۸، کریس اندرسون، سردبیر مجله «Wired»، مقاله‌ای جنجالی با عنوان «پایان نظریه» منتشر کرد. استدلال او که در آن زمان بسیار رادیکال به نظر می‌رسید، این بود که در عصر کلان‌داده‌ها، دیگر نیازی به روش علمی سنتی نداریم. او معتقد بود وقتی داده‌ها به اندازه‌ای انبوه باشند که بتوانیم همبستگی‌ها را با دقت ۹۹.۹درصد پیدا کنیم، دیگر چه نیازی به دانستن علت داریم؟ به عبارت دیگر، وقتی می‌دانیم که الگوی الف همیشه به الگوی ب منجر می‌شود، دیگر مهم نیست که چرا این اتفاق می‌افتد. مدل‌های آماری جایگزین نظریه‌های علی می‌شوند.
در آن زمان، این ایده بیشتر به علوم طبیعی و پزشکی مربوط می‌شد اما امروز، هوش مصنوعی مولد، همان «هیولای همبستگی» است که اندرسون پیش‌بینی کرده بود و این بار، به طور مستقیم قلب علوم انسانی را هدف گرفته است. مدل‌های زبانی بزرگ مانند ChatGPT یا Gemini بر اساس یک اصل آماری ساده کار می‌کنند؛ پیش‌بینی محتمل‌ترین کلمه‌ بعدی بر اساس میلیاردها متنی که خوانده‌اند. این مدل‌ها نمی‌فهمند که عدالت چیست، نظریه‌ای درباره عشق ندارند و فرضیه‌ای در مورد فروپاشی تمدن‌ها ارائه نمی‌کنند. آنها فقط می‌دانند که در متون نوشته ‌شده توسط انسان‌ها، کلمات عدالت، عشق و فروپاشی در چه الگوهایی و در کنار چه کلمات دیگری به کار رفته‌اند. اینجاست که زنگ خطر برای آکادمیای علوم انسانی به صدا درمی‌آید. پژوهش در علوم انسانی، اساسا تلاشی برای ارائه‌ نظریه‌هایی در مورد چرایی پدیده‌های انسانی بوده است. مارکس فقط الگوهای اقتصادی را توصیف نکرد، او نظریه‌ای برای توضیح چرایی آن الگوها ارائه داد. فروید فقط رفتارها را لیست نکرد، او فرضیه‌ای درباره‌ ضمیر ناخودآگاه مطرح کرد که به یک نظریه بدل شد.

جعبه سیاه و حذف فرضیه
فرآیند سنتی پژوهش در علوم انسانی و البته تمامی علوم با یک مشاهده یا پرسش آغاز می‌شود. پژوهشگر سپس یک فرضیه ارائه می‌دهد، سپس با جمع‌آوری شواهد از طریق تحلیل متن، آزمایش، نظرسنجی و... آن را می‌آزماید و در نهایت، اگر فرضیه تایید و بسط داده شود، به نظریه نزدیک می‌شود.
هوش مصنوعی، به ویژه در اشکال یادگیری عمیق که اغلب به عنوان جعبه سیاه عمل می‌کنند، این فرآیند را دور می‌زند. امروزه یک پژوهشگر علوم انسانی می‌تواند به جای طرح یک فرضیه‌ مشخص، تمام متون ادبی قرن نوزدهم را به یک مدل هوش مصنوعی بدهد و بگوید الگوهای پنهان را پیدا کن. مدل هوش مصنوعی می‌گردد و گزارش می‌دهد که میان استفاده از کلمه‌ پنجره و شخصیت‌های زن داستان که دست به خودکشی می‌زنند، همبستگی آماری بالایی وجود دارد. این یک یافته است، اما آیا یک نظریه است؟ خیر. این یک همبستگی است. پژوهشگر سنتی ممکن بود با خواندن سه رمان، فرضیه‌ای درباره‌ پنجره به مثابه نماد مرز میان آزادی و اسارت مطرح کند. اما مدل هوش مصنوعی، نیازی به این فرضیه‌ انسانی و خلاقانه ندارد. او فقط الگو را می‌بیند.  خطر اینجاست که آکادمیا به طور فزاینده‌ای به این یافته‌های بدون فرضیه پاداش دهد. انتشار مقالاتی که الگوهای جالبی را با استفاده از هوش مصنوعی کشف کرده‌اند، آسان‌تر از دفاع از یک نظریه‌ جدید و پرخطر است. در نتیجه، به جای اینکه بپرسیم چرا که منجر به نظریه می‌شود، به پرسیدن چه که فقط الگوها را نشان می‌دهد بسنده می‌کنیم.

چرخه بازیافت بزرگ 
این ما را به نکته‌ بسیار مهمی می‌رساند؛ آن هم چرخیدن متون بر محور نظریات قبلی است. همانطور که گفتیم، مدل‌های زبانی بزرگ بر اساس متون موجود آموزش دیده‌اند. دانش آنها، میانگین آماری تمام آن چیزی است که بشر تاکنون نوشته است. این یعنی هوش مصنوعی ذاتا محافظه‌کار است؛ نه به معنای سیاسی، بلکه به معنای معرفت‌شناختی آن. او در بازترکیب ایده‌های موجود استاد است اما در خلق ایده‌های رادیکال و نو، ناتوان است.
هوش مصنوعی می‌تواند به طرز درخشانی، نظریات فروید را روی یک فیلم اعمال کند. می‌تواند با استفاده از نظریه‌ فمنیستی، رمان‌های جدید را نقد کند. می‌تواند نظریه‌ استعماری را در تحلیل بازی‌های ویدیویی به کار گیرد اما آیا هوش مصنوعی می‌تواند نظریه‌ فروید بعدی را خلق کند؟ نظریه‌ای که مانند او، اساسا شیوه‌ نگرش ما به انسان و جهان را دگرگون کند؟ پاسخ قاطعانه خیر است. زیرا چنین نظریه‌هایی از داده‌های موجود برنمی‌آیند؛ آنها از یک گسست خلاقانه با داده‌های موجود از یک فرضیه‌ جسورانه که اغلب در ابتدا احمقانه یا ضد شهود به نظر می‌رسد، متولد می‌شوند.
وقتی ابزار اصلی پژوهشگران برای بازترکیب بهینه‌سازی شده باشد، جای تعجب نیست که خروجی‌های آکادمیک نیز به سمت بازترکیب گرایش پیدا کنند. ما با وفور مقالاتی روبه‌رو می‌شویم که نظریات قدیمی را روی داده‌های جدید اعمال می‌کنند اما با کمبود شدید نظریه‌های جدید مواجهیم. این همان بازیافت و چرخیدن حول محور نظریات قبلی است.
پژوهشگران در دانشگاه‌های معتبر بین‌المللی از پدیده‌ای به نام فروپاشی مدل یاModel Collapse صحبت می‌کنند. این ایده می‌گوید اگر ما شروع به آموزش دادن مدل‌های هوش مصنوعی جدید، بر اساس محتوایی کنیم که توسط مدل‌های هوش مصنوعی قدیمی تولید شده‌اند مانند مقالات آکادمیکی که با کمک AI نوشته شده‌اند، به سرعت وارد یک حلقه‌ بازخورد می‌شویم. در این حلقه، دانش جدیدی تولید نمی‌شود، بلکه دانش موجود، مدام رقیق‌تر، متوسط‌تر و شبیه‌تر به هم می‌شود، تا جایی که تمام اصالت و ارتباط خود را با واقعیت انسانی از دست می‌دهد.

فراتر از افول، به سمت بازتعریف ارزش
بررسی جامع تاثیر هوش مصنوعی بر آکادمیای علوم انسانی، تصویری پارادوکسیکال را نشان می‌دهد. از یک‌سو، خطر واقعی «چرخه نظری» (Theoretical Circularity که در فلسفه با عنوانepistemic circularity نیز مطرح است)  وجود دارد که در آن مدل‌های آماری زبان، با بازتولید الگوهای داده‌های آموزشی غالب، اصالت فکری را به چالش می‌کشند و فرآیند تولید فرضیه‌های رادیکال را تضعیف می‌کنند. این مسئله می‌تواند منجر به کاهش ارزش کار فکری در صورت اعمال نکردن قضاوت انتقادی انسانی شود. از سوی دیگر، شواهد نشان می‌دهند که هوش مصنوعی یک بحران وجودی نیست، بلکه یک کاتالیزور تحول است. با خودکارسازی کارهای سطح پایین و تکراری، هوش مصنوعی محققان علوم انسانی را توانمند می‌سازد تا تمرکز خود را به تفسیرهای سطح بالا، فرا-تحلیل و قضاوت‌های اخلاقی معطوف سازند. این فناوری همچنین به علوم انسانی اجازه می‌دهد تا داده‌ها را در مقیاسی بی‌سابقه تحلیل کرده و روش‌شناسی‌های دیجیتال جدیدی را توسعه دهد.

راه نجات؛ علوم انسانی می‌تواند خود را بازتعریف کند؟
آیا این به معنای پایان علوم انسانی است؟ لزوما نه. اما قطعا به معنای پایان علوم انسانی به شکلی که می‌شناختیم است. اگر علوم انسانی بخواهد در عصر هوش مصنوعی زنده بماند و شکوفا شود، نمی‌تواند در تولید متن یا یافتن الگو با ماشین‌ها رقابت کند. نقش جدید و حیاتی انسان‌ در این دوران، دقیقا در همان نقاطی است که هوش مصنوعی در آن شکست می‌خورد. در جهانی که هوش مصنوعی تمام همبستگی‌ها را پیدا می‌کند، ارزش انسان در پرسیدن چرا و ارائه‌ فرضیه‌های جسورانه، رادیکال و خلاقانه برای توضیح آن همبستگی‌هاست.این خود یک وظیفه‌ علوم انسانی است که بپرسد هوش مصنوعی چگونه می‌اندیشد. تحلیل سوگیری‌های الگوریتمیک، مفروضات پنهان در کدها و پیامدهای اخلاقی و فلسفی واگذاری تفکر به ماشین‌ها، خود یک حوزه‌ پژوهشی غنی در علوم انسانی است.هوش مصنوعی به داده‌های متنی دسترسی دارد اما به تجربه‌ زیسته‌ انسانی از نوع درد، عشق، امید، پشیمانی و... دسترسی ندارد. نظریه‌هایی که از این تجربیات منحصرا انسانی برمی‌خیزند، همچنان قلمرو انسان‌ها باقی خواهند ماند. افول علوم انسانی، تنها در صورتی رخ خواهد داد که ما اصرار داشته باشیم کارهایی را انجام دهیم که ماشین‌ها بهتر انجام می‌دهند اما اگر علوم انسانی به ریشه‌های خود برگردد – یعنی به تفکر انتقادی، نظریه‌پردازی جسورانه و کاوش در معنای انسان بودن – نه تنها افول نخواهد کرد، بلکه به مهم‌ترین رشته‌ تحصیلی در عصر ماشین‌ها بدل خواهد شد.

پاسخ‌های نهادی و بازنگری در آکادمیا
برای مدیریت آسیب‌های معرفت‌شناختی هوش مصنوعی و استفاده بهینه از قابلیت‌های آن، نهادهای آموزشی در سراسر جهان مجبور به بازنگری اساسی در سیاست‌ها و برنامه‌های درسی خود شده‌اند. دانشگاه‌های پیشرو، از جمله دانشگاه کالیفرنیا یا بسیاری از دانشگاه‌های معتبر دنیا، در حال توسعه برنامه‌ها و سرفصل‌های جدیدی هستند که بر «سواد هوش مصنوعی» (AI Literacy) برای دانشجویان علوم انسانی تاکید می‌کنند. هدف اصلی این نیست که دانشجویان را برنامه‌نویس کنند، بلکه آنها را به متفکران عمیق‌تری در مورد تاثیر هوش مصنوعی بر زندگی اجتماعی و فرهنگی تبدیل کنند تا بتوانند به کاربران متفکری از این فناوری همه‌گیر تبدیل شوند. برای مدیریت موثر این تحول و جلوگیری از افول احتمالی، آکادمیا باید رویکردهای زیر را اتخاذ کند: اول، اولویت‌دهی به اصالت روش‌شناختی و فرآیند فکری؛ دانشگاه‌ها باید معیارهای ارزیابی پژوهش (مانند ترفیع و استخدام) را تغییر دهند تا فرآیندهای فکری، همکاری‌های بین‌رشته‌ای و توانایی محقق برای تولید خروجی‌های دیجیتال نوآورانه را ارزیابی کنند، نه فقط تمرکز بر محصول نهایی یک تالیف منفرد و نیز، سرمایه‌گذاری در آموزش انتقادی هوش مصنوعی؛ سواد هوش مصنوعی باید به عنوان یک مولفه ضروری در تمام برنامه‌های درسی علوم انسانی ادغام شود. این آموزش باید بر ارزیابی نقادانه سوگیری‌های مدل، درک زمینه‌های فرهنگی-تاریخی فناوری و استفاده اخلاقی از ابزارها تمرکز کند.

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.