آگاه: ورود ناگهانی هوش مصنوعی زایا، بهویژه مدلهای زبان بزرگ (LLMs)، یک تغییر پارادایم بنیادی را در سراسر آکادمیا و به ویژه در علوم انسانی رقم زده است. این فناوری فقط یک ابزار محاسباتی منفعل، مانند کامپیوتر یا پایگاه داده، نیست. تحلیلهای عمیقتر نشان میدهد که هوش مصنوعی تبدیل به یک نیروی معرفتشناختی شده است که نحوه ساختاردهی، فیلتر و ارائه دانش را به نحو فعال شکل میدهد. این تحول، در ابتدا با ترس ساده از تقلب آکادمیک آغاز شد؛ جایی که اساتید نگران بودند که چتباتها به دستگاههای کاملی برای تقلب تبدیل شوند و بتوانند مقالات و حتی آزمونهای صلاحیت دکتری را بدون دخالت محسوس انسان پشت سر بگذارند. با این حال، نگرانی عمیقتر، زوال کار فکری و خلاقیت انسانی است. پرسش اصلی برای دانشجویان و پژوهشگران این است که اگر هوش مصنوعی در چند ثانیه بتواند تحلیلهای مناسب ارائه دهد و به تولید تئوریها یا تفسیرهای بینهایت بپردازد، ارزش دانش آکادمیک و اصالت انسانی کجا خواهد بود؟
پایان «نظریه» در حال وقوع است؟
در سال۲۰۰۸، کریس اندرسون، سردبیر مجله «Wired»، مقالهای جنجالی با عنوان «پایان نظریه» منتشر کرد. استدلال او که در آن زمان بسیار رادیکال به نظر میرسید، این بود که در عصر کلاندادهها، دیگر نیازی به روش علمی سنتی نداریم. او معتقد بود وقتی دادهها به اندازهای انبوه باشند که بتوانیم همبستگیها را با دقت ۹۹.۹درصد پیدا کنیم، دیگر چه نیازی به دانستن علت داریم؟ به عبارت دیگر، وقتی میدانیم که الگوی الف همیشه به الگوی ب منجر میشود، دیگر مهم نیست که چرا این اتفاق میافتد. مدلهای آماری جایگزین نظریههای علی میشوند.
در آن زمان، این ایده بیشتر به علوم طبیعی و پزشکی مربوط میشد اما امروز، هوش مصنوعی مولد، همان «هیولای همبستگی» است که اندرسون پیشبینی کرده بود و این بار، به طور مستقیم قلب علوم انسانی را هدف گرفته است. مدلهای زبانی بزرگ مانند ChatGPT یا Gemini بر اساس یک اصل آماری ساده کار میکنند؛ پیشبینی محتملترین کلمه بعدی بر اساس میلیاردها متنی که خواندهاند. این مدلها نمیفهمند که عدالت چیست، نظریهای درباره عشق ندارند و فرضیهای در مورد فروپاشی تمدنها ارائه نمیکنند. آنها فقط میدانند که در متون نوشته شده توسط انسانها، کلمات عدالت، عشق و فروپاشی در چه الگوهایی و در کنار چه کلمات دیگری به کار رفتهاند. اینجاست که زنگ خطر برای آکادمیای علوم انسانی به صدا درمیآید. پژوهش در علوم انسانی، اساسا تلاشی برای ارائه نظریههایی در مورد چرایی پدیدههای انسانی بوده است. مارکس فقط الگوهای اقتصادی را توصیف نکرد، او نظریهای برای توضیح چرایی آن الگوها ارائه داد. فروید فقط رفتارها را لیست نکرد، او فرضیهای درباره ضمیر ناخودآگاه مطرح کرد که به یک نظریه بدل شد.
جعبه سیاه و حذف فرضیه
فرآیند سنتی پژوهش در علوم انسانی و البته تمامی علوم با یک مشاهده یا پرسش آغاز میشود. پژوهشگر سپس یک فرضیه ارائه میدهد، سپس با جمعآوری شواهد از طریق تحلیل متن، آزمایش، نظرسنجی و... آن را میآزماید و در نهایت، اگر فرضیه تایید و بسط داده شود، به نظریه نزدیک میشود.
هوش مصنوعی، به ویژه در اشکال یادگیری عمیق که اغلب به عنوان جعبه سیاه عمل میکنند، این فرآیند را دور میزند. امروزه یک پژوهشگر علوم انسانی میتواند به جای طرح یک فرضیه مشخص، تمام متون ادبی قرن نوزدهم را به یک مدل هوش مصنوعی بدهد و بگوید الگوهای پنهان را پیدا کن. مدل هوش مصنوعی میگردد و گزارش میدهد که میان استفاده از کلمه پنجره و شخصیتهای زن داستان که دست به خودکشی میزنند، همبستگی آماری بالایی وجود دارد. این یک یافته است، اما آیا یک نظریه است؟ خیر. این یک همبستگی است. پژوهشگر سنتی ممکن بود با خواندن سه رمان، فرضیهای درباره پنجره به مثابه نماد مرز میان آزادی و اسارت مطرح کند. اما مدل هوش مصنوعی، نیازی به این فرضیه انسانی و خلاقانه ندارد. او فقط الگو را میبیند. خطر اینجاست که آکادمیا به طور فزایندهای به این یافتههای بدون فرضیه پاداش دهد. انتشار مقالاتی که الگوهای جالبی را با استفاده از هوش مصنوعی کشف کردهاند، آسانتر از دفاع از یک نظریه جدید و پرخطر است. در نتیجه، به جای اینکه بپرسیم چرا که منجر به نظریه میشود، به پرسیدن چه که فقط الگوها را نشان میدهد بسنده میکنیم.
چرخه بازیافت بزرگ
این ما را به نکته بسیار مهمی میرساند؛ آن هم چرخیدن متون بر محور نظریات قبلی است. همانطور که گفتیم، مدلهای زبانی بزرگ بر اساس متون موجود آموزش دیدهاند. دانش آنها، میانگین آماری تمام آن چیزی است که بشر تاکنون نوشته است. این یعنی هوش مصنوعی ذاتا محافظهکار است؛ نه به معنای سیاسی، بلکه به معنای معرفتشناختی آن. او در بازترکیب ایدههای موجود استاد است اما در خلق ایدههای رادیکال و نو، ناتوان است.
هوش مصنوعی میتواند به طرز درخشانی، نظریات فروید را روی یک فیلم اعمال کند. میتواند با استفاده از نظریه فمنیستی، رمانهای جدید را نقد کند. میتواند نظریه استعماری را در تحلیل بازیهای ویدیویی به کار گیرد اما آیا هوش مصنوعی میتواند نظریه فروید بعدی را خلق کند؟ نظریهای که مانند او، اساسا شیوه نگرش ما به انسان و جهان را دگرگون کند؟ پاسخ قاطعانه خیر است. زیرا چنین نظریههایی از دادههای موجود برنمیآیند؛ آنها از یک گسست خلاقانه با دادههای موجود از یک فرضیه جسورانه که اغلب در ابتدا احمقانه یا ضد شهود به نظر میرسد، متولد میشوند.
وقتی ابزار اصلی پژوهشگران برای بازترکیب بهینهسازی شده باشد، جای تعجب نیست که خروجیهای آکادمیک نیز به سمت بازترکیب گرایش پیدا کنند. ما با وفور مقالاتی روبهرو میشویم که نظریات قدیمی را روی دادههای جدید اعمال میکنند اما با کمبود شدید نظریههای جدید مواجهیم. این همان بازیافت و چرخیدن حول محور نظریات قبلی است.
پژوهشگران در دانشگاههای معتبر بینالمللی از پدیدهای به نام فروپاشی مدل یاModel Collapse صحبت میکنند. این ایده میگوید اگر ما شروع به آموزش دادن مدلهای هوش مصنوعی جدید، بر اساس محتوایی کنیم که توسط مدلهای هوش مصنوعی قدیمی تولید شدهاند مانند مقالات آکادمیکی که با کمک AI نوشته شدهاند، به سرعت وارد یک حلقه بازخورد میشویم. در این حلقه، دانش جدیدی تولید نمیشود، بلکه دانش موجود، مدام رقیقتر، متوسطتر و شبیهتر به هم میشود، تا جایی که تمام اصالت و ارتباط خود را با واقعیت انسانی از دست میدهد.
فراتر از افول، به سمت بازتعریف ارزش
بررسی جامع تاثیر هوش مصنوعی بر آکادمیای علوم انسانی، تصویری پارادوکسیکال را نشان میدهد. از یکسو، خطر واقعی «چرخه نظری» (Theoretical Circularity که در فلسفه با عنوانepistemic circularity نیز مطرح است) وجود دارد که در آن مدلهای آماری زبان، با بازتولید الگوهای دادههای آموزشی غالب، اصالت فکری را به چالش میکشند و فرآیند تولید فرضیههای رادیکال را تضعیف میکنند. این مسئله میتواند منجر به کاهش ارزش کار فکری در صورت اعمال نکردن قضاوت انتقادی انسانی شود. از سوی دیگر، شواهد نشان میدهند که هوش مصنوعی یک بحران وجودی نیست، بلکه یک کاتالیزور تحول است. با خودکارسازی کارهای سطح پایین و تکراری، هوش مصنوعی محققان علوم انسانی را توانمند میسازد تا تمرکز خود را به تفسیرهای سطح بالا، فرا-تحلیل و قضاوتهای اخلاقی معطوف سازند. این فناوری همچنین به علوم انسانی اجازه میدهد تا دادهها را در مقیاسی بیسابقه تحلیل کرده و روششناسیهای دیجیتال جدیدی را توسعه دهد.
راه نجات؛ علوم انسانی میتواند خود را بازتعریف کند؟
آیا این به معنای پایان علوم انسانی است؟ لزوما نه. اما قطعا به معنای پایان علوم انسانی به شکلی که میشناختیم است. اگر علوم انسانی بخواهد در عصر هوش مصنوعی زنده بماند و شکوفا شود، نمیتواند در تولید متن یا یافتن الگو با ماشینها رقابت کند. نقش جدید و حیاتی انسان در این دوران، دقیقا در همان نقاطی است که هوش مصنوعی در آن شکست میخورد. در جهانی که هوش مصنوعی تمام همبستگیها را پیدا میکند، ارزش انسان در پرسیدن چرا و ارائه فرضیههای جسورانه، رادیکال و خلاقانه برای توضیح آن همبستگیهاست.این خود یک وظیفه علوم انسانی است که بپرسد هوش مصنوعی چگونه میاندیشد. تحلیل سوگیریهای الگوریتمیک، مفروضات پنهان در کدها و پیامدهای اخلاقی و فلسفی واگذاری تفکر به ماشینها، خود یک حوزه پژوهشی غنی در علوم انسانی است.هوش مصنوعی به دادههای متنی دسترسی دارد اما به تجربه زیسته انسانی از نوع درد، عشق، امید، پشیمانی و... دسترسی ندارد. نظریههایی که از این تجربیات منحصرا انسانی برمیخیزند، همچنان قلمرو انسانها باقی خواهند ماند. افول علوم انسانی، تنها در صورتی رخ خواهد داد که ما اصرار داشته باشیم کارهایی را انجام دهیم که ماشینها بهتر انجام میدهند اما اگر علوم انسانی به ریشههای خود برگردد – یعنی به تفکر انتقادی، نظریهپردازی جسورانه و کاوش در معنای انسان بودن – نه تنها افول نخواهد کرد، بلکه به مهمترین رشته تحصیلی در عصر ماشینها بدل خواهد شد.
پاسخهای نهادی و بازنگری در آکادمیا
برای مدیریت آسیبهای معرفتشناختی هوش مصنوعی و استفاده بهینه از قابلیتهای آن، نهادهای آموزشی در سراسر جهان مجبور به بازنگری اساسی در سیاستها و برنامههای درسی خود شدهاند. دانشگاههای پیشرو، از جمله دانشگاه کالیفرنیا یا بسیاری از دانشگاههای معتبر دنیا، در حال توسعه برنامهها و سرفصلهای جدیدی هستند که بر «سواد هوش مصنوعی» (AI Literacy) برای دانشجویان علوم انسانی تاکید میکنند. هدف اصلی این نیست که دانشجویان را برنامهنویس کنند، بلکه آنها را به متفکران عمیقتری در مورد تاثیر هوش مصنوعی بر زندگی اجتماعی و فرهنگی تبدیل کنند تا بتوانند به کاربران متفکری از این فناوری همهگیر تبدیل شوند. برای مدیریت موثر این تحول و جلوگیری از افول احتمالی، آکادمیا باید رویکردهای زیر را اتخاذ کند: اول، اولویتدهی به اصالت روششناختی و فرآیند فکری؛ دانشگاهها باید معیارهای ارزیابی پژوهش (مانند ترفیع و استخدام) را تغییر دهند تا فرآیندهای فکری، همکاریهای بینرشتهای و توانایی محقق برای تولید خروجیهای دیجیتال نوآورانه را ارزیابی کنند، نه فقط تمرکز بر محصول نهایی یک تالیف منفرد و نیز، سرمایهگذاری در آموزش انتقادی هوش مصنوعی؛ سواد هوش مصنوعی باید به عنوان یک مولفه ضروری در تمام برنامههای درسی علوم انسانی ادغام شود. این آموزش باید بر ارزیابی نقادانه سوگیریهای مدل، درک زمینههای فرهنگی-تاریخی فناوری و استفاده اخلاقی از ابزارها تمرکز کند.
نظر شما