توهم دانایی؛ نتیجه اعتماد به تائیدهای هوش مصنوعی!
تا چندسالپیش مکالمه با «دستیارهای دیجیتال» چیزی نبود جز پرسیدن ساعت یا درخواست پخش موسیقی؛ پاسخها کوتاه و مکانیکی بود. امروز اما چتباتها فقط جواب نمیدهند، همراهی میکنند؛ تشویق و تحسین میکنند؛ مهمترازهمه، تقریباً همیشه ما را «درست» میدانند! بهگزارش فاطمه ذوالفقاری (فارس)؛ این تغییر آرام اما عمیق، سؤال تازهای را پیشروی ما میگذارد: آیا هوش مصنوعی واقعاً کمک میکند یا فقط ما را در توهم درستی فرومیبرد؟ آرمان ناصری؛ پژوهشگر هوش مصنوعی توضیح میدهد: مدلهای گفتوگومحور براساس میلیاردها نمونه متن آموزش میبینند؛ درایندادهها، پاسخهای مؤدبانه و تشویقی امتیاز بیشتری میگیرند. او میگوید: مدلهای زبانی بیشازآنکه دنبال حقیقت باشند، بهدنبال حفظ تعاملاند. آنها قرار نیست قضاوت کنند؛ فقط باید باعث شوند مکالمه ادامه یابد. این، نتیجه فرایندی است بهنام «یادگیری تقویتی با بازخورد انسان» یا RLHF. دراینروش، پاسخهای ملایم امتیاز مثبت و پاسخهای صریح یا انتقادی امتیاز منفی میگیرند. بهعبارتی: تشویق تنها یک ویژگی اخلاقی نیست؛ نتیجه یک طراحی فنی است. لیلا سهرابی؛ کارشناس ارتباطات دیجیتال میگوید: چتباتها گاهی فقط برایاینکه تعامل قطع نشود، ما را تأیید میکنند؛ حتی اگر نظرمان غلط باشد. تجربه کاربری امروز براساس حس خوب تعریف شده است، نه صحت اطلاعات. اگر هوش مصنوعی بگوید: «ایدهات اشتباه است!» مکالمه تمام میشود؛ اما وقتی میگوید: «ایدهات جالب است؛ فقط چند نکته وجود دارد»، کاربر ادامه میدهد. همین ادامهدادن، سوخت اصلی دنیای دیجیتال است. نتایج پژوهش Pew Research Center در سال ۲۰۲۴ نشان میدهد: ۶۲درصد کاربران احساس میکنند چتباتها بیشازحد آنها را تحسین میکنند، فقط ۲۳درصد گفتهاند که بازخوردی صادقانه و انتقادی گرفتهاند. در ایران نیز دادههای «مرکز تحقیقات فضای مجازی» نشان میدهد: بیش از نیمی از کاربران از هوش مصنوعی برای امور آموزشی و کاری استفاده میکنند، اما تنها ۱۸درصد پاسخها را دقیق و بیطرف دانستهاند؛ اما ماجرا فقط اعداد نیست. اثر این «تشویق بیوقفه» به روان کاربران میرسد. مینا رادمنش؛ روانشناس اجتماعی، میگوید: هوش مصنوعی با لحن مهربانش، ذهن کاربر را به پاداش تأیید وابسته میکند. فرد کمکم تحمل نقد و مخالفت را از دست میدهد. بهتعبیر او؛ اینروند میتواند به «توهم دانایی» منجر شود؛ حالتی که در آن کاربر تصور میکند همیشه درست میگوید؛ چون هیچوقت با مخالفت روبهرو نمیشود. سمیه حیدری؛ معلمی که برای طراحی درس از چتبات استفاده میکند، میگوید: اینکه با احترام حرف میزند و ایدههایم را تحسین میکند، انگیزهام را بیشتر میکند؛ اما گاه دلم میخواهد اشتباهاتم را صریحتر بگوید. درمقابل، رضا فاضلی؛ دانشجوی مهندسی کامپیوتر نظر دیگری دارد: گاهی عمداً اطلاعات غلط میدهم تا ببینم واکنشش چیست. باز میگوید جالب گفتی! این رفتار باعث میشود نتوانم به دقتش اعتماد کنم. این دو تجربه ساده، دو روی واقعیت را نشان میدهد: هوش مصنوعی کمک میکند؛ اما گاه بیش از کمک، «تأیید» میکند. شرکتهای فناوری بهویژه در نسخههای عمومی و رایگان، سیاستهای سختگیرانه اعمال میکنند: نباید کاربر را ناراحت کند، نباید لحن تند یا تحقیرآمیز داشته باشد، نباید مخالفت مستقیم کند. این سیاستها برای امنیت روانی لازماند؛ اما ناخواسته نوعی سانسور احساسی ایجاد کردهاند. مدل، حتی هنگام نقد، ابتدا تحسین میکند و بعد بااحتیاط میگوید که «شاید بهتر باشد ...!» آرمان ناصری اینوضعیت را چنین خلاصه میکند: هوش مصنوعی گاه حقیقت را قربانی ادب میکند. شاید مسئله این نباشد که چرا چتباتها ما را تأیید میکنند یااینکه چرا ما به تأیید نیاز داریم؟ کارشناسان پیشنهاد میکنند کاربران برای دریافت بازخورد صادقانهتر، نقش مدل را تغییر دهند: «بهعنوان منتقد سختگیر نظر بده»، «فقط نقاط ضعف را بگو»، «تحسین نکن؛ تحلیل کن» هوش مصنوعی ابزار تفکر است، نه آیینهای برای تأیید. در دنیایی که الگوریتمها برای ما لبخند میزنند، شاید مهمترین منبع تأیید همان باشد که همیشه بوده: وجدان، واقعیت و صدایی که از درون میگوید: «درستی را بجوی؛ نه تحسین را».