آخرین خبرها
خبرهای پربیننده
توهم دانایی؛ نتیجه اعتماد به تائیدهای هوش مصنوعی!
کد خبر: 406579 | تاریخ مخابره: 1404 دوشنبه 19 آبان - 06:25

توهم دانایی؛ نتیجه اعتماد به تائیدهای هوش مصنوعی!

تا چندسال‌پیش مکالمه با «دستیارهای دیجیتال» چیزی نبود جز پرسیدن ساعت یا درخواست پخش موسیقی؛ پاسخ‌ها کوتاه و مکانیکی بود. امروز اما چت‌بات‌ها فقط جواب نمی‌دهند، همراهی می‌کنند؛ تشویق و تحسین می‌کنند؛ مهم‌ترازهمه، تقریباً همیشه ما را «درست» می‌دانند! به‌گزارش فاطمه ذوالفقاری (فارس)؛ این تغییر آرام اما عمیق، سؤال تازه‌ای را پیشروی ما می‌گذارد: آیا هوش مصنوعی واقعاً کمک می‌کند یا فقط ما را در توهم درستی فرومی‌برد؟ آرمان ناصری؛ پژوهشگر هوش مصنوعی توضیح می‌دهد: مدل‌های گفت‌وگومحور براساس میلیاردها نمونه متن آموزش می‌بینند؛ دراین‌داده‌ها، پاسخ‌های مؤدبانه و تشویقی امتیاز بیشتری می‌گیرند. او می‌گوید: مدل‌های زبانی بیش‌ازآنکه ‌دنبال حقیقت باشند، به‌دنبال حفظ تعامل‌اند. آن‌ها قرار نیست قضاوت کنند؛ فقط باید باعث شوند مکالمه ادامه یابد. این، نتیجه فرایندی است به‌نام «یادگیری تقویتی با بازخورد انسان» یا RLHF. دراین‌روش، پاسخ‌های ملایم امتیاز مثبت و پاسخ‌های صریح یا انتقادی امتیاز منفی می‌گیرند. به‌عبارتی: تشویق تنها یک ویژگی اخلاقی نیست؛ نتیجه یک طراحی فنی است. لیلا سهرابی؛ کارشناس ارتباطات دیجیتال می‌گوید: چت‌بات‌ها گاهی فقط برای‌اینکه تعامل قطع نشود، ما را تأیید می‌کنند؛ حتی اگر نظرمان غلط باشد. تجربه کاربری امروز براساس حس خوب تعریف شده است، نه صحت اطلاعات. اگر هوش مصنوعی بگوید: «ایده‌ات اشتباه است!» مکالمه تمام می‌شود؛ اما وقتی می‌گوید: «ایده‌ات جالب است؛ فقط چند نکته وجود دارد»، کاربر ادامه می‌دهد. همین ادامه‌دادن، سوخت اصلی دنیای دیجیتال است. نتایج پژوهش Pew Research Center در سال ۲۰۲۴ نشان می‌دهد: ۶۲‌درصد کاربران احساس می‌کنند چت‌بات‌ها بیش‌ازحد آن‌ها را تحسین می‌کنند، فقط ۲۳درصد گفته‌اند که بازخوردی صادقانه و انتقادی گرفته‌اند. در ایران نیز داده‌های «مرکز تحقیقات فضای مجازی» نشان می‌دهد: بیش از نیمی از کاربران از هوش مصنوعی برای امور آموزشی و کاری استفاده می‌کنند، اما تنها ۱۸‌درصد پاسخ‌ها را دقیق و بی‌طرف دانسته‌اند؛ اما ماجرا فقط اعداد نیست. اثر این «تشویق بی‌وقفه» به روان کاربران می‌رسد. مینا رادمنش؛ روان‌شناس اجتماعی، می‌گوید: هوش مصنوعی با لحن مهربانش، ذهن کاربر را به پاداش تأیید وابسته می‌کند. فرد کم‌کم تحمل نقد و مخالفت را از دست می‌دهد. به‌تعبیر او؛ این‌روند می‌تواند به «توهم دانایی» منجر شود؛ حالتی که در آن کاربر تصور می‌کند همیشه درست می‌گوید؛ چون هیچ‌وقت با مخالفت روبه‌رو نمی‌شود. سمیه حیدری؛ معلمی که برای طراحی درس از چت‌بات استفاده می‌کند، می‌گوید: اینکه با احترام حرف می‌زند و ایده‌هایم را تحسین می‌کند، انگیزه‌ام را بیشتر می‌کند؛ اما گاه دلم می‌خواهد اشتباهاتم را صریح‌تر بگوید. درمقابل، رضا فاضلی؛ دانشجوی مهندسی کامپیوتر نظر دیگری دارد: گاهی عمداً اطلاعات غلط می‌دهم تا ببینم واکنشش چیست. باز می‌گوید جالب گفتی! این رفتار باعث می‌شود نتوانم به دقتش اعتماد کنم. این دو تجربه ساده، دو روی واقعیت را نشان می‌دهد: هوش مصنوعی کمک می‌کند؛ اما گاه بیش از کمک، «تأیید» می‌کند. شرکت‌های فناوری به‌ویژه در نسخه‌های عمومی و رایگان، سیاست‌های سخت‌گیرانه اعمال می‌کنند: نباید کاربر را ناراحت کند، نباید لحن تند یا تحقیرآمیز داشته باشد، نباید مخالفت مستقیم کند. این سیاست‌ها برای امنیت روانی لازم‌اند؛ اما ناخواسته نوعی سانسور احساسی ایجاد کرده‌اند. مدل، حتی هنگام نقد، ابتدا تحسین می‌کند و بعد بااحتیاط می‌گوید که «شاید بهتر باشد ...!» آرمان ناصری این‌وضعیت را چنین خلاصه می‌کند: هوش مصنوعی گاه حقیقت را قربانی ادب می‌کند. شاید مسئله این نباشد که چرا چت‌بات‌ها ما را تأیید می‌کنند یااینکه چرا ما به تأیید نیاز داریم؟ کارشناسان پیشنهاد می‌کنند کاربران برای دریافت بازخورد صادقانه‌تر، نقش مدل را تغییر دهند: «به‌عنوان منتقد سخت‌گیر نظر بده»، «فقط نقاط ضعف را بگو»، «تحسین نکن؛ تحلیل کن» هوش مصنوعی ابزار تفکر است، نه آیینه‌ای برای تأیید‌. در دنیایی که الگوریتم‌ها برای ما لبخند می‌زنند، شاید مهم‌ترین منبع تأیید همان باشد که همیشه بوده: وجدان، واقعیت و صدایی که از درون می‌گوید: «درستی را بجوی؛ نه تحسین را».

ارسال دیدگاه شما

بالای صفحه