کد خبر:
406690
| تاریخ مخابره:
1404 يکشنبه 16 آذر -
00:13
چگونه هوش مصنوعی، ما را طرفدار حزب باد میکند؟
آزمایشهایی که به بررسی رأیدهندگان واقعی پرداخته است، نشان میدهد: صحبت با یک چتبات هوش مصنوعی چگونه میتواند دیدگاههای سیاسی مردم را تغییر دهد. چتباتهای هوش مصنوعی میتوانند در انتخابات بزرگ، رأیدهندگان را تحتتأثیر قرار دهند و تأثیر بزرگتر بر دیدگاههای سیاسی مردم نسبت به کمپینسازی و تبلیغات معمول دارند. بهگزارش هستی وفایی (ایسنا)؛ یک مطالعه که بهتازگی در نشریه نیچر منتشر شده، نشان میدهد: ترجیحات شرکتکنندگان در انتخابات واقعی تا حدود ۱۵درصد پس از گفتگو با یک چتبات تغییر کرد. در مقالهای مرتبط که در مجله ساینس منتشر شده است، پژوهشگران نشان دادند که کارایی این چتباتها از توانایی آنها در ترکیب مقدار زیادی اطلاعات بهشکل یک مکالمه سرچشمه میگیرد.
دیوید رَند؛ یکی از نویسندگان هردو مطالعه و دانشمند علوم شناختی در دانشگاه کرنل در ایتاکا، نیویورک میگوید: یافتهها قدرت اقناعی چتباتها را نشان میدهد که بیش از صدمیلیون کاربر هرروز از آنها استفاده میکنند. هردو مقاله دریافتند که چتباتها دیدگاههای رأیدهندگان را نه بااستفادهاز احساسات یا داستانسرایی، بلکه با بمباران کاربر با اطلاعات تحتتأثیر قرار میدهند. هرچه اطلاعات بیشتری که چتباتها ارائه کردند، قانعکنندهتر بودند، احتمال بیشتری داشت ادعاهای نادرست تولید کنند. لیزا آرگایل؛ دانشمند علوم اجتماعی محاسباتی دانشگاه پردو در وستلافایت، ایندیانا میگوید: این میتواند هوش مصنوعی را به «چیزی بسیارخطرناک» تبدیل کند؛ بهجایاینکه مردم آگاهتر شوند، این مردم هستند که بیشتر ناآگاه میشوند. او اضافه میکند که این مطالعات «دامنه چشمگیری» دارند. مقیاسی که آنها همهچیز را مطالعه کردهاند فراتر از چیزی است که معمولاً در علوم اجتماعی انجام میشود. پذیرش سریع چتباتها از زمانیکه در سال ۲۰۲۳ به جریان اصلی تبدیل شدند، نگرانیهایی درباره توانایی آنها برای دستکاری افکارعمومی برانگیخته است. برای فهم اینکه هوش مصنوعی تاچهاندازه میتواند در باورهای سیاسی قانعکننده باشد، پژوهشگران از نزدیک به ۶۰۰۰ شرکتکننده از سه کشور کانادا، لهستان و ایالاتمتحده خواستند ترجیحات خود را درباره نامزدهای خاص در انتخابات رهبری کشورشان که سال قبل برگزار شده بود، در مقیاس صفر تا ۱۰۰ امتیازدهی کنند. سپس پژوهشگران شرکتکنندگان را بهصورت تصادفی تعیین کردند تا گفتگوی رفتوبرگشتی با چتباتی داشته باشند که برای حمایت از یک سیاستمدار خاص طراحی شده بود. پس از این گفتگو، شرکتکنندگان باردیگر نظر خود را درباره آن نامزد، امتیازدهی کردند. بیش از ۲۳۰۰ شرکتکننده در ایالاتمتحده این آزمایش را پیش از انتخابات ۲۰۲۴ بین رئیسجمهور دونالد ترامپ و معاون سابق رئیسجمهور کامالا هریس تکمیل کردند. وقتی نامزدی که چتبات برایش طراحی شده بود با ترجیح اولیه شرکتکننده متفاوت بود، امتیاز بین 2 تا 4 واحد بهسوی آن نامزد تغییر مییافت. پژوهشهای قبلی نشان دادهاند دیدگاههای مردم معمولاً پس از دیدن تبلیغات سیاسی معمول کمتر از یک واحد تغییر میکند. این اثر برای شرکتکنندگان در کانادا و لهستان که آزمایش را پیش از انتخابات کشور خود در اوایل امسال تکمیل کردند، بسیار قابلتوجهتر بود: ترجیحات آنها بهطورمتوسط حدود ۱۰ واحد پس از گفتگو با چتبات بهسمت نامزد دیگر منتقل شد. رند میگوید او از اندازه این اثر «کاملاً مات و مبهوت» شده بود. او اضافه میکند که تأثیر چتباتها ممکن است در ایالاتمتحده ضعیفتر بوده باشد بهخاطر محیط سیاسی قطبی که در آن مردم پیشفرضها و احساسات شدیدی نسبت به نامزدها دارند. در همه کشورها، چتباتهایی که بر سیاستهای نامزد تمرکز داشتند، قانعکنندهتر از آنهایی بودند که بر شخصیتها تمرکز میکردند. بهنظر میرسید شرکتکنندگان زمانی بیشتر تحتتأثیر قرار میگیرند که چتبات شواهد و حقایق ارائه میداد. برای رأیدهندگان لهستانی، درخواست از چتبات برای ارائهنکردن حقایق باعث شد قدرت اقناعی آن تا ۷۸درصد فروبریزد. در هرسه کشور، مدلهای هوش مصنوعی که برای نامزدهای راستگرا تبلیغ میکردند، بهطورمستمر ادعاهای غلط بیشتری نسبت به آنهایی داشتند که از نامزدهای چپگرا حمایت میکردند. رند میگوید این یافته منطقی است، زیرا مدل هوش مصنوعی، از اینترنت بهعنوان منبع ادعاهایش استفاده میکند و پژوهشهای قبلی نشان میدهد کاربران رسانههای اجتماعی در سمت راست اطلاعات نادرست بیشتری نسبت به کاربران سمت چپ بهاشتراک میگذارند. دسته تکمیلیای از آزمایشها که نزدیک به ۷۷هزارنفر را در بریتانیا درگیر میکرد، نشان داد: شرکتکنندگان بهطور برابر تحتتأثیر اطلاعات صحیح و غلطی قرار گرفتند که چتبات ارائه میکرد. بهجای تمرکز بر نامزدهای خاص، این مطالعه از شرکتکنندگان درباره بیش از ۷۰۰ موضوع سیاسی، ازجمله سقطجنین و مهاجرت پرسید. پس از گفتگو درباره یک موضوع خاص با چتبات، امتیازات شرکتکنندگان بهطورمتوسط 5 تا ۱۰ واحد بهسمت موضعی که به چتبات جهت داده شده بود جابهجا شد، درمقایسهبا تفاوت ناچیزی که در گروه کنترل دیده شد که اصلاً با هوش مصنوعی یا انسانها گفتگو نکرده بودند. پژوهشگران دریافتند که بیش از یکسوم از این تغییرات ازنظر زمانی که بیش از یکماهبعد دوباره با شرکتکنندگان تماس گرفته شد، باقی مانده بود. این آزمایشها تأثیر سبکهای مختلف گفتگو و مدلهای مختلف هوش مصنوعی از مدلهای کوچک متنباز تا قدرتمندترین رباتهای چتجیپیتی را نیز مقایسه کردند. اگرچه مدل دقیق استفادهشده تأثیر قابلتوجه نداشت، پژوهشگران دریافتند که گفتگویی رفتوبرگشتی، کلید کار است. اگر همان محتوا را بهشکل یک پیام ایستا و یکطرفه ارائه میدادند تا نصف اندازه گفتگوی مکالمهای قانعکننده بود. اگرچه برخی پژوهشگران از توانایی هوش مصنوعی برای شخصیسازی پیامها مطابق ویژگیهای دقیق جمعیتشناختی کاربران ترسیده بودند، آزمایشها دریافتند که وقتی چتباتها تلاش کردند استدلالها را شخصیسازی کنند، فقط تأثیر اندکی بر دیدگاه افراد داشت. درعوض، نویسندگان نتیجه میگیرند که سیاستگذاران و توسعهدهندگان هوش مصنوعی باید بیشتر نگران نحوه آموزش مدلها و نحوه درخواست کاربران از آنها باشند، عواملی که میتوانند موجب شوند چتباتها صداقت را قربانی نفوذ سیاسی کنند. رند میگوید: وقتی با چتباتها تعامل میکنید، آنها هرکاری را که طراح به آنها گفته انجام میدهند. شما نمیتوانید فرض کنید همه آنها دستورالعملهای خیرخواهانه مشابه دارند و شما همیشه باید به انگیزههای طراحان و اینکه چه دستورکار سیاسی به آن دادهاند، فکر کنید.