مطالعهای که توسط استادی از دانشگاه مرکزی «فلوریدا» انجام شد، شش چالش را شناسایی کرده که باید برای بهبود رابطه انسان با «هوش مصنوعی» (AI) و تضمین استفاده اخلاقی و منصفانه از آن، غلبه کرد. ۲۶ دانشمند زیرنظر «اوزلم گاریبای»؛ استادیار «دپارتمان مهندسی صنایع و سیستمهای مدیریت» (UCF) مطالعهای را انجام دادهاند که در آن، موانعی را که بشریت باید بر آنها فائق بیاید تا تضمین کند «هوش مصنوعی» ایمن، قابلاعتماد و همسو با ارزشهای انسانیست، منتشر کردهاند. چکیده نتیجه این مطالعه، بهتاریخِ ۲۸ مارس ۲۰۲۳ در رسانه آنلاین SciTech Daily منتشر شده است.
درحالیکه فناوری «هوش مصنوعی» بهمیزانِ فزاینده در جنبههای مختلف زندگی ما رایج شده است، چالشهای متعددی را نیز درپی داشته که باید کاملاً بررسی شوند؛ مثلاً «گاریبای» محقق اصلی این مطالعه که روی کاربردهای «هوش مصنوعی» در طراحی و کشف مواد و دارو کار میکند و چگونگیِ تأثیر «هوش مصنوعی» بر سیستمهای اجتماعی را موردبررسی قرار داده، میگوید؛ ادغام گسترده «هوش مصنوعی» در آینده میتواند بهطوری قابلتوجه بر زندگی انسان اثر بگذارد که هنوز بهطورکامل شناخته نشده است. بااینحال، شش چالشی که او و گروه محققان دراینپژوهش، شناسایی کردند را میتوان نمونههایی از عواقبی درنظر گرفت که بشر باید در مسیر استفاده گسترده از AI حتماً آنها را موردتوجه قرار دهد.
چالش ۱؛ بهزیستی انسان: «هوش مصنوعی» باید بتواند فرصتهای پیادهسازی بهزیستی را بهنفع رفاه انسانها کشف کند. همچنین باید هنگام تعامل با «هوش مصنوعی»، از رفاه کاربر حمایت کرد.
چالش ۲؛ مسئولیتپذیری: وقتی از مسئولیتپذیریِ AI میگوییم؛ یعنی اولویتدادن به رفاه انسان و جامعه درطول چرخه زندگی «هوش مصنوعی»؛ که تضمین میکند از مزایای بالقوه این پدیده طوری استفاده شود که با ارزشها و اولویتهای انسانی همخوان بوده و البته خطر پیامدهای ناخواسته یا نقضهای اخلاقی را نیز کاهش دهد.
چالش ۳؛ حریم خصوصی: جمعآوری، استفاده و انتشار دادهها در سازوکارهای «هوش مصنوعی» باید بهدقت موردتوجه قرار گیرد تا از حفاظت از حریم خصوصی افراد، اطمینان یافته و از استفاده مضر علیه افراد یا گروهها جلوگیری شود.
چالش ۴؛ طراحی: اصول طراحیِ انسانمحور برای سیستمهای «هوش مصنوعی» باید از چارچوبی استفاده کند که بتواند به پزشکان اطلاع دهد. این چارچوب بین «هوش مصنوعی» با ریسک بسیارکم، «هوش مصنوعی» بینیاز به اقدامات خاص، «هوش مصنوعی» با خطرات بالا و «هوش مصنوعی» که نباید مجاز شمرده شود، تمایز قائل است.
چالش ۵؛ حکمرانی و نظارت: چارچوبی حاکمیتی که کل چرخه حیات «هوش مصنوعی» را از تصور تا توسعه تا استقرار درنظر میگیرد، موردنیاز است.
چالش ۶؛ تعامل با انسان: برای تقویت رابطه اخلاقی و عادلانه بین انسانها و سیستمهای «هوش مصنوعی»، ضروریست که تعاملات براساس اصل اساسی احترام به ظرفیتهای شناختی انسانها باشد؛ بهویژه انسانها باید کنترل کامل و مسئولیت رفتار و نتایج سیستمهای «هوش مصنوعی» را دراختیار بگیرند.
این مطالعه که بیش از ۲۰ماه طول کشید، شامل نظرات ۲۶ کارشناس بینالمللیست که سوابق مختلفی درزمینه فناوری «هوش مصنوعی» دارند. «گاریبای» میگوید: «این چالشها مستلزم ایجاد فناوریهای هوش مصنوعی انسانمحور است که اخلاق، انصاف و ارتقای رفاه انسان را در اولویت قرار میدهد. چالشها به اتخاذ رویکردی انسانمحور شامل طراحی مسئولانه، حفاظت از حریم خصوصی، پایبندی به اصول طراحی انسانمحور، حاکمیت و نظارت مناسب و تعامل محترمانه با ظرفیتهای شناختی انسان، نیاز دارد. مجموعاً این چالشها فراخوانی برای اقدام برای جامعه علمی برای توسعه و پیادهسازی فناوریهای AI است که برای انسان اولویتبندی کرده و بهنفع اوست».
مصطفی رفعت