آخرین خبرها
خبرهای پربیننده
چالش‌های پیش‌روی انسان‌ها درمواجهه‌با هوش مصنوعی
کد خبر: 313175 | تاریخ مخابره: ۱۴۰۲ چهارشنبه ۱۳ ارديبهشت - 06:55

چالش‌های پیش‌روی انسان‌ها درمواجهه‌با هوش مصنوعی

مطالعه‌ای که توسط استادی از دانشگاه مرکزی «فلوریدا» انجام شد، شش چالش را شناسایی کرده که باید برای بهبود رابطه انسان با «هوش مصنوعی» (AI) و تضمین استفاده اخلاقی و منصفانه از آن، غلبه کرد. ۲۶ دانشمند زیرنظر «اوزلم گاریبای»؛ استادیار «دپارتمان مهندسی صنایع و سیستم‌های مدیریت» (UCF) مطالعه‌ای را انجام داده‌اند که در آن، موانعی را که بشریت باید بر آن‌ها فائق بیاید تا تضمین کند «هوش مصنوعی» ایمن، قابل‌اعتماد و همسو با ارزش‌های انسانی‌ست، منتشر کرده‌اند. چکیده نتیجه این مطالعه، به‌تاریخِ ۲۸ مارس ۲۰۲۳ در رسانه آنلاین SciTech Daily منتشر شده است.
درحالی‌که فناوری «هوش مصنوعی» به‌‌میزانِ فزاینده در جنبه‌های مختلف زندگی ما رایج شده است، چالش‌های متعددی را نیز درپی داشته که باید کاملاً بررسی شوند؛ مثلاً «گاریبای» محقق اصلی این مطالعه که روی کاربردهای «هوش مصنوعی» در طراحی و کشف مواد و دارو کار می‌کند و چگونگیِ تأثیر «هوش مصنوعی» بر سیستم‌های اجتماعی را موردبررسی قرار داده، می‌گوید؛ ادغام گسترده «هوش مصنوعی» در آینده می‌تواند به‌طوری قابل‌توجه بر زندگی انسان اثر بگذارد که هنوز به‌طورکامل شناخته نشده است. با‌این‌حال، شش چالشی که او و گروه محققان دراین‌پژوهش، شناسایی کردند را می‌توان نمونه‌هایی از عواقبی درنظر گرفت که بشر باید در مسیر استفاده گسترده از AI حتماً آن‌ها را موردتوجه قرار دهد.

چالش ۱؛ بهزیستی انسان: «هوش مصنوعی» باید بتواند فرصت‌های پیاده‌سازی بهزیستی ‌را به‌نفع رفاه انسان‌ها کشف کند. همچنین باید هنگام تعامل با «هوش مصنوعی»، از رفاه کاربر حمایت کرد.

چالش ۲؛ مسئولیت‌پذیری: وقتی از مسئولیت‌پذیریِ AI می‌گوییم؛ یعنی اولویت‌دادن به رفاه انسان و جامعه درطول چرخه زندگی «هوش مصنوعی»؛ که تضمین می‌کند از مزایای بالقوه این پدیده طوری استفاده ‌شود که با ارزش‌ها و اولویت‌های انسانی همخوان بوده و البته خطر پیامدهای ناخواسته یا نقض‌های اخلاقی را نیز کاهش ‌دهد.

چالش ۳؛ حریم خصوصی: جمع‌آوری، استفاده و انتشار داده‌ها در سازوکارهای «هوش مصنوعی» باید به‌دقت موردتوجه قرار گیرد تا از حفاظت از حریم خصوصی افراد، اطمینان یافته و از استفاده مضر علیه افراد یا گروه‌ها جلوگیری شود.

چالش ۴؛ طراحی: اصول طراحیِ انسان‌محور برای سیستم‌های «هوش مصنوعی» باید از چارچوبی استفاده کند که بتواند به پزشکان اطلاع دهد. این چارچوب بین «هوش مصنوعی» با ریسک بسیارکم، «هوش مصنوعی» بی‌نیاز به اقدامات خاص، «هوش مصنوعی» با خطرات بالا و «هوش مصنوعی» که نباید مجاز شمرده شود، تمایز قائل است.

چالش ۵؛ حکمرانی و نظارت: چارچوبی حاکمیتی که کل چرخه حیات «هوش مصنوعی» را از تصور تا توسعه تا استقرار درنظر می‌گیرد، موردنیاز است.

چالش ۶؛ تعامل با انسان: برای تقویت رابطه اخلاقی و عادلانه بین انسان‌ها و سیستم‌های «هوش مصنوعی»، ضروری‌ست که تعاملات براساس اصل اساسی احترام به ظرفیت‌های شناختی انسان‌ها باشد؛ به‌‌ویژه انسان‌ها باید کنترل کامل و مسئولیت رفتار و نتایج سیستم‌های «هوش مصنوعی» را دراختیار بگیرند.

این مطالعه که بیش از ۲۰‌ماه طول کشید، شامل نظرات ۲۶ کارشناس بین‌المللی‌ست که سوابق مختلفی درزمینه فناوری «هوش مصنوعی» دارند. «گاریبای» می‌گوید: «این چالش‌ها مستلزم ایجاد فناوری‌های هوش مصنوعی انسان‌محور است که اخلاق، انصاف و ارتقای رفاه انسان را در اولویت قرار می‌دهد. چالش‌ها به اتخاذ رویکردی انسان‌محور شامل طراحی مسئولانه، حفاظت از حریم خصوصی، پایبندی به اصول طراحی انسان‌محور، حاکمیت و نظارت مناسب و تعامل محترمانه با ظرفیت‌های شناختی انسان، نیاز دارد. مجموعاً این چالش‌ها فراخوانی برای اقدام برای جامعه علمی برای توسعه و پیاده‌سازی فناوری‌های AI ا‌ست که برای انسان اولویت‌بندی کرده و به‌نفع اوست».

مصطفی رفعت

ارسال دیدگاه شما

بالای صفحه