یادداشت
ياسر استادحسين*
چالشهای جهانی هوش مصنوعی؛ اخلاق و امنیت در دنیای دیجیتال
هفتدههقبل در 1936 در بحبوحه رکود اقتصادی دهه 1930 و پيامدهای جنگ جهانی اول؛ وقتی «آلن تورينگ» (رياضيدان و مخترع علوم رايانه)، تئوری «ماشين تورينگ» که مفهوم يک ماشين محاسباتی بود را مطرح کرد؛ افراد انگشتشماری مفهومی بهنام «هوش مصنوعی» (Artificial Intelligence) را از ذهن میگذراند. دودههبعد اولين برنامههای رایانهای با بهره از هوش مصنوعی چهره خود را نمايان ساختند. یکیازآنها «تست تورينگ» بود که «جان مککارتی» و «مارتین مینسکی» آنرا ارائه دادند و به «انفجار هوش مصنوعی» شهرت يافت. در دهه 1950، تلاشهایی برای شبیهسازی فرآیندهای شناختی انسانی مانند حل مسائل و یادگیری توسط ماشینها آغاز شد. درآندوره شبکههای عصبی مطرح شدند و انسانمانندترین مدلهای هوش مصنوعی ارائه گردید. در دهه 1970، برخی از تحقیقات در حوزه AI بهدلیل محدودیتهای سختافزاری و نرمافزاری متوقف شدند. آندوره بهعنوان «زمستان هوش مصنوعی» شناخته شد؛ اما با پیشرفتهایی درزمینه تکنولوژی رایانهای و الگوریتمهای جدید در دهه 1980، دوره بازسازی هوش مصنوعی آغاز شد.
هوش مصنوعی؛ گذر از دوران آزمايشگاهی
در دهههای اخیر، با ظهور تواناییهای محاسباتی و دادههای بزرگ، شبکههای عصبی عمیق باعث انقلاب در هوش مصنوعی شدند. اینشبکهها به تشخیص صوت، تصویر و حتی بازیابی متن از تصاویر پرداخته و به دقت بالایی در انجام وظایف هوش مصنوعی دست یافتند. اگرچه تا چندسالاخیر موضوع هوش مصنوعی صرفاً به تئوریها و الگوریتمهای رایانهای در سطح مطالعات و تحقیقهای دانشگاهی ختم میشد، حالا همهگیری آنرا باید فوران کاربردیسازی اين فناوری جذاب درنظر گرفت. بهموازات کاربست اين فناوری چالشهای آن نيز اکنون رنگوبوی جدیتری بهخود گرفته. مواردی؛ ازجمله حفظ حريم خصوصی و تبعيض، بيکاری و نيل بازار صرفاً به جذب نيروی متخصص، تطابق قوانين و مقررات، تعارضهای امنيتی و مواردی ازایندست را میتوان بهعنوان چالشهای هوش مصنوعی برشمرد؛ اما آنچه در فضای هوش مصنوعی دلهرهآورتر است، اخلاق و امنیت در دنیای دیجیتال است. عدمرعایت اخلاق در هوش مصنوعی تبعات منفی نژادی، جنسيتی را بهبار خواهد آورد؛ مثلاً اگر سامانه تشخيص چهره بهصورت ناپايدار در تشخيص افراد باپوستها و جنسیتهای مختلف اقدام به شناسايی افراد کند، منجر به تبعيض و تبعات منفی ناشیازآن میشود که نهایتاً به اعتماد عمومی آسيب جدی وارد مینماید. خطرات امنيتی در تصمیمگیریهای خودکار همچون در بحث نظامی خطر ازدستدادن کنترل بهمعنای شورشهای ماشينی و ضربه سلاحهای خودکار بدون نظارت انسان تهديد جدی محسوب میشود. نیز در بحث خودروهای خودران، يا تصمیمگیریهای مالی، ترويج اخبار جعلی، دزدی هويت و سرقت اطلاعات از جمله مهمترین مسائل اخلاق و امنيت در حوزه هوش مصنوعی بهحساب میآید. پیشاز همهگيری اين فناوری باید اقدامات لازم پیشبینی و نظارتهای حاکم بر آن در قالب قوانين و مقررات چه برای طراحان و چه برای بهرهبرداران پایهگذاری شود.
*کارشناس ارشد مهندسی نرمافزار