خطاهای هوش مصنوعی بهدرستی قابلانتساب نیست
بیبیزهرا لعل موسوی
دکتر مهدی علیپور یکی از اساتید مدعو دانشگاه تهران و کارشناس حقوقی درخصوص مهمترین چالش حقوقی ناشی از توسعه هوش مصنوعی گفت: هنوز مسئولیت انسانی و حقوقی در تصمیمات یا خطاهای هوش مصنوعی بهدرستی قابل انتساب نیست. وی یکی از چالشها را مسئلهی مسئولیت مدنی و کیفری خواند و گفت: اگر هوش مصنوعی خطایی مرتکب بشود مثلاً خودرو خودران باعث تصادف شود یا سیستم پزشکی هوشمحور تشخیص اشتباه بدهد؛ سؤال اصلی این است: چهکسی مسئول است؟
الف. طراح الگوریتم؟
ب. شرکت سازنده؟
ج. کاربر نهایی؟
د. یا خود سیستم (اگر مستقل تصمیم گرفته باشد)؟
در حقوق سنتی ما (و بیشتر نظامهای حقوقی دنیا)، مسئولیت همیشه به انسان یا شخص حقوقی منتسب میشود؛ اما در AI (هوش مصنوعی)، مرز تصمیم انسانی و تصمیم ماشینی روزبهروز محوتر میشود.
علیپور مالکیت فکری (حق مؤلف و تولید محتوا) را از چالشهای دیگر برشمرد و اضافه کرد: وقتی یک مدل هوش مصنوعی -مثل من- متن، تصویر، موسیقی یا اختراع تولید میکند، سؤال این است: حق مؤلف متعلق به کیست؟
- کاربر که درخواست داده؟
- شرکت توسعهدهنده؟
- یا هیچکس، چون «شخصیت حقوقی» ندارد؟
قوانین فعلی حق مؤلف در ایران و اکثر کشورها، فقط انسان را خالق میدانند. اینموضوع یک شکاف بزرگ در حقوق مالکیت فکری ایجاد کرده.
وی به حریم خصوصی و دادهها از جمله چالشهای دیگر اشاره کرد و گفت: هوش مصنوعی برای یادگیری نیاز به حجم عظیمی از دادهها دارد؛ دادههایی که اغلب شامل اطلاعات شخصی افرادند. جمعآوری، ذخیره و استفاده دادهها بدون رضایت، میتواند مصداق نقض حریم خصوصی و حتی جرم رایانهای باشد. در ایران، هنوز مقررات جامعی مانند GDPR اتحادیه اروپا برای حفاظت از دادهها نداریم. وی بیان کرد: تبعیض الگوریتمی چالش دیگریست به این معنی که الگوریتمها از دادههای انسانی یاد میگیرند و دادههای انسانی پر از سوگیری است. نتیجه: تصمیمات ناعادلانه (مثلاً در استخدام، وامدهی یا پیشبینی جرم) که ممکن است برخلاف اصول برابری و عدالت قضائی باشد. دراینجا بحث «عدالت الگوریتمی» بهشدت مهم میشود. این کارشناس حقوقی گفت: بزرگترین چالش حقوقی هوش مصنوعی، تعیین مرز مسئولیت و پاسخگویی در نظامهای حقوقی سنتی انسانمحور است. قانون هنوز نمیداند چگونه باید موجودی غیرانسانی اما تصمیمگیر را در قالب مسئولیت، مالکیت یا خطا بگنجاند. وی درپاسخبهاینکه آیا هوش مصنوعی شخصیت حقوقی دارد؟ گفت: موضوع «شخصیت حقوقی» برای هوش مصنوعی (AI) یکی از بحثهای تازه و پیچیده در حقوق است. شخصیت حقوقی به موجودیتی گفته میشود که میتواند دارایی داشته باشد، قرارداد ببندد، مسئولیت قانونی داشته و در دادگاه اقامه دعوا یا مدافع حقوقش باشد. مثالهای رایج: شرکتها، مؤسسات، انجمنها.
هوش مصنوعی چه ویژگیهایی دارد؟
- AI یک برنامه یا سامانه کامپیوتری است و فاقد وجود فیزیکی و اراده انسانی مستقل است.
- قابلیت تصمیمگیری محدود و مبتنیبر الگوریتم دارد؛ نه اراده و شعور انسانی.
- AI فعلاً نمیتواند مستقلاً مالکیت داشته باشد یا مسئولیت کیفری/مدنی را قبول کند؛ مگراینکه در قالب یک شخص حقوقی (مثلاً شرکت) باشد که مالک AI است.
- درحالحاضر، AI شخصیت حقوقی ندارد و نمیتواند مستقلاً مالکیت، مسئولیت یا حق شکایت داشته باشد.
- حقوقبشر، مسئولیت مدنی و مالکیت، همچنان به انسان یا شخصیتهای حقوقی سنتی (مثل شرکتها) تعلق دارد.
- بحثها در آینده ممکن است تغییر کند؛ بهویژه با پیشرفت AIهای خودمختار و تصمیمگیرنده.
این کارشناس حقوقی درپاسخبهاینکه اگر جرم توسط یک سامانه هوش مصنوعی (مثلاً تصادف خودرو خودران)، درصورتوقوع چهکسی باید پاسخگو باشد؟ گفت:
- مالک خودرو: معمولاً مالک خودرو مسئول خسارت ناشی از وسیلهنقلیه است (اصل «مسئولیت مالک» در قوانین رانندگی).
- توسعهدهنده/سازنده AI: چنانچه ثابت شود خطای نرمافزار یا طراحی باعث تصادف شده، ممکن است تولیدکننده مسئول باشد (مسئولیت محصول).
- تاکنون هیچ AI در هیچ کشور مسئول کیفری نشده است زیرا مسئولیت کیفری نیاز به اراده و شعور دارد.
اگر حادثهای رخ دهد، معمولاً بررسی میشود:
1. آیا خطای انسانی در طراحی، نگهداری یا نظارت وجود داشته
2. آیا شرکت یا مالک خودرو درعمل کوتاهی کرده؟
معمولاً انسانها: طراح، مهندس، مالک یا راننده؛ AI نمیتواند مجازات شود. با پیشرفت هوش مصنوعی، بحثهایی در اتحادیه اروپا و ایالاتمتحده مطرح شده که شاید در آینده «صندوق مسئولیت AI» یا شخصیت حقوقی محدود برای AI ایجاد شود؛ اما فعلاً مسئولیت همیشه به انسان یا شخصیت حقوقی سنتی تعلق دارد. در نظام عدالت کیفری استفاده از هوش مصنوعی در پیشبینی جرم چه خطراتی دارد. هوش مصنوعی دادههای تاریخی را تحلیل میکند؛ اما اگر دادهها حاوی تبعیضهای نژادی، طبقاتی یا جنسیتی باشند، الگوریتم هم همان تبعیضها را بازتولید میکند.
مثال:
در آمریکا برخی سامانههای پیشبینی جرم، محلههایی را با نرخ جرم بالا معرفی میکردند فقط چون ساکنان آن سیاهپوست یا فقیر بودند. درنتیجه پلیس آنمناطق را بیشتر هدف میگرفت و همین باعث تکرار و تقویت همان الگو شد.