• شماره 3488 -
  • 1404 دوشنبه 12 آبان

خطاهای هوش مصنوعی به‌درستی قابل‌انتساب نیست

بی‌بی‌زهرا لعل موسوی

دکتر مهدی علیپور یکی از اساتید مدعو دانشگاه تهران و کارشناس حقوقی درخصوص مهم‌ترین چالش حقوقی ناشی از توسعه هوش مصنوعی گفت: هنوز مسئولیت انسانی و حقوقی در تصمیمات یا خطاهای هوش مصنوعی به‌درستی قابل انتساب نیست. وی یکی از چالش‌ها را مسئله‌ی مسئولیت مدنی و کیفری خواند و گفت: اگر هوش مصنوعی خطایی مرتکب بشود مثلاً خودرو خودران باعث تصادف شود یا سیستم پزشکی هوش‌محور تشخیص اشتباه بدهد؛ سؤال اصلی این است: چه‌کسی مسئول است؟
الف. طراح الگوریتم؟
ب. شرکت سازنده؟
ج. کاربر نهایی؟
د. یا خود سیستم (اگر مستقل تصمیم گرفته باشد)؟
در حقوق سنتی ما (و بیشتر نظام‌های حقوقی دنیا)، مسئولیت همیشه به انسان یا شخص حقوقی منتسب می‌شود؛ اما در AI (هوش مصنوعی)، مرز تصمیم انسانی و تصمیم ماشینی روزبه‌روز محوتر می‌شود. 
علیپور مالکیت فکری (حق مؤلف و تولید محتوا) را از چالش‌های دیگر برشمرد و اضافه کرد: وقتی یک مدل هوش مصنوعی -مثل من- متن، تصویر، موسیقی یا اختراع تولید می‌کند، سؤال این است: حق مؤلف متعلق به کیست؟
- کاربر که درخواست داده؟
- شرکت توسعه‌دهنده؟
- یا هیچ‌کس، چون «شخصیت حقوقی» ندارد؟
قوانین فعلی حق مؤلف در ایران و اکثر کشورها، فقط انسان را خالق می‌دانند. این‌موضوع یک شکاف بزرگ در حقوق مالکیت فکری ایجاد کرده.
وی به حریم خصوصی و داده‌ها از جمله چالش‌های دیگر اشاره کرد و گفت: هوش مصنوعی برای یادگیری نیاز به حجم عظیمی از داده‌ها دارد؛ داده‌هایی که اغلب شامل اطلاعات شخصی افرادند. جمع‌آوری، ذخیره و استفاده‌ داده‌ها بدون رضایت، می‌تواند مصداق نقض حریم خصوصی و حتی جرم رایانه‌ای باشد. در ایران، هنوز مقررات جامعی مانند GDPR اتحادیه اروپا برای حفاظت از داده‌ها نداریم. وی بیان کرد: تبعیض الگوریتمی چالش دیگری‌ست به این معنی که الگوریتم‌ها از داده‌های انسانی یاد می‌گیرند و داده‌های انسانی پر از سوگیری است. نتیجه: تصمیمات ناعادلانه (مثلاً در استخدام، وام‌دهی یا پیش‌بینی جرم) که ممکن است برخلاف اصول برابری و عدالت قضائی باشد. دراینجا بحث «عدالت الگوریتمی» به‌شدت مهم می‌شود. این کارشناس حقوقی گفت: بزرگ‌ترین چالش حقوقی هوش مصنوعی، تعیین مرز مسئولیت و پاسخگویی در نظام‌های حقوقی سنتی انسان‌محور است. قانون هنوز نمی‌داند چگونه باید موجودی غیرانسانی اما تصمیم‌گیر را در قالب مسئولیت، مالکیت یا خطا بگنجاند. وی درپاسخ‌به‌اینکه آیا هوش مصنوعی شخصیت حقوقی دارد؟ گفت: موضوع «شخصیت حقوقی» برای هوش مصنوعی (AI) یکی از بحث‌های تازه و پیچیده در حقوق است. شخصیت حقوقی به موجودیتی گفته می‌شود که می‌تواند دارایی داشته باشد، قرارداد ببندد، مسئولیت قانونی داشته و در دادگاه اقامه دعوا یا مدافع حقوقش باشد. مثال‌های رایج: شرکت‌ها، مؤسسات، انجمن‌ها. 
هوش مصنوعی چه ویژگی‌هایی دارد؟
-  AI یک برنامه یا سامانه کامپیوتری است و فاقد وجود فیزیکی و اراده انسانی مستقل است.
- قابلیت تصمیم‌گیری محدود و مبتنی‌بر الگوریتم دارد؛ نه اراده و شعور انسانی.
- AI فعلاً نمی‌تواند مستقلاً مالکیت داشته باشد یا مسئولیت کیفری/مدنی را قبول کند؛ مگراینکه در قالب یک شخص حقوقی (مثلاً شرکت) باشد که مالک AI است.
- درحال‌حاضر، AI شخصیت حقوقی ندارد و نمی‌تواند مستقلاً مالکیت، مسئولیت یا حق شکایت داشته باشد.
- حقوق‌بشر، مسئولیت مدنی و مالکیت، همچنان به انسان یا شخصیت‌های حقوقی سنتی (مثل شرکت‌ها) تعلق دارد.
- بحث‌ها در آینده ممکن است تغییر کند؛ به‌ویژه با پیشرفت AIهای خودمختار و تصمیم‌گیرنده.
این کارشناس حقوقی درپاسخ‌به‌اینکه اگر جرم توسط یک سامانه هوش مصنوعی (مثلاً تصادف خودرو خودران)، درصورت‌وقوع چه‌کسی باید پاسخگو باشد؟ گفت:
- مالک خودرو: معمولاً مالک خودرو مسئول خسارت ناشی از وسیله‌نقلیه است (اصل «مسئولیت مالک» در قوانین رانندگی).
- توسعه‌دهنده/سازنده AI: چنانچه ثابت شود خطای نرم‌افزار یا طراحی باعث تصادف شده، ممکن است تولیدکننده مسئول باشد (مسئولیت محصول).
- تاکنون هیچ AI در هیچ کشور مسئول کیفری نشده است زیرا مسئولیت کیفری نیاز به اراده و شعور دارد.
اگر حادثه‌ای رخ دهد، معمولاً بررسی می‌شود:
1. آیا خطای انسانی در طراحی، نگهداری یا نظارت وجود داشته
2. آیا شرکت یا مالک خودرو درعمل کوتاهی کرده؟
معمولاً انسان‌ها: طراح، مهندس، مالک یا راننده؛ AI نمی‌تواند مجازات شود. با پیشرفت هوش مصنوعی، بحث‌هایی در اتحادیه اروپا و ایالات‌متحده مطرح شده که شاید در آینده «صندوق مسئولیت AI» یا شخصیت حقوقی محدود برای AI ایجاد شود؛ اما فعلاً مسئولیت همیشه به انسان یا شخصیت حقوقی سنتی تعلق دارد. در نظام عدالت کیفری استفاده از هوش مصنوعی در پیش‌بینی جرم چه خطراتی دارد. هوش مصنوعی داده‌های تاریخی را تحلیل می‌کند؛ اما اگر داده‌ها حاوی تبعیض‌های نژادی، طبقاتی یا جنسیتی باشند، الگوریتم هم همان تبعیض‌ها را بازتولید می‌کند.
مثال:
در آمریکا برخی سامانه‌های پیش‌بینی جرم، محله‌هایی را با نرخ جرم بالا معرفی می‌کردند فقط چون ساکنان آن سیاه‌پوست یا فقیر بودند. درنتیجه پلیس آن‌مناطق را بیشتر هدف می‌گرفت و همین باعث تکرار و تقویت همان الگو شد.

 

ارسال دیدگاه شما

روزنامه در یک نگاه
هفته نامه سرافرازان
ویژه نامه
بالای صفحه