آخرین خبرها
خبرهای پربیننده
«روبات‌های قاتل»؛ سربازان تازه‌نفس میدان‌های نبرد
کد خبر: 313246 | تاریخ مخابره: ۱۴۰۲ شنبه ۳۰ ارديبهشت - 07:02

«روبات‌های قاتل»؛ سربازان تازه‌نفس میدان‌های نبرد

بشریت درآستانه عصر جدیدی از جنگ ایستاده است. به‌دلیل پیشرفت‌های سریع در هوش مصنوعی، پلتفرم‌های تسلیحاتی که قادرند به‌تنهایی انسان‌ها را شناسایی کرده، هدف قرار داده و تصمیم به کشتن بگیرند (بی‌اینکه افسری حمله را هدایت کند یا سربازی ماشه را بکشد)، به‌سرعت «آینده درگیری» را دگرگون می‌کند. رسماً این تجهیزات را «سامانه‌های تسلیحات خودکار کشنده» (LAWS) می‌نامند؛ اما منتقدان به آن‌ها لقب «روبات‌های قاتل» داده‌اند. بسیاری دولت‌ها؛ ازجمله ایالات‌متحده، چین، بریتانیا، هند، اسرائیل، کره جنوبی، روسیه و ترکیه در سال‌های اخیر، سرمایه‌گذاری بسیاری برای توسعه چنین تسلیحاتی کرده‌اند. جنگ‌افزارهایی که می‌توانند میدان‌های جنگ را تسخیر کنند؛ آیا جهان برای ماشین‌هایی که تصمیم می‌گیرند چه‌کسی را بکشند، آماده است؟ عمده کشورهای کوچک‌تر می‌گویند: «نه!» گزارش ۱۶ می ۲۰۲۳ رسانه Al Jazeera به این‌مسئله پرداخته است.

گزارش «سازمان ملل متحد» حاکی‌ست‌که پهپادهای تمام‌اتوماتیک Kargu-2 ساخت «ترکیه»، آغازگر این عصر جدید بودند؛ که در سال ۲۰۲۰ در بحبوحه درگیری‌های جاری این‌کشور به نیروهای نظامی در «لیبی» حمله کردند. «پهپادهای خودمختار» نیز نقش مهمی در جنگ «اوکراین» ایفا کرده‌اند؛ جایی‌که «مسکو» و «کی‌یف» هر‌دو از این اسلحه بدون سرنشین برای هدف‌قراردادن سربازان و زیرساخت‌های دشمن استفاده کرده‌اند. ظهور و استقرار چنین ماشین‌هایی بحث‌های شدیدی را میان کارشناسان، فعالان و دیپلمات‌ها در سرتاسر جهان به‌راه انداخته؛ زیرا آن‌ها با مزایا و خطرات احتمالی استفاده از روبات‌ها چالش داشته و بررسی می‌کنند که آیا باید؛ و اصلاً چگونه آن‌ها را متوقف کنند؟ بااین‌حال، در یک چشم‌انداز ژئوپلیتیکی چندپاره‌شده، آیا جامعه جهانی می‌تواند درمورد این ادوات به اجماع برسد؟ آیا تهدیدات اخلاقی، قانونی و تکنولوژیکی ناشی از چنین سلاح‌هایی، توقف آن‌ها را قبل از تسلط بر میدان جنگ ضروری می‌سازد؟ آیا ممنوعیتِ کلی امکان‌پذیر بوده یا وضع مقررات محدودکننده، گزینه‌ای عملی‌تر و واقعی‌تر است؟ پاسخ کوتاه: ممنوعیت کامل سامانه‌های تسلیحاتیِ خودمختار، به‌این‌زودی محتمل به‌نظر نمی‌رسد. بااین‌حال، تعداد فزاینده‌ای از صداها -‌به‌ویژه از جهان جنوب- خواستار تنظیم آن‌ها بوده و کارشناسان نیز براین‌باورندکه ممنوع‌سازیِ استفاده از «سلاح‌های شیمیایی» امکان‌پذیر است. اگرچه امکان دارد قدرت‌های نظامیِ بزرگ، مجذوب مزایای بالقوه میدان نبردی باشند که چنین سامانه‌هایی می‌توانند دراختیارشان قرار دهند؛ اما به‌نظر می‌رسد اشتهای کمی برای آن‌ها در خارج از ژنرال‌های جنگ‌طلب وجود دارد. در اواخر مارس ۲۰۲۳، «یاسمین افینا»؛ پژوهشگری در اندیشکده «چتم هاوس» (مستقر در لندن)، به «مجلس اعیان» (تالار دوم پارلمان بریتانیا) توضیح داد که چگونه «آژانس امنیت ملی ایالات‌متحده» (NSA) یک‌بار به‌اشتباه خبرنگار «الجزیره» را به‌عنوان پیک «القاعده» شناسایی کرد؛ که منجر به قرارگرفتن این روزنامه‌نگار در فهرست نظارتی «آمریکا» نیز شد (این‌ماجرا ازطریق اسنادی که سال ۲۰۱۳ توسط ادوارد اسنودن؛ افشاگر کنونی و پیمانکار سابق آژانس امنیت ملی برملا شد). او در بیانیه‌اش توضیح داد که «یک سیستم نظارتی از این‌نوع اگرچه به‌خودی‌خود یک سازوکار تسلیحاتی نیست؛ اما می‌تواند خطرآفرین بوده و چنانچه مثل همین نمونه، با یک روزنامه‌نگار به‌عنوان هدف متخاصم مقابله شود، کاملاً خلاف ملاحظات حقوق بشردوستانه بین‌المللی‌ست». یک کارشناس هوش مصنوعی در دانشگاه «نیو ساوت ولز» (استرالیا) به‌نامِ «توبی والش» معتقد است که پتانسیل LAWS برای ایجاد واکنش زنجیره‌ای از رویدادهای افزایشی، می‌تواند نگران‌کننده باشد. او می‌گوید: «ما می‌دانیم وقتی سامانه‌های کامپیوتری پیچیده را در یک محیط نامشخص و رقابتی در برابر یکدیگر قرار دهیم، چه اتفاقی می‌افتد». او در شواهد مکتوب ارائه‌شده به «مجلس اعیان» آورد: این مثل عملکرد به‌هم‌پیوسته بازار سهام است. تنها راه برای متوقف‌کردن حلقه‌های بازخورد خطرناک و پیامدهای نامطلوب، استفاده از مدارشکن‌ است. در بازار سهام، وقتی چنین شرایطی رخ می‌دهد، البته می‌توانیم به‌سادگی از شدت و تنش معاملات بکاهیم؛ اما شروع جنگ جهانی سوم را نمی‌توان این‌گونه مهار کرد». او درگفت‌وگوبا «الجزیره» تصریح کرد که این‌بدان‌معنانیست‌که محققان باید توسعه فناوری سامانه‌های تسلیحات خودکار را متوقف کنند؛ «چه‌بسا این فناوری می‌تواند در زمینه‌های دیگر سودمند باشد؛ مثلاً الگوریتم‌های مشابهی که در سامانه‌های ایمنی خودرو استفاده می‌شوند و از برخورد با عابران پیاده جلوگیری می‌کنند، الگوریتم‌هایی‌اند که در پهپاد خودرانِ شما تعبیه می‌شوند تا نیروهای نظامی را شناسایی و ردیابی می‌کنند. مسئله این‌است‌که شما بخواهید با این الگو، کسی را بُکشید یا قصدتان جلوگیری از مرگ کسی باشد. معتقدم ازنظر عقلایی و اخلاقی اشتباه است که چنین امکانی برای کاهش مرگ‌ومیر جاده‌ای را رد کنیم». او به سرنوشت سلاح‌های شیمیایی اشاره کرد و گفت: «هرزمان از سلاح‌های شیمیایی استفاده می‌شود، تیتر اول روزنامه‌ها به آن اختصاص می‌یابد و اعتراض جهانی را برانگیخته می‌‌سازد. کنوانسیون تسلیحات شیمیایی سازمان ملل متحد، توسعه، تولید، انباشت و استفاده از آن‌ها را ممنوع کرده است. این‌امر، همراه با تابوهای بین‌المللی درمورد تسلیحات شیمیایی، با‌موفقیت توانسته شرکت‌های بزرگ تسلیحاتی را وادار به عقب‌نشینی کرده و مانع تولید آن‌ها شود. اگر به ماجرای هوش مصنوعی در جنگ ازاین‌منظر نگاه کنیم، می‌توان از قوانین سخت‌گیرانه کمک گرفت و پاندورا را دوباره به جعبه بازگرداند؛ اما هوش مصنوعی کاملاً متفاوت از سلاح شیمیایی‌ست. به‌نظر می‌رسد ‌اقدامات بازدارنده تاحدزیادی استفاده نادرست از سلاح‌های شیمیایی را در میدان‌های جنگ در سراسر جهان محدود کرده است». مطمئناً سامانه‌های تسلیحاتیِ خودمختارِ مبتنی‌بر AI، مزایای خود را ازمنظر نظامی دارند. آن‌ها می‌توانند برخی از وظایف میدان جنگ را بدون استفاده از سربازان انجام؛ و درنتیجه، خطر تلفات را کاهش دهند. حامیان استدلال می‌کنند که فناوریِ پیچیده تعبیه‌شده در‌این‌سامانه‌ها می‌تواند خطای انسانی در تصمیم‌گیری را حذف کرده یا کاهش دهد و سوگیری‌ها را از بین ببرد. دقت بیشتر در هدف‌گیری (حداقل در تئوری)، می‌تواند تلفات انسانیِ تصادفی را کاهش دهد. سامانه‌های تسلیحاتیِ خودمختار می‌توانند برای قابلیت‌های دفاعی‌ نیز به‌کار گرفته شوند؛ آن‌ها با الگوریتم‌های تشخیص سریع برق‌آسا، قادر به شناسایی و حذف یک تهدید بالقوه؛ با کارایی و دقت بیشتر نسبت به بشر، هستند. بااین‌حال، برای بسیاری از کارشناسان و گروه‌های حقوقی، خطرات این قوانین بیش از هرگونه مزیت بالقوه است؛ از احتمال «نقص فنی بدون نظارت» گرفته تا «نقض قوانین بین‌الملل» و نگرانیِ اخلاقی درمورد «سپردن تصمیم مرگ و زندگی به یک ماشینِ فاقد ‌احساس!» محور همه این نگرانی‌ها، مسئله پاسخگویی‌ست. سال ۲۰۱۹ بود که ۱۲۶ کشور عضو کنوانسیون «سازمان ملل» درمورد برخی «سلاح‌های متعارف» (CCW؛ جنگ‌افزارهای جز جنگ‌افزارهای کشتار‌جمعی مانند شیمیایی و میکروبی و اتمی) با ۱۱ اصل راهنمای توصیه‌شده توسط گروهی از کارشناسان منصوب ازسوی این نهاد، برای رسیدگی به نگرانی‌ها درمورد سلاح‌های خودمختار موافقت کردند. از جمله اصول، تصمیمی بود که: «حقوق بشردوستانه بین‌المللی» (IHL) به‌طورکامل درمورد توسعه بالقوه چنین سلاح‌هایی اعمال شود؛ اما کارشناسان می‌گویند که مشخص نیست چگونه این اصل در «فضای مه‌آلود جنگ» اعمال خواهد شد؛ مثلاً اگر یک روبات، مرتکب جنایت جنگی شود، آیا افسر فرمانده نبرد، «مسئول» است؟ مدیران رده‌بالا که تصمیم به استقرار و استفاده از دستگاه گرفتند، باید «بازخواست» ‌شوند؟ یا سازندگان باید «پاسخگو» باشد؟ «وینسنت بولانین» و «مارتا بو»؛ پژوهشگران «مؤسسه تحقیقات صلح بین‌المللی استکهلم» (SIPRI) طی مقاله‌ای تصریح کرده‌اند که این‌ها «نشانگر یک شکاف بزرگ در گفت‌وگوهای سیاسی» دراین‌زمینه است. «بولانین» به «الجزیره» گفت: «دریغ از یک تعریف رسمی یا موردتوافق بین‌المللی برای سامانه‌های تسلیحاتیِ خودمختار! اگرچه اکثر کشورها موافق‌اند که عنصر حیاتی این‌است‌که این سامانه، قادر به شناسایی، انتخاب و درگیری هدف؛ بدون دخالت انسان باشد». به‌گفته «بولانین» که مدیر برنامه نظارت بر AI در SIPRI است؛ «سامانه‌های تسلیحاتی که اکنون فعال‌اند، با این توصیف مطابقت دارند. یک نمونه‌ آن، سامانه موشکی زمین‌به‌هوای پاتریوت MIM-104 ساخت آمریکاست که درحال‌حاضر توسط بسیاری از دولت‌ها؛ ازجمله عربستان و اسرائیل استفاده می‌شود. ما اینجا درمورد یک قابلیت صحبت می‌کنیم؛ عملکردی که می‌تواند در انواع مختلفِ سامانه‌های تسلیحاتی مورداستفاده قرار گیرد که می‌تواند در همه اَشکال باشد و در انواع مختلف مأموریت‌ها استفاده شود؛ بنابراین، اگر بخواهید چیزی را ممنوع کنید، باید دقیقاً نوع سلاح یا سناریویی را که به‌نظر شما مشکل‌ساز است، محدود کنید». او معتقد است به‌جای ممنوعیت کلی، وجود «مجموعه مقررات دو‌مرحله‌ای» اثربخش‌تر است؛ زیرا دراین‌حالت، برخی از سامانه‌های تسلیحاتی ممنوع بوده و برخی‌، با رعایت مجموعه‌ای از الزامات مجازند. اکنون سؤال اساسی این‌است‌که اساساً چه عناصری در این دو رده‌بندیِ موردنظر قرار می‌گیرند؟ به‌گفته او؛ دولت‌های مختلف هنوز به توافقی دراین‌‌باره نرسیده‌اند؛ و حتی چالش بنیادی‌تری درمورد نحوه برخورد با مسئله سلاح‌های خودمختار وجود دارد: آیا باید درپیِ وضع قوانین الزام‌آور باشیم یا صرفاً یک اعلامیه سیاسی، کفایت می‌کند؟ اعلامیه سیاسی می‌تواند اشکال مختلفی داشته باشد؛ اما احتمالاً شامل یک بیانیه عمومی‌ست که در آن، قدرت‌های بزرگ «موضع مشترک خود» را درمورد این‌موضوع اعلام می‌کنند و قول می‌دهند که به نکات اصلی مندرج در سند «پایبند» باشند. این می‌تواند شبیه بیانیه مشترک چین، روسیه، بریتانیا، ایالات‌متحده و فرانسه درمورد جلوگیری از جنگ هسته‌ای و اجتناب از مسابقه تسلیحاتی باشد که در ژانویه ۲۰۲۲ امضا شد که در آن (ازجمله) تأکید کردند جنگ هسته‌ای «هرگز برنده ندارد و هرگز نباید رخ دهد». البته «بولانین» معتقد است که دولت‌های حاضر دراین‌بیانیه، عملاً درباره آن «نظرات کاملاً متفاوتی دارند». اندازه‌گیری دقیق میزان منابعی که ارتش‌ها برای توسعه قوانین متعهد می‌شوند، دشوار است؛ اما گزارش ۲۰۲۱ «عفو بین‌الملل» بیان می‌کند که چندین قدرت بزرگ نظامی، «سرمایه‌گذاری بالایی در توسعه سامانه‌های خودمختار انجام می‌دهند». به‌‌ادعای این نهاد؛ «بریتانیا» درحال‌توسعه یک هواپیمای بدون سرنشین است که می‌تواند اهداف موردنظر را در یک منطقه برنامه‌ریزی‌شده شناسایی کند؛ درحالی‌که «روسیه» یک «تانک‌روبات» ساخته که می‌تواند به مسلسل یا نارنجک‌انداز مجهز شود! همچنین می‌توان عملکردهای خودمختار را به فناوری‌های موجود یا درحال‌توسعه افزود؛ مانند موشک سرگردان Switchblade 600 ساخت «ایالات‌متحده». عقب‌نشینی واقعی علیه چنین سامانه‌های تسلیحاتی از بخش‌های بزرگی از «جهان جنوب» (جهان سوم)؛ به‌ویژه آمریکای لاتین، آفریقا و خاورمیانه می‌آید که به‌دنبال مقررات قانونیِ الزام‌آور هستند. در فوریه ۲۰۲۳، دولت «کاستاریکا» به‌همراه سازمان غیردولتی محلی FUNPADEM، یک کنفرانس منطقه‌ای را با حضور نمایندگان تقریباً از همه کشورهای آمریکای لاتین و کارائیب ترتیب داد. بیانیه کنفرانس Belén که بیش از ۳۰ کشور آن‌را پذیرفتند، مخاطرات LAWS را برجسته کرد و از جامعه جهانی خواست تا با «توسعه و تقویت چارچوب حقوقی بین‌المللی»، به آن‌ها پاسخ دهد. «برادون ماتا آگیلار»؛ تکنسین پروژه در FUNPADEM، به «الجزیره» گفت: «این موقعیت ملی ما براساس دیدگاه فرهنگی ما از صلح است». ارتش «کاستاریکا» در سال ۱۹۴۸ منسوخ شد و همچنان یکی از باثبات‌ترین کشورهای منطقه است. «آگیلار» توضیح می‌دهد که این واقعیت «تفاوت زیادی بین نحوه نگاه سایر ایالات و کاستاریکا به اجرای این اسناد الزام‌آور قانونی ایجاد می‌کند». او گفت که «کاستاریکا» به‌دنبال ممنوعیت کامل تسلیحات کاملاً خودمختار؛ و وضع مقرراتی‌ست که برای کنترل استفاده و توسعه انواع نیمه‌خودمختار اجرا ‌شود. گروه‌هایی مانند کمپین Stop Killer Robots (ائتلافی از سازمان‌های غیردولتی که به‌دنبال ممنوعیت پیشگیرانه قوانین است) و «کمیته بین‌المللی صلیب سرخ» (ICRC) نیز در‌این‌کنفرانس حضوری پررنگ داشتند. در ۲۵ مارس نیز در «اجلاس سران ایبرو-آمریکایی» در «جمهوری دومینیکن»، ۲۲‌نفر از سران کشورهای اسپانیایی و پرتغالی‌زبان بیانیه‌ای مشترک صادر کردند و خواستار مذاکره درباره یک سند بین‌المللی الزام‌آورِ قانونی شدند: ممنوعیت‌ها و مقررات مربوط به استقلال در سامانه‌های تسلیحاتی. این‌ماجرا باز تکرار شد؛ وقتی کشورهای عضو «انجمن سیستم ادغام آمریکای مرکزی» (ALADI)؛ ازجمله «بلیز، کاستاریکا، السالوادور، گواتمالا، هندوراس، نیکاراگوئه و پاناما» بیانیه مشابهی را اتخاذ کردند که خواستار مذاکرات فوری دراین‌زمینه شد. چندین کشور در آفریقا و خاورمیانه (الجزایر، نامیبیا، غنا، اوگاندا، زیمبابوه، مراکش، مصر، اردن، عراق و فلسطین) در دهه قبل، خواستار ممنوعیت کامل سامانه‌های تسلیحاتی کاملاً خودمختار شده‌اند. سایرین مانند «آفریقای جنوبی» خواهان مقررات‌اند؛ اما به‌دنبال «ممنوعیت کامل» نیستند. به‌نظر «والش»؛ این «شتاب» نشان می‌دهد: نیازمند فوری به یک اقدام مناسبیم؛ ۳۶ کشور در صحن «سازمان ملل متحد» خواستار مقررات هستند. ما شاهد رأی پارلمان اروپا به آن بودیم و دیدیم که اتحادیه آفریقا به آن رأی داد. البته به‌گفته برخی کارشناسان؛ یک عنصر کلیدی برای موفقیت هر گفت‌وگو وجود ندارد: «اعتماد!» تحلیلگران می‌گویند که در میان افزایش تنش‌های ژئوپلیتیکی، بسیاری از کشورها نگران هستند که آیا می‌توانند به آنچه رقبا به‌طور رسمی اعلام می‌کنند، باور داشته باشند؟ «والش» گفت: «ازآنجا‌‌که کنوانسیون‌های بین‌المللی مانند CCW به اجماع بستگی دارد، تنها کافی‌ست یک کشور، در روند پیشرفت مذاکرات، اختلال ایجاد کند». حال فرض کنیم: اگر یک قانون بین‌المللیِ جدید یا مجموعه‌ای از مقررات وضع شود، آیا آن‌ها به‌طور مؤثر اجرا می‌شوند؟ «والش» گفت: «این، یک سؤال بی‌جواب است؛ زیرا بسیاری کشورها دیگر با نظم مبتنی‌بر قوانین بازی نمی‌کنند. کشورها می‌توانند توافق کنند؛ اما توافق یک‌چیز است و رعایت، یک‌چیز دیگر! فکر می‌کنم برخی از کشورها نگران‌اند که اگر بر سر یک چارچوب نظارتی جاه‌طلبانه به توافق برسند، احتمالاً به پای خود شلیک می‌کنند». او توضیح داد که «اگر دشمنانِ آن‌ها طبق قوانین عمل نکنند و قوانین را توسعه دهند، آن‌ها در یک نقطه‌ضعف استراتژیک قرار گیرند. بااین‌حال، به‌این‌معنانیست‌که ما نباید به تلاش برای توافق روی هنجارهای جدید برای رفتار مسئولانه، ادامه دهیم». بااین‌حال، مسائل اساسی‌تری نیز دراین‌بحث مطرح است؛ ازجمله درمورد اخلاقیات ماشین‌های جنگی که بدون دخالت هیچ انسانی در فرآیند تصمیم‌گیری، جان مردم را می‌گیرند. «بندِ مارتنز» (The Martens Clause) که از اولین ظهور آن در مقدمه «کنوانسیون ۱۸۹۹ لاهه» بخشی از قوانین درگیری مسلحانه را شکل داده، اغلب در بحث‌ مربوط به اخلاق سامانه‌های تسلیحاتیِ خودمختار استفاده می‌شود؛ اعلام می‌کند: در غیاب قانون معاهدات خاص درمورد یک موضوع، مردم همچنان تحت‌حمایت «عرف»، «اصول انسانی» و «احکام وجدان عمومی» هستند. در سال ۲۰۱۹، «آنتونیو گوترش» (دبیرکل سازمان ملل متحد) گفت: «تجهیزات نظامیِ دارای قدرت و صلاحدیدِ جان‌باختن بدون دخالت انسان، ازنظر سیاسی؛ غیرقابل‌قبول و ازلحاظ اخلاقی؛ منفور هستند»؛ و بسیاری از پرسنل نظامی که «والش» برای تحقیقاتش، با آن‌ها صحبت کرده، درمورد «سلاح‌های کاملاً خودمختار» نیز سختگیر به‌نظر می‌رسند. او گفت: «هرچه در طبقه‌بندی کشورها به رتبه‌های پایین‌تر بروید، به میدان جنگ نزدیک‌تر می‌شوید و در آنجاها مخالفت بیشتری با ایده نبرد با روبات‌ها وجود دارد. فراتر از قوانین، مقررات و ژئوپلیتیک؛ یک مشکل اساسی‌تر درمورد ایده ادواتِ فاقد همدلیِ انسانی در چنین تصمیم‌گیری‌های حیاتی‌، هست: این، بی‌احترامی به کرامت انسانی‌ست!»

مصطفی رفعت

ارسال دیدگاه شما

بالای صفحه