کد خبر:
313246
| تاریخ مخابره:
۱۴۰۲ شنبه ۳۰ ارديبهشت -
07:02
«روباتهای قاتل»؛ سربازان تازهنفس میدانهای نبرد
بشریت درآستانه عصر جدیدی از جنگ ایستاده است. بهدلیل پیشرفتهای سریع در هوش مصنوعی، پلتفرمهای تسلیحاتی که قادرند بهتنهایی انسانها را شناسایی کرده، هدف قرار داده و تصمیم به کشتن بگیرند (بیاینکه افسری حمله را هدایت کند یا سربازی ماشه را بکشد)، بهسرعت «آینده درگیری» را دگرگون میکند. رسماً این تجهیزات را «سامانههای تسلیحات خودکار کشنده» (LAWS) مینامند؛ اما منتقدان به آنها لقب «روباتهای قاتل» دادهاند. بسیاری دولتها؛ ازجمله ایالاتمتحده، چین، بریتانیا، هند، اسرائیل، کره جنوبی، روسیه و ترکیه در سالهای اخیر، سرمایهگذاری بسیاری برای توسعه چنین تسلیحاتی کردهاند. جنگافزارهایی که میتوانند میدانهای جنگ را تسخیر کنند؛ آیا جهان برای ماشینهایی که تصمیم میگیرند چهکسی را بکشند، آماده است؟ عمده کشورهای کوچکتر میگویند: «نه!» گزارش ۱۶ می ۲۰۲۳ رسانه Al Jazeera به اینمسئله پرداخته است.
گزارش «سازمان ملل متحد» حاکیستکه پهپادهای تماماتوماتیک Kargu-2 ساخت «ترکیه»، آغازگر این عصر جدید بودند؛ که در سال ۲۰۲۰ در بحبوحه درگیریهای جاری اینکشور به نیروهای نظامی در «لیبی» حمله کردند. «پهپادهای خودمختار» نیز نقش مهمی در جنگ «اوکراین» ایفا کردهاند؛ جاییکه «مسکو» و «کییف» هردو از این اسلحه بدون سرنشین برای هدفقراردادن سربازان و زیرساختهای دشمن استفاده کردهاند. ظهور و استقرار چنین ماشینهایی بحثهای شدیدی را میان کارشناسان، فعالان و دیپلماتها در سرتاسر جهان بهراه انداخته؛ زیرا آنها با مزایا و خطرات احتمالی استفاده از روباتها چالش داشته و بررسی میکنند که آیا باید؛ و اصلاً چگونه آنها را متوقف کنند؟ بااینحال، در یک چشمانداز ژئوپلیتیکی چندپارهشده، آیا جامعه جهانی میتواند درمورد این ادوات به اجماع برسد؟ آیا تهدیدات اخلاقی، قانونی و تکنولوژیکی ناشی از چنین سلاحهایی، توقف آنها را قبل از تسلط بر میدان جنگ ضروری میسازد؟ آیا ممنوعیتِ کلی امکانپذیر بوده یا وضع مقررات محدودکننده، گزینهای عملیتر و واقعیتر است؟ پاسخ کوتاه: ممنوعیت کامل سامانههای تسلیحاتیِ خودمختار، بهاینزودی محتمل بهنظر نمیرسد. بااینحال، تعداد فزایندهای از صداها -بهویژه از جهان جنوب- خواستار تنظیم آنها بوده و کارشناسان نیز براینباورندکه ممنوعسازیِ استفاده از «سلاحهای شیمیایی» امکانپذیر است. اگرچه امکان دارد قدرتهای نظامیِ بزرگ، مجذوب مزایای بالقوه میدان نبردی باشند که چنین سامانههایی میتوانند دراختیارشان قرار دهند؛ اما بهنظر میرسد اشتهای کمی برای آنها در خارج از ژنرالهای جنگطلب وجود دارد. در اواخر مارس ۲۰۲۳، «یاسمین افینا»؛ پژوهشگری در اندیشکده «چتم هاوس» (مستقر در لندن)، به «مجلس اعیان» (تالار دوم پارلمان بریتانیا) توضیح داد که چگونه «آژانس امنیت ملی ایالاتمتحده» (NSA) یکبار بهاشتباه خبرنگار «الجزیره» را بهعنوان پیک «القاعده» شناسایی کرد؛ که منجر به قرارگرفتن این روزنامهنگار در فهرست نظارتی «آمریکا» نیز شد (اینماجرا ازطریق اسنادی که سال ۲۰۱۳ توسط ادوارد اسنودن؛ افشاگر کنونی و پیمانکار سابق آژانس امنیت ملی برملا شد). او در بیانیهاش توضیح داد که «یک سیستم نظارتی از ایننوع اگرچه بهخودیخود یک سازوکار تسلیحاتی نیست؛ اما میتواند خطرآفرین بوده و چنانچه مثل همین نمونه، با یک روزنامهنگار بهعنوان هدف متخاصم مقابله شود، کاملاً خلاف ملاحظات حقوق بشردوستانه بینالمللیست». یک کارشناس هوش مصنوعی در دانشگاه «نیو ساوت ولز» (استرالیا) بهنامِ «توبی والش» معتقد است که پتانسیل LAWS برای ایجاد واکنش زنجیرهای از رویدادهای افزایشی، میتواند نگرانکننده باشد. او میگوید: «ما میدانیم وقتی سامانههای کامپیوتری پیچیده را در یک محیط نامشخص و رقابتی در برابر یکدیگر قرار دهیم، چه اتفاقی میافتد». او در شواهد مکتوب ارائهشده به «مجلس اعیان» آورد: این مثل عملکرد بههمپیوسته بازار سهام است. تنها راه برای متوقفکردن حلقههای بازخورد خطرناک و پیامدهای نامطلوب، استفاده از مدارشکن است. در بازار سهام، وقتی چنین شرایطی رخ میدهد، البته میتوانیم بهسادگی از شدت و تنش معاملات بکاهیم؛ اما شروع جنگ جهانی سوم را نمیتوان اینگونه مهار کرد». او درگفتوگوبا «الجزیره» تصریح کرد که اینبدانمعنانیستکه محققان باید توسعه فناوری سامانههای تسلیحات خودکار را متوقف کنند؛ «چهبسا این فناوری میتواند در زمینههای دیگر سودمند باشد؛ مثلاً الگوریتمهای مشابهی که در سامانههای ایمنی خودرو استفاده میشوند و از برخورد با عابران پیاده جلوگیری میکنند، الگوریتمهاییاند که در پهپاد خودرانِ شما تعبیه میشوند تا نیروهای نظامی را شناسایی و ردیابی میکنند. مسئله ایناستکه شما بخواهید با این الگو، کسی را بُکشید یا قصدتان جلوگیری از مرگ کسی باشد. معتقدم ازنظر عقلایی و اخلاقی اشتباه است که چنین امکانی برای کاهش مرگومیر جادهای را رد کنیم». او به سرنوشت سلاحهای شیمیایی اشاره کرد و گفت: «هرزمان از سلاحهای شیمیایی استفاده میشود، تیتر اول روزنامهها به آن اختصاص مییابد و اعتراض جهانی را برانگیخته میسازد. کنوانسیون تسلیحات شیمیایی سازمان ملل متحد، توسعه، تولید، انباشت و استفاده از آنها را ممنوع کرده است. اینامر، همراه با تابوهای بینالمللی درمورد تسلیحات شیمیایی، باموفقیت توانسته شرکتهای بزرگ تسلیحاتی را وادار به عقبنشینی کرده و مانع تولید آنها شود. اگر به ماجرای هوش مصنوعی در جنگ ازاینمنظر نگاه کنیم، میتوان از قوانین سختگیرانه کمک گرفت و پاندورا را دوباره به جعبه بازگرداند؛ اما هوش مصنوعی کاملاً متفاوت از سلاح شیمیاییست. بهنظر میرسد اقدامات بازدارنده تاحدزیادی استفاده نادرست از سلاحهای شیمیایی را در میدانهای جنگ در سراسر جهان محدود کرده است». مطمئناً سامانههای تسلیحاتیِ خودمختارِ مبتنیبر AI، مزایای خود را ازمنظر نظامی دارند. آنها میتوانند برخی از وظایف میدان جنگ را بدون استفاده از سربازان انجام؛ و درنتیجه، خطر تلفات را کاهش دهند. حامیان استدلال میکنند که فناوریِ پیچیده تعبیهشده دراینسامانهها میتواند خطای انسانی در تصمیمگیری را حذف کرده یا کاهش دهد و سوگیریها را از بین ببرد. دقت بیشتر در هدفگیری (حداقل در تئوری)، میتواند تلفات انسانیِ تصادفی را کاهش دهد. سامانههای تسلیحاتیِ خودمختار میتوانند برای قابلیتهای دفاعی نیز بهکار گرفته شوند؛ آنها با الگوریتمهای تشخیص سریع برقآسا، قادر به شناسایی و حذف یک تهدید بالقوه؛ با کارایی و دقت بیشتر نسبت به بشر، هستند. بااینحال، برای بسیاری از کارشناسان و گروههای حقوقی، خطرات این قوانین بیش از هرگونه مزیت بالقوه است؛ از احتمال «نقص فنی بدون نظارت» گرفته تا «نقض قوانین بینالملل» و نگرانیِ اخلاقی درمورد «سپردن تصمیم مرگ و زندگی به یک ماشینِ فاقد احساس!» محور همه این نگرانیها، مسئله پاسخگوییست. سال ۲۰۱۹ بود که ۱۲۶ کشور عضو کنوانسیون «سازمان ملل» درمورد برخی «سلاحهای متعارف» (CCW؛ جنگافزارهای جز جنگافزارهای کشتارجمعی مانند شیمیایی و میکروبی و اتمی) با ۱۱ اصل راهنمای توصیهشده توسط گروهی از کارشناسان منصوب ازسوی این نهاد، برای رسیدگی به نگرانیها درمورد سلاحهای خودمختار موافقت کردند. از جمله اصول، تصمیمی بود که: «حقوق بشردوستانه بینالمللی» (IHL) بهطورکامل درمورد توسعه بالقوه چنین سلاحهایی اعمال شود؛ اما کارشناسان میگویند که مشخص نیست چگونه این اصل در «فضای مهآلود جنگ» اعمال خواهد شد؛ مثلاً اگر یک روبات، مرتکب جنایت جنگی شود، آیا افسر فرمانده نبرد، «مسئول» است؟ مدیران ردهبالا که تصمیم به استقرار و استفاده از دستگاه گرفتند، باید «بازخواست» شوند؟ یا سازندگان باید «پاسخگو» باشد؟ «وینسنت بولانین» و «مارتا بو»؛ پژوهشگران «مؤسسه تحقیقات صلح بینالمللی استکهلم» (SIPRI) طی مقالهای تصریح کردهاند که اینها «نشانگر یک شکاف بزرگ در گفتوگوهای سیاسی» دراینزمینه است. «بولانین» به «الجزیره» گفت: «دریغ از یک تعریف رسمی یا موردتوافق بینالمللی برای سامانههای تسلیحاتیِ خودمختار! اگرچه اکثر کشورها موافقاند که عنصر حیاتی ایناستکه این سامانه، قادر به شناسایی، انتخاب و درگیری هدف؛ بدون دخالت انسان باشد». بهگفته «بولانین» که مدیر برنامه نظارت بر AI در SIPRI است؛ «سامانههای تسلیحاتی که اکنون فعالاند، با این توصیف مطابقت دارند. یک نمونه آن، سامانه موشکی زمینبههوای پاتریوت MIM-104 ساخت آمریکاست که درحالحاضر توسط بسیاری از دولتها؛ ازجمله عربستان و اسرائیل استفاده میشود. ما اینجا درمورد یک قابلیت صحبت میکنیم؛ عملکردی که میتواند در انواع مختلفِ سامانههای تسلیحاتی مورداستفاده قرار گیرد که میتواند در همه اَشکال باشد و در انواع مختلف مأموریتها استفاده شود؛ بنابراین، اگر بخواهید چیزی را ممنوع کنید، باید دقیقاً نوع سلاح یا سناریویی را که بهنظر شما مشکلساز است، محدود کنید». او معتقد است بهجای ممنوعیت کلی، وجود «مجموعه مقررات دومرحلهای» اثربخشتر است؛ زیرا دراینحالت، برخی از سامانههای تسلیحاتی ممنوع بوده و برخی، با رعایت مجموعهای از الزامات مجازند. اکنون سؤال اساسی ایناستکه اساساً چه عناصری در این دو ردهبندیِ موردنظر قرار میگیرند؟ بهگفته او؛ دولتهای مختلف هنوز به توافقی دراینباره نرسیدهاند؛ و حتی چالش بنیادیتری درمورد نحوه برخورد با مسئله سلاحهای خودمختار وجود دارد: آیا باید درپیِ وضع قوانین الزامآور باشیم یا صرفاً یک اعلامیه سیاسی، کفایت میکند؟ اعلامیه سیاسی میتواند اشکال مختلفی داشته باشد؛ اما احتمالاً شامل یک بیانیه عمومیست که در آن، قدرتهای بزرگ «موضع مشترک خود» را درمورد اینموضوع اعلام میکنند و قول میدهند که به نکات اصلی مندرج در سند «پایبند» باشند. این میتواند شبیه بیانیه مشترک چین، روسیه، بریتانیا، ایالاتمتحده و فرانسه درمورد جلوگیری از جنگ هستهای و اجتناب از مسابقه تسلیحاتی باشد که در ژانویه ۲۰۲۲ امضا شد که در آن (ازجمله) تأکید کردند جنگ هستهای «هرگز برنده ندارد و هرگز نباید رخ دهد». البته «بولانین» معتقد است که دولتهای حاضر دراینبیانیه، عملاً درباره آن «نظرات کاملاً متفاوتی دارند». اندازهگیری دقیق میزان منابعی که ارتشها برای توسعه قوانین متعهد میشوند، دشوار است؛ اما گزارش ۲۰۲۱ «عفو بینالملل» بیان میکند که چندین قدرت بزرگ نظامی، «سرمایهگذاری بالایی در توسعه سامانههای خودمختار انجام میدهند». بهادعای این نهاد؛ «بریتانیا» درحالتوسعه یک هواپیمای بدون سرنشین است که میتواند اهداف موردنظر را در یک منطقه برنامهریزیشده شناسایی کند؛ درحالیکه «روسیه» یک «تانکروبات» ساخته که میتواند به مسلسل یا نارنجکانداز مجهز شود! همچنین میتوان عملکردهای خودمختار را به فناوریهای موجود یا درحالتوسعه افزود؛ مانند موشک سرگردان Switchblade 600 ساخت «ایالاتمتحده». عقبنشینی واقعی علیه چنین سامانههای تسلیحاتی از بخشهای بزرگی از «جهان جنوب» (جهان سوم)؛ بهویژه آمریکای لاتین، آفریقا و خاورمیانه میآید که بهدنبال مقررات قانونیِ الزامآور هستند. در فوریه ۲۰۲۳، دولت «کاستاریکا» بههمراه سازمان غیردولتی محلی FUNPADEM، یک کنفرانس منطقهای را با حضور نمایندگان تقریباً از همه کشورهای آمریکای لاتین و کارائیب ترتیب داد. بیانیه کنفرانس Belén که بیش از ۳۰ کشور آنرا پذیرفتند، مخاطرات LAWS را برجسته کرد و از جامعه جهانی خواست تا با «توسعه و تقویت چارچوب حقوقی بینالمللی»، به آنها پاسخ دهد. «برادون ماتا آگیلار»؛ تکنسین پروژه در FUNPADEM، به «الجزیره» گفت: «این موقعیت ملی ما براساس دیدگاه فرهنگی ما از صلح است». ارتش «کاستاریکا» در سال ۱۹۴۸ منسوخ شد و همچنان یکی از باثباتترین کشورهای منطقه است. «آگیلار» توضیح میدهد که این واقعیت «تفاوت زیادی بین نحوه نگاه سایر ایالات و کاستاریکا به اجرای این اسناد الزامآور قانونی ایجاد میکند». او گفت که «کاستاریکا» بهدنبال ممنوعیت کامل تسلیحات کاملاً خودمختار؛ و وضع مقرراتیست که برای کنترل استفاده و توسعه انواع نیمهخودمختار اجرا شود. گروههایی مانند کمپین Stop Killer Robots (ائتلافی از سازمانهای غیردولتی که بهدنبال ممنوعیت پیشگیرانه قوانین است) و «کمیته بینالمللی صلیب سرخ» (ICRC) نیز دراینکنفرانس حضوری پررنگ داشتند. در ۲۵ مارس نیز در «اجلاس سران ایبرو-آمریکایی» در «جمهوری دومینیکن»، ۲۲نفر از سران کشورهای اسپانیایی و پرتغالیزبان بیانیهای مشترک صادر کردند و خواستار مذاکره درباره یک سند بینالمللی الزامآورِ قانونی شدند: ممنوعیتها و مقررات مربوط به استقلال در سامانههای تسلیحاتی. اینماجرا باز تکرار شد؛ وقتی کشورهای عضو «انجمن سیستم ادغام آمریکای مرکزی» (ALADI)؛ ازجمله «بلیز، کاستاریکا، السالوادور، گواتمالا، هندوراس، نیکاراگوئه و پاناما» بیانیه مشابهی را اتخاذ کردند که خواستار مذاکرات فوری دراینزمینه شد. چندین کشور در آفریقا و خاورمیانه (الجزایر، نامیبیا، غنا، اوگاندا، زیمبابوه، مراکش، مصر، اردن، عراق و فلسطین) در دهه قبل، خواستار ممنوعیت کامل سامانههای تسلیحاتی کاملاً خودمختار شدهاند. سایرین مانند «آفریقای جنوبی» خواهان مقرراتاند؛ اما بهدنبال «ممنوعیت کامل» نیستند. بهنظر «والش»؛ این «شتاب» نشان میدهد: نیازمند فوری به یک اقدام مناسبیم؛ ۳۶ کشور در صحن «سازمان ملل متحد» خواستار مقررات هستند. ما شاهد رأی پارلمان اروپا به آن بودیم و دیدیم که اتحادیه آفریقا به آن رأی داد. البته بهگفته برخی کارشناسان؛ یک عنصر کلیدی برای موفقیت هر گفتوگو وجود ندارد: «اعتماد!» تحلیلگران میگویند که در میان افزایش تنشهای ژئوپلیتیکی، بسیاری از کشورها نگران هستند که آیا میتوانند به آنچه رقبا بهطور رسمی اعلام میکنند، باور داشته باشند؟ «والش» گفت: «ازآنجاکه کنوانسیونهای بینالمللی مانند CCW به اجماع بستگی دارد، تنها کافیست یک کشور، در روند پیشرفت مذاکرات، اختلال ایجاد کند». حال فرض کنیم: اگر یک قانون بینالمللیِ جدید یا مجموعهای از مقررات وضع شود، آیا آنها بهطور مؤثر اجرا میشوند؟ «والش» گفت: «این، یک سؤال بیجواب است؛ زیرا بسیاری کشورها دیگر با نظم مبتنیبر قوانین بازی نمیکنند. کشورها میتوانند توافق کنند؛ اما توافق یکچیز است و رعایت، یکچیز دیگر! فکر میکنم برخی از کشورها نگراناند که اگر بر سر یک چارچوب نظارتی جاهطلبانه به توافق برسند، احتمالاً به پای خود شلیک میکنند». او توضیح داد که «اگر دشمنانِ آنها طبق قوانین عمل نکنند و قوانین را توسعه دهند، آنها در یک نقطهضعف استراتژیک قرار گیرند. بااینحال، بهاینمعنانیستکه ما نباید به تلاش برای توافق روی هنجارهای جدید برای رفتار مسئولانه، ادامه دهیم». بااینحال، مسائل اساسیتری نیز دراینبحث مطرح است؛ ازجمله درمورد اخلاقیات ماشینهای جنگی که بدون دخالت هیچ انسانی در فرآیند تصمیمگیری، جان مردم را میگیرند. «بندِ مارتنز» (The Martens Clause) که از اولین ظهور آن در مقدمه «کنوانسیون ۱۸۹۹ لاهه» بخشی از قوانین درگیری مسلحانه را شکل داده، اغلب در بحث مربوط به اخلاق سامانههای تسلیحاتیِ خودمختار استفاده میشود؛ اعلام میکند: در غیاب قانون معاهدات خاص درمورد یک موضوع، مردم همچنان تحتحمایت «عرف»، «اصول انسانی» و «احکام وجدان عمومی» هستند. در سال ۲۰۱۹، «آنتونیو گوترش» (دبیرکل سازمان ملل متحد) گفت: «تجهیزات نظامیِ دارای قدرت و صلاحدیدِ جانباختن بدون دخالت انسان، ازنظر سیاسی؛ غیرقابلقبول و ازلحاظ اخلاقی؛ منفور هستند»؛ و بسیاری از پرسنل نظامی که «والش» برای تحقیقاتش، با آنها صحبت کرده، درمورد «سلاحهای کاملاً خودمختار» نیز سختگیر بهنظر میرسند. او گفت: «هرچه در طبقهبندی کشورها به رتبههای پایینتر بروید، به میدان جنگ نزدیکتر میشوید و در آنجاها مخالفت بیشتری با ایده نبرد با روباتها وجود دارد. فراتر از قوانین، مقررات و ژئوپلیتیک؛ یک مشکل اساسیتر درمورد ایده ادواتِ فاقد همدلیِ انسانی در چنین تصمیمگیریهای حیاتی، هست: این، بیاحترامی به کرامت انسانیست!»
مصطفی رفعت