الخميس 11 أبريل / أبريل 2024

ليست خيالًا علميًا.. تزايد الضغط لحظر "الروبوتات القاتلة"

ليست خيالًا علميًا.. تزايد الضغط لحظر "الروبوتات القاتلة"

Changed

"الروبوتات القاتلة" أسلحة تتخذ القرارات معتمدة على الذكاء الصناعي
"الروبوتات القاتلة" أسلحة تتخذ القرارات معتمدة على الذكاء الصناعي (غيتي)
تثير الروبوتات القاتلة مخاوف أخلاقية بشأن استبدال القرارات البشرية المتعلقة بالحياة والموت بأجهزة الاستشعار والبرمجيات والعمليات الآلية.

بعد أن كانت محض خيال علمي شهدت الأسلحة ذاتية التشغيل، المعروفة باسم "الروبوتات القاتلة"، تطورًا تكنولوجيًا كبيرًا بحيث باتت تقرّر بمفردها بأدمغة اصطناعية الهجوم أو القتل.

وعلى غرار أفلام الخيال العلمي مثل سلسلة "ترمينايتور" (Terminator) و "روبوكوب" (RoboCop)، تمّ اختراع الروبوتات القاتلة، واختبارها بوتيرة متسارعة مع القليل من الإشراف، حيث تم استخدام بعض النماذج الأولية في النزاعات الفعلية.

وفي محاولة لتنظيم أو حظر هذه الأسلحة، عقدت الأمم المتحدة اجتماعًا في جنيف الجمعة، حظي باهتمام بالغ من قبل خبراء الذكاء الاصطناعي والاستراتيجيات العسكرية ونزع السلاح والقانون الإنساني.

وللمرة الأولى، قالت غالبية الدول الـ125، التي تنتمي إلى اتفاقية الأسلحة التقليدية، إنها تريد فرض قيود على الروبوتات القاتلة. لكنّهم وجدوا معارضة من قبل الأعضاء الذين يعملون على تطوير هذه الأسلحة، ولا سيما الولايات المتحدة وروسيا.

 وذكرت صحيفة "نيويورك تايمز" أن المؤتمر اختُتم بـ"بيان غامض" فقط حول النظر في الإجراءات الممكنة والمقبولة للجميع للحد من تهديدات الروبوتات القاتلة.

اتفاقية الأسلحة التقليدية

تحظر اتفاقية الأسلحة التقليدية المبرمة عام 1980، والتي تُعرَف أحيانًا باسم "اتفاقية الأسلحة اللاإنسانية"، أو تقيّد الأسلحة التي تسبب إصابات مفرطة أو معاناة لا مبررة، بالإضافة إلى الأسلحة عشوائية الأثر مثل المتفجّرات الحارقة وأشعة الليزر المسببة للعمى، والألغام المتفجّرة التي لا تميز بين المقاتلين والمدنيين.

ولا تحتوي الاتفاقية على أحكام للروبوتات القاتلة.

ما هي الروبوتات القاتلة؟

تختلف الآراء حول التعريف الدقيق للروبوتات القاتلة، لكن التعريف الأبرز تتمثّل في أنها أسلحة تتّخذ القرارات مع مشاركة بشرية معدومة أو ضئيلة معتمدة على الذكاء الاصطناعي.

ولا تعتبر الطائرات بدون طيار التي استخدمتها الولايات المتحدة على نطاق واسع في أفغانستان والعراق وأماكن أخرى "روبوتات"؛ لأنها تُدار عن بعد من قبل أشخاص يختارون الأهداف ويقرّرون إطلاق النار.

عامل جذب v/s مخاوف أخلاقية

بالنسبة لمخطّطي الحرب تعتبر الأسلحة الذاتية التشغيل جذابة، لأنها تقدّم فرصة لإبقاء الجنود بعيدًا عن الأذى، واتخاذ قرارات أسرع من الإنسان، من خلال إعطاء المزيد من المسؤوليات في ساحة المعركة للأنظمة المستقلّة مثل الطائرات بدون طيار والدبابات ذاتية القيادة التي تقرر بشكل مستقل أين ومتى تضرب.

يُجادل النقاد بأنه من البغيض أخلاقيًا إسناد اتخاذ القرارات المميتة للآلات، بغضّ النظر عن التطور التكنولوجي. ويتساءلون كيف تفرّق الآلة بين بالغ وطفل، مقاتل مع بازوكا ومدني مع مكنسة، مقاتل معادٍ عن جندي جريح أو مستسلم؟

وقال رئيس اللجنة الدولية للصليب الأحمر بيتر مورير، المعارض الصريح للروبوتات القاتلة، خلال مؤتمر جنيف: "بشكل أساسي، تثير أنظمة الأسلحة ذاتية التشغيل مخاوف أخلاقية للمجتمع بشأن استبدال القرارات البشرية المتعلقة بالحياة والموت بأجهزة الاستشعار والبرمجيات والعمليات الآلية".

وقبل مؤتمر جنيف، دعت منظمة "هيومن رايتس ووتش" والعيادة الدولية لحقوق الإنسان التابعة لكلية "هارفارد للقانون" إلى اتخاذ خطوات نحو اتفاقية ملزمة قانونًا تتطلّب السيطرة البشرية على الأسلحة في جميع الأوقات.

وأشارت هذه المجموعات إلى "افتقار الروبوتات إلى التعاطف والرحمة والحكم الضروري لمعاملة البشر بطريقة إنسانية، ولا يمكنهم فهم القيمة المتأصلة في حياة الإنسان".

كما ذكرت مجموعات معارضة أخرى أنه بدلًا من تقليل مخاطر الحرب، يمكن للأسلحة ذاتية التشغيل أن تفعل العكس من خلال تزويد الخصوم بوسائل لتقليل مخاطر إلحاق الضرر على جنودها.

"مدونة سلوك"

اعتبر خبراء نزع السلاح الاجتماع الأممي أفضل فرصة حتى الآن لابتكار طرق لتنظيم أو حظر استخدام الروبوتات القاتلة بموجب اتفاقية مكافحة الإرهاب. لكنّهم لم يتمكنوا حتى من التوصل إلى اتفاق بشأن المسائل الأساسية التي تساهم في تحديد التحديات والأساليب الممكنة للحد من تهديدات الروبوتات القاتلة.

لكن دول مثل روسيا، تصرّ على أن أي قرار يجب أن يكون بالإجماع، فيما تجادل الولايات المتحدة بأن القوانين الدولية الحالية كافية، وأن حظر تكنولوجيا الأسلحة ذاتية التشغيل سيكون سابقًا لأوانه.

واقترح مندوب الولايات المتحدة الرئيسي في المؤتمر جوشوا دوروسين، "مدونة سلوك" غير ملزمة لاستخدام الروبوتات القاتلة؛ وهي فكرة رفضها دعاة نزع السلاح باعتبارها تكتيكًا للمماطلة.

استثمارات الجيش الأميركي

استثمر الجيش الأميركي بكثافة في الذكاء الاصطناعي، حيث عمل مع أكبر شركات الأسلحة، بما في ذلك "لوكهيد مارتن"، "وبوينغ"، "ورايثيون"، و"نورثروب غرومان".

ووجد بحث أجراه معارضة أنظمة الأسلحة، أن العمل شمل مشاريع لتطوير صواريخ بعيدة المدى تكشف عن الأهداف المتحركة بناءً على تردّدات الراديو، وطائرات بدون طيار يمكنها تحديد هدف ومهاجمته، وأنظمة دفاع صاروخي آلية.

وقالت الخبيرة في تكنولوجيا الأمن العسكري الناشئة في مركز الأمن والدبلوماسية والاستراتيجية في بروكسل مايكي فيربروغن، إن التعقيد والاستخدامات المتنوعة للذكاء الاصطناعي تجعل تنظيمها أكثر صعوبة من الأسلحة النووية أو الألغام الأرضية.

 وأضافت أن الافتقار إلى الشفافية بشأن ما تبنيه الدول المختلفة أدى إلى حالة من "الخوف والقلق" بين القادة العسكريين لمواكبة ذلك، مشيرة إلى وجود حالة من عدم اليقين تدفع باتجاه الابتكار العسكري".

بدوره، قال الباحث في المعهد الدولي للدراسات الاستراتيجية فرانز ستيفان جادي، إن "سباق التسلح لأنظمة الأسلحة ذاتية التشغيل جاري بالفعل، ولن يتم إلغاؤه في أي وقت قريب".

صراع في المؤسسة الدفاعية

وأشار جادي إلى أنه حتى مع تقدّم التكنولوجيا، "هناك تردّد في استخدام هذه الأسلحة في القتال بسبب مخاوف من حدوث أخطاء، مضيفًا أنه لا يُمكن للقادة العسكريين الوثوق بأحكام أنظمة الأسلحة المستقلة، وحتى في المستقبل القريب".

وامتد الجدل حول الأسلحة ذاتية التشغيل إلى وادي السيليكون. في عام 2018، قالت شركة "غوغل" إنها لن تجدّد عقدًا مع البنتاغون بعد أن وقّع الآلاف من موظفيها خطابًا يحتجون فيه على عمل الشركة في برنامج يستخدم الذكاء الصناعي لتفسير الصور التي يمكن استخدامها لاختيار أهداف الطائرات بدون طيار. كما أنشأت الشركة أيضًا مبادئ توجيهية أخلاقية جديدة تحظر استخدام تقنيتها في الأسلحة والمراقبة.

ويعتقد البعض أن الولايات المتحدة لا تتقدّم بشكل كافٍ للتنافس مع خصومها في هذا المجال.

في أكتوبر/ تشرين الأول الماضي، قال كبير مسؤولي البرمجيات السابق في سلاح الجو الأميركي نيكولا تشايلان، لصحيفة "فاينانشيل تايمز" إنه استقال بسبب ما اعتبره تقدمًا تقنيًا ضعيفًا داخل الجيش الأميركي، لا سيما في مجال استخدام الذكاء الاصطناعي.

وأضاف أن صانعي السياسة يتباطؤون بسبب الأسئلة المتعلقة بالأخلاق، بينما تمضي دول مثل الصين قدمًا.

الدفع نحو معاهدة جديدة

وقال العديد من دعاة نزع السلاح إن نتائج المؤتمر عزّزت ما وصفوه بالعزم على الدفع باتجاه معاهدة جديدة في السنوات القليلة المقبلة، مثل تلك التي تحظر الألغام الأرضية والذخائر العنقودية.

وقال دان كايسر، خبير الأسلحة ذاتية التشغيل في شركة "باكس" (PAX)، وهي مجموعة مناصرة للسلام ومقرها هولندا، إن فشل المؤتمر في الاتفاق حتى على التفاوض بشأن الروبوتات القاتلة كان "إشارة واضحة حقًا إلى أن اتفاقية الأسلحة التقليدية ليس على مستوى الدور المطلوب منها".

وقال نويل شاركي، خبير الذكاء الاصطناعي ورئيس اللجنة الدولية للحد من أسلحة الروبوت، إن الاجتماع أظهر أن معاهدة جديدة أفضل من مزيد من المداولات.

المصادر:
ترجمات

شارك القصة

تابع القراءة
Close