المحتوى الرئيسى

العالم يتسابق لصناعة الوحوش: "الروبوت القاتل" قادم!

12/09 17:34

لا يتعب ولا يخاف ولا يرحم. إنه "الروبوت القاتل". هو أحد أبناء الجيل الجديد من الأسلحة الفتاكة التي تعمل ذاتياً دون تدخّل بشري، لا بل هو أفضلها لدى أصحاب الخطط العسكريّة. قبل قرن من الزمن، شغل ظهور الغواصات الرأي العالمي، فرأوا فيها الرعب القادم وانهيار المنظومة الأخلاقية في الحروب. النقاش بشأن "الروبوت القاتل" يشبه ذاك الذي حصل قبل قرن، لكنه أكثر تعقيداً.

يتميّز هذا "الروبوت" بامتلاكه السلطة الذاتيّة في تحديد الوقت الذي يقضي فيه على الهدف، فهو قادر على فتح النيران أوتوماتيكياً، وبالتالي هو خارج التحكّم البشري. هو من العائلة نفسها المكوّنة من الطائرات دون طيار. وإن كانت الأخيرة قد بلغت سنّ الرشد وحجزت لنفسها مساحة استخدام واسعة في الحروب، فإن "الروبوت القاتل" لم يصبح له وجود فعلي في المعارك، إلا أن التطور التكنولوجي السريع يجعله أقرب إلى الواقع. بدأ الكلام عن "الروبوت القاتل" قبل حوالي أربع سنوات، وازدادت المخاوف منه مع دخول الجماعات المسلحة عالم الأسلحة الذكيّة، واعتمادها على الطائرات من دون طيار والعديد من المهارات العالية تكنولوجياً.

تستضيف جنيف بين الثاني عشر والسادس عشر من الشهر الجاري اجتماعاً لمناقشة هذه المسألة، بينما أصدرت منظمة "هيومن رايتس ووتش" تقريراً مفصلاً، بالاشتراك مع قسم القانون في جامعة "هارفرد"، تحذّر فيه من ضرورة "حظر الروبوت القاتل" بشكل كلّي وتدعو لوضع خطة وقائية بهذا الشأن.

في السابق، جرى اعتماد معايير تقيّد عمل الأسلحة الذكيّة، وهذا، برأي الباحث في مجال السلاح في المنظمة بوني دوشرتي، غير مقبول في حالة "الروبوت القاتل". المنع التام هو الحلّ الوحيد معه، إذ يقول دوشرتي - وهو أيضاً مشارك في تأسيس حملة "أوقفوا الروبوت القاتل" - إن التحكّم في وقت تسديد الضربة وكيفية تسديدها في الحروب يجب أن يبقى خاضعاً للقرار البشري.

يأتي ذلك في سياق عرض مفصل لمخاطر هذا السلاح من النواحي القانونية والأمنية والأخلاقية.

يدفع التعطش العسكري إلى جيل جديد من الأسلحة العالم إلى القلق من ضياع الخط الأخلاقي الأخير في الحروب، حيث ستنعدم القدرة على تحديد المسؤولية عن الأخطاء وجرائم الحرب التي ستُرتكب. لا يمكن للمحاكم الدولية محاسبات كائنات آلية، كما لا يمكنها بحسب القوانين الدولية المعتمدة محاسبة القادة العسكريين بشكل مباشر عن خطأ "الروبوت" في ساحة الحرب. علماً أن الأخير لا يستطيع تقييم المخاطر على الأرض، ومحاولة الحدّ من حجم الخسائر البشرية في حال استطاع ذلك. أضف إلى ما تقدّم، فإن "الروبوت" لا يستطيع التعامل مع ردات الفعل البشرية في المعركة، فلا يحظى من يحاول الاستسلام بحكم مخفف يقيه القتل في مقابل من يحاول الفرار أو من يواجه، هذه الخيارات العقلية المبنيّة على ردة الفعل المقابلة، لا يستطيع سوى العقل البشري التعامل معها في حالات الحرب، التي تقتضي أحياناً ردات فعل لحظية.

للمفارقة أن العديد من الدول التي وقعت على اتفاقية حظر أو تقييد بعض الأسلحة التقليدية، ومن بينها الولايات المتحدة وبريطانيا والصين وإسرائيل وروسيا وكوريا الجنوبية تطور أسلحة تعمل بالتحكم الذاتي. يعوّل المدافعون عن "الروبوت القاتل" على قدرته في أن يحفظ حياة الجنود، كما يوفر آلاماً كثيرة وأموالاً طائلة ناتجة عن إصابات الحرب لديهم. ويحاجج هؤلاء بأن الاتفاقيات الدولية يمكنها الحدّ من مخاطره وتنظيم عمله بشكل إيجابيّ. يقولون إن الإنسان قد يكون أكثر إجراماً، ويستندون في ذلك إلى ما نراه من مشاهد قتل وتعذيب في الحروب، تحصل على يد البشر.

عندما تكون فكرة إبقاء الحياة من عدمها بيد آلة لا تستطيع إدراك الكرامة الإنسانيّة الموروثة، آلة لا يمكن معاقبتها بأي شكل في ظلّ احتمالات هرب المبرمجين والمصنّعين، يصبح هامش القتل التعسفي مفتوحاً على رعب لا ينتهي. "الروبوت" مجرم لا يمكن معاقبته، وبالتالي تهدّد فكرته باختفاء تدابير الردع البشرية التي تحافظ على العقد الاجتماعي.

مع بدء تصنيع الإنسان الآلي تركزت المخاوف على تسببه بازدياد نسبة البطالة، وعلى تراجع الإنسانية في قطاعات الأعمال، ليصبح سيناريو هوليوود أكثر واقعية في يوم ما: "الروبوتات" ستقضي على جنس البشر. يقول العلماء إن قدرات الذكاء الاصطناعي بحلول العام 2022 ستعادل 20% من قدرات الإنسان العقلية، وبحلول العام 2040 ستعادل 50%، أما في العام 2075 فيُرجحون أن تصل إلى 90%. نستحضر هنا تحذير عالم الفيزياء الشهير ستيفن هوكينغ الذي قال إن "الروبوتات" يمكن أن تتطور لدرجة تصبح فيها "أسلحة قوية مستقلة" وطريقة جديدة لـ"قمع الكثيرين".

أهم أخبار العالم

Comments

عاجل