مخاوف عالمية من تحول الروبوتات إلى سلاح بيد الإرهابيين

16-05-2018 10:56 AM - عدد القراءات : 337
كتب العرب -لندن
توجّه بعض الدول والتنظيمات الإرهابية إلى المزيد من الاهتمام بتطوير الذكاء الاصطناعي يثير قلقا دوليا من حصول هذه الأطراف على تكنولوجيا قاتلة، وهو ما يصعب على البشر مقاومة هجمات يقودها عدو يفوقها ذكاء وصمودا
 مخاوف عالمية من تحول الروبوتات إلى سلاح بيد الإرهابيين
حذرت لجنة تابعة لمجلس اللوردات البريطاني من أن الدول المارقة والإرهابيين قد يحصلون “في المستقبل القريب” على تكنولوجيا الذكاء الاصطناعي القاتلة.

وبحسب موقع بي بي سي البريطاني، قال ألفين ويلبي، نائب رئيس قسم البحوث في شركة تال الفرنسية العملاقة في مجال شؤون الدفاع، التي تزود الجيش البريطاني بطائرات استطلاع موجهة، إن “المارد خرج من القمقم” بالتكنولوجيا الذكية.

وأشار إلى زيادة احتمال شن هجمات باستخدام “أسراب” من الطائرات الصغيرة الموجهة التي تستطيع اختيار أهداف محددة من خلال مدخلات بيانات محدودة من البشر.

وصرح أمام لجنة الذكاء الاصطناعي بمجلس اللوردات بأن “التحدي التكنولوجي لزيادة هذه الأسراب وأشياء من هذا القبيل لا يحتاج إلى أي خطوة ابتكارية”.

وأضاف أنها “مسألة وقت وتوازن وأعتقد أنه واقع ينبغي لنا أن نقلق بشأنه”.

امتلاك جماعات إرهابية مجموعة من 'النسخ السيئة للغاية' من الروبوتات القاتلة دون تجهيزها بوسائل الحماية يحول دون منع القتل العشوائي

ويجري الجيشان الأميركي والصيني تجارب بشأن أسراب لطائرات دون طيار رخيصة الثمن يمكن استخدامها في شن هجوم على أهداف للعدو أو للدفاع عن البشر ضد هجمات.

وقال نويل شاركي الأستاذ الفخري في مجال الذكاء الاصطناعي وأجهزة الروبوت في جامعة شيفيلد، إنه يخشى من امتلاك جماعات إرهابية مثل تنظيم داعش مجموعة من “النسخ السيئة للغاية” لهذه الأسلحة دون تجهيزها بوسائل الحماية لمنع القتل العشوائي.

وأضاف أمام لجنة الذكاء الاصطناعي لمجلس اللوردات أن ذلك يذكي قلقا بالغا بشأن “امتلاك الدكتاتوريين المستبدين هذه الأسلحة، التي لن يحملها جنودهم لقتل السكان”.

وكشف أن تنظيم داعش يمتلك بالفعل طائرات موجهة كأسلحة دفاعية، على الرغم من أنها تعمل حاليا بتوجيه بشري عن بعد.

غير أن “سباق التسلح” في ميدان الذكاء الاصطناعي يعني أن الطائرات الموجهة الذكية والأنظمة الأخرى التي تحلق حول هدف لاستهدافه قد تصبح واقعا قريبا.

وقال شاركي، وهو متحدث باسم حملة “أوقفوا الروبوت القاتل”، “لا أريد أن أعيش في عالم يمكن أن تحدث فيه حرب خلال بضع ثوان فجأة ويموت الكثير من الناس قبل أن يستطيع أحدهم وقف ذلك”.

وتابع أن الطريقة الوحيدة لمنع هذا السباق الجديد للتسلح هي “وضع قيود دولية جديدة لذلك”، وهي خطوة يروج لها في الأمم المتحدة بوصفه عضوا في اللجنة الدولية للسيطرة على أسلحة الروبوت.

وشدد ويلبي على أن مثل هذا الحظر قد يكون “مضللا” وصعب التنفيذ. وأضاف أنه يوجد بالفعل قانون دولي للصراع المسلح، الذي يهدف إلى ضمان “استخدام القوات المسلحة لأقل حد ممكن من القوى الضرورية لتحقيق الهدف، بأقل خطر ممكن للعواقب غير المقصودة والخسائر المدنية”.

واستمعت لجنة مجلس اللوردات، التي تحقق في تأثير الذكاء الاصطناعي على الأعمال والمجتمع، إلى مجالات التطوير في الذكاء الاصطناعي التي يجريها القطاع الخاص، على النقيض من العصور السابقة، التي كان يقود فيها الجيش طرق تطوير التكنولوجيا. وكان يعني هذا صعوبة وقوعها في اليد الخطأ.

استخدام الذكاء الاصطناعي في تغيير طبيعة الحروب

ولا تستخدم القوات المسلحة البريطانية الذكاء الاصطناعي في الأسلحة الهجومية، وقالت وزارة الدفاع إنه لا توجد لديها أي نوايا لتطوير أنظمة ذاتية بالكامل.

وقال معارضون، مثل شاركي، إن بريطانيا تحتاج إلى توضيح التزامها بشأن حظر أسلحة الذكاء الاصطناعي في قانون.

وكانت مؤسسة أميركية للأبحاث حذرت مؤخرا من أن تكنولوجيا الذكاء الاصطناعي الصينية وتطويرها قد يشكلان تهديدا للتوازن الاقتصادي والعسكري للقوى العالمية.

واستشهد تقرير المؤسسة بأمثلة على كيفية استخدام الذكاء الاصطناعي في الأغراض العسكرية.

وكانت الصين قد أعلنت في يوليو الماضي عن خططها القومية لتطوير الذكاء الاصطناعي، ودعت إلى اللحاق بركب الولايات المتحدة.

وقال خبير تكنولوجي إن الانتقادات الموجهة قد تمثل “مبارزة” بين طرفين.

وقال تقرير صادر من مركز الأمن الأميركي الجديد، الذراع البحثية للاستخبارات الأميركية “لم تعد الصين في مركز أقل تكنولوجيا بالنسبة للولايات المتحدة، بل أصبحت تنافس بحق ولديها القدرة على التفوق على الولايات المتحدة في مجال الذكاء الاصطناعي”.

وأضاف التقرير، الذي استشهد بوثائق متاحة، “يستثمر الجيش الصيني في عدد من المشروعات ذات الصلة بالذكاء الاصطناعي، كما تتعاون معاهد بحثية تابعة للجيش الصيني مع قطاع الصناعات الدفاعية الصينية”. وقال “يتوقع الجيش الصيني استخدام الذكاء الاصطناعي في تغيير أساسي لطبيعة الحروب”.

وأكدت إلزا كانيا، المشرفة على التقرير، أن بعض مؤسسات البحث التابعة للجيش الصيني تتوقع “التفرد” في ميدان المعركة، حيث لا يستطيع العنصر البشري مواكبة سرعة القرارات التي تديرها الآلة خلال المعركة.

وتدعو سياسة وزارة الدفاع الأميركية البنتاغون حاليا إلى دور بشري في الخطوات الهجومية التي تنفذها الآلات، في حين تدرس الأمم المتحدة الدعوة إلى حظر استخدام الأسلحة المستقلة في ميدان المعركة.

وكتبت كانيا “قد يستفيد الجيش الصيني من الذكاء الاصطناعي بطرق فريدة وربما غير متوقعة، قد تكون أقل تقييدا على الأرجح مقارنة بالمخاوف القانونية والأخلاقية في الفكر الأميركي”.

وقال شاركي، رئيس حملة “أوقفوا الروبوت القاتل”، “إن اجتماعه مع مسؤولين صينيين أبرز عدم وجود رغبة في تطوير مثل هذه الأسلحة”.

وأضاف “يبدو أنهم متخوفون مما يفعله الغرب، وأعربوا عن رغبتهم في منع مثل هذه الأسلحة، لذا قد يعتبر الوضع أشبه بمبارزة بين طرفين”.



© 2012 جميع الحقوق محفوظة لــ المركز العربى لأبحاث الفضاء الالكترونى
>