HTML Elements Reference

الأخبار -
البحث في انتحار روبوت في كوريا الجنوبية

: 420
الاثنين,8 يوليو 2024 - 03:51 ص
سارة فارس

قام الروبوت المصمم للمساعدة في المهام الإدارية الروتينية، في مدينة جومي ب كوريا الجنوبية بعمل غريب وُصف بـ"الانتحار"، عندنما تعطل على ما يبدو، وتحرك عمداً نحو السلم، وألقى بنفسه، ما أدى إلى تدميره".

البحث في انتحار روبوت في كوريا الجنوبية
اضغط للتكبير
 
وكان يعمل  منذ عام تقريبا من الساعة 9 صباحا حتى 6 مساء، وكانت لديه بطاقة خدمة عامة خاصة به. وراي شهود عيان  الروبوت قبيل سقوطه، يدور حول نفسه كما لو أن خطبا ما قد أصابه.
وعلى عكس الروبوتات الأخرى  كان بإمكانه طلب المصعد والانتقال من طابق إلى آخر.
وكان هذا الروبوت  طورته شركة "بير روبوتيكس" (Bear Robotics) الأميركية في كاليفورنيا،
وعلى الرغم من أن الروبوتات لا تمتلك وعياً أو مشاعر مثل البشر، إلا أن هذه الحادثة تسلط الضوء على مشكلات كبيرة في برمجته
وهو الأمر الذي دفع الي فتح  تحقيق في اسباب الحادث ،ومن ثم تم جمع الأجزاء المحطمة و تحليلها" من قبل الشركة التي صممتها.
 
الاسباب المحتملة 
 
1-المستشعرات والملاحة: قد تكون مستشعرات الروبوت، المسؤولة عن اكتشاف العوائق والتنقل قد فشلت في العمل، ما ترتب عليه سوء في تفسير الروبوت لمحيطه، وبالتالي اتخذ قراراً بتحركات خطرة وعشوائية.
2-عيوب أو اعطال في عمل الخوارزميات والتي قد تنشأ من أخطاء برمجية أو اختبارات غير كافية خلال مرحلة التطوير.او عن تعارض في أوامر التشغيل أو مشاكل في تدفق الذاكرة.
3-- دور تاثير العوامل الخارجية، مثل الموجات الكهرومغناطيسية أو محاولات القرصنة، في تعطيل عمل الروبوت بشكل طبيعي. وبالرغم من أنها أقل احتمالية، إلا أن هذا التداخل قد يجبر الروبوت على تنفيذ الأفعال المطلوبة منه.
4--آليات الأمان: تعتبر آليات الأمان ضرورية لمنع الروبوتات من القيام بسلوكيات "ضارة"، وغيابها أو عدم برمجتها بدقة قد يتسبب في تنفيذ عمل خطير دون الاعتماد على بروتوكولات الطوارئ.
5-وعدم كفاية الاختبارات الشاملة التي أجريت  في مختلف السيناريوهات لضمان موثوقية عمل الروبوت، و خاصة في البيئات المعقدة، قد تتحول إلى "أخطاء كارثية".
6- قد يؤدي تعقيد عمليات اتخاذ القرار في الذكاء الاصطناعي أحياناً إلى نتائج "غير متوقعة"، ففي حال موقف لا يمكنه معالجته بشكل صحيح، فقد يتخذ إجراءات "غير مناسبة".وغير آمنة
 
البحث عن حلول مستقبلية 
 
1-تبني بروتوكولات الاختبار للروبوتات بشكل أكثر صرامة وشمولية، بما في ذلك اختبارات الإجهاد والمحاكاة في بيئات متنوعة،والتي يمكن أن تساعد في تحديد وإصلاح العيوب المحتملة قبل نشرها.
 
2-العمل علي تحسين آليات الأمان وجعلها أكثر تطوراً  بشكل  يضمن أن تدخل الروبوتات في أوضاع أمان تلقائياً أو تتوقف عن العمل في حالة حدوث خلل.
 
3- أهمية وضع معايير البرمجة الأخلاقية والتي  تعطي الأولوية للسلامة والموثوقية من جهة وتخفف من المخاطر المرتبطة بسلوك الذكاء الاصطناعي.من جهة اخرى
 
4-  المراقبة المستمرة لعملية تشغيل  الروبوتات  والتحديثات المنتظمة للبرمجيات والتي  يمكن أن تعالج المشكلات الناشئة على الفور، مما يقلل من احتمالية حدوث سلوكيات ضارة.

 


Share/Bookmark

  • شركة OpenAI:روسيا وإسرائيل استخدمت أدواتها لنشر معلومات مضللة
  • كيف تحكم "أبل" حياتنا الرقمية؟
  • اوروبا تفرض رسوم جمركية تصل إلى 45% على السيارات الكهربائية الصينية
  • جوجل تصدم صناع المحتوى في مصر بـ"العملة المحلية"
  • رسائل «البريد الإلكتروني الابتزازي»
  • Facebook
    Comments


    نقلة جديدة لتطبيقات الحرب السيبرانية
    جاء التفجير المتزامن ليومين متتاليين فى لبنان لأجهزة بيجر وآيكوم للاتصال اللاسلكى ليقتل العشرات ويصي

    تليجرام وحوكمة الشبكات الاجتماعية
    جاء اعتقال «بافل دوروف» رئيس تليجرام ثم الإفراج عنه بغرامة ومنعه من السفر فى فرنسا ليسلط الضوء من جد

    قلق بتصاعد التاثير النفسي لتطبيقات الذكاء الاصطناعي
    يتصاعد القلق يوما بعد يوم من مخاطر تتسبب الواقعية الكبيرة في تطبيقات الذكاء الاصطناعي مثل انتاج اشخا

    موضوعات جديدة
    الأكثر قراءة
    الأكثر تعليقا
    الى اي مدى انت راض على اداء المنصات الرقمية في الحرب على غزة ؟
    راضي
    غير راضي
    غير مهتم
     
        
    سيادة الدولة في العصر الرقمي للدكتور عادل عبد الصادق
    التاريخ