مقالات -
الذكاء الاصطناعي .. هل بات قريبا من الذكاء البشري؟

: 283
الاحد,28 نوفمبر 2021 - 04:42 ص
كتب جون ثورنهيل من لندن
aleqt.com

يمكنه إخراج رسائل البريد الإلكتروني، ورموز الكمبيوتر، وإعلانات الإنترنت، وخطوط الحبكة لألعاب الفيديو، والمقاطع المتكررة القصيرة في الأغاني، وإعطاء اقتراحات لأزياء الهالوين. يمكنه كذلك كتابة قصائد جميلة للغاية تبدو مقنعة بروح إميلي ديكنسون، ونثر بأسلوب إرنست همنغواي، وحتى، إذا طلب منه ذلك، محادثة خيالية بين ديكنسون وهمنغواي

الذكاء الاصطناعي .. هل بات قريبا من الذكاء البشري؟
اضغط للتكبير

.
الاحتمالات تبدو لا حصر لها تقريبا. لذلك عندما أتيحت لي الفرصة للتفاعل مع GPT-3، وهو موديل جديد قادر على توليد اللغة أحدث ضجة كبيرة في عالم الذكاء الاصطناعي على مدار الأشهر القليلة الماضية، طلبت مساعدته على صياغة سيرة ذاتية جديدة، فيها روح البطل لوك سكاي ووكر.
نظرا لأنه تم تدريبه على جميع النصوص التي يمكن الوصول إليها على الإنترنت تقريبا، فإن GPT-3 يتميز بشكل مذهل بسرعته وحجمه وتعدد استخداماته. هذا ما أنتجته على الفور: "كان جون ثورنهيل بالفعل بطل حرب حاصل على أوسمة عندما انضم إلى تحالف المتمردين. وكان متمرسا في استخدام سلاح أوتوماتيكي يطلق دفعات من الطاقة، ويتمتع بقدرة حدسية عندما يتعلق الأمر بفن الحرب، لكن مهارته الحقيقية تكمن في سربه. بعد صعوده لقيادة سرب خاص به في التمرد، قاد جون فريقه خلال معارك لا تحصى، ما جعله قائدا ثابتا بروح المتمرد الحقيقي". أظن أنه يحسن بي الآن أن أقوم بتحديث بطاقات العمل الخاصة بي.
بفضل التطورات الحديثة في التعلم الآلي، أصبحت أنظمة توليد اللغة شائعة بشكل متزايد. يستطيع جهاز كويل Quill من شركة ناراتيف سيانس Narrative Science استيعاب بيانات عن أداء محفظة من الأسهم وكتابة ملخصات للمستثمرين، مثلا. لكن من حيث القدرة المطلقة على التكيف، لا يمكن لأي منها أن يضاهي GPT-3، الذي كشفت عنه في أيار (مايو) شركة أوبن أيه آي OpenAI، وهي شركة أبحاث مقرها سان فرانسيسكو. بتكلفة تقديرية تبلغ 12 مليون دولار، يحتوي الموديل على 175 مليارا من الوسائط اللغوية، أي 100 مرة أكثر من الموديل الأولي السابق. وهو، مع تعديل عبارة لعالم الكمبيوتر البريطاني الرائد ألان تورينج، أكثر آلات "التقليد" المثيرة للإعجاب التي تم بناؤها حتى الآن.
كان تورينج من أوائل الأشخاص الذين تخيلوا كيف سيتحول العالم بواسطة آلات يمكنها التفكير. في بحث نشره في 1950 بعنوان "الآلات الحاسوبية والذكاء"، أوضح أن أجهزة الكمبيوتر قد تصبح ذات يوم جيدة جدا في انتحال شخصية البشر بحيث يكون من المستحيل تمييزها عن الكائنات الحية من لحم ودم. كتب: "قد نأمل أن تتنافس الآلات في النهاية مع الرجال في جميع المجالات الفكرية البحتة".
ستكون آلات الحوسبة العالمية التي من هذا القبيل قادرة على الفوز بما سماه "لعبة التقليد" من خلال إقناع شخص في حوار إلكتروني بأنه يتفاعل مع إنسان آخر، على الرغم من أن بعضهم يجادل الآن بأن ما يسمى "اختبار تورينج" قد يكون أقرب إلى كونه دلالة على السذاجة البشرية منه على الذكاء الحقيقي للآلة.
بعد مرور 70 عاما على مقال تورينج، وبفضل التوسع السريع للإنترنت والزيادات الهائلة في قوة الحوسبة، انتقلنا إلى عالم ممكن بالآلة من شأنه أن يفوق حتى خيال تورينج. نتيجة لتقنيات البرمجيات الجديدة، مثل الشبكات العصبية والتعلم العميق، أصبح علماء الكمبيوتر أفضل بكثير من حيث توجيه الآلات للعب لعبة التقليد.
يقول بعض الذين سبق لهم أن جربوا GPT-3 إنه يظهر بصيصا من الذكاء الحقيقي، ما يمثل خطوة مهمة نحو نقطة النهاية التي تشكل المنتهى للذكاء الاصطناعي: الذكاء العام الاصطناعي AGI، عندما يتطابق الذكاء الإلكتروني مع النوع البشري تقريبا عبر كل مجال فكري. يرفض آخرون هذا على أنه كلام فارغ، مشيرين إلى عيوب GPT-3 المضحكة ويرون أننا لا نزال على بعد عدة فتوحات مفاهيمية من إنشاء أي ذكاء خارق من هذا القبيل.
وفقا لسام ألتمان، الرئيس التنفيذي صاحب الوجه الجامد لشركة OpenAI البالغ من العمر 35 عاما الذي هو إحدى الشخصيات البارزة في وادي السيليكون، هناك سبب يجعل الأشخاص الأذكياء متحمسين جدا بشأن GPT-3. يقول في مقابلة مع "فاينانشيال تايمز: "يوجد دليل هنا على أول إرهاص للذكاء الاصطناعي للأغراض العامة – نظام واحد يمكنه دعم عدد كبير للغاية من التطبيقات المختلفة ويرتقي فعلا بأنواع البرامج التي يمكننا بناؤها. أعتقد أن أهميته هي لمحة عن المستقبل".
تصنف OpenAI على أنها واحدة من أكثر المنظمات غرابة على هذا الكوكب، وربما لا يمكن مقارنتها إلا مع شركة ديب مايند، التي تملكها جوجل، المختصة بأبحاث الذكاء الاصطناعي ـ مقرها لندن ـ التي يديرها ديميس هاسابيس. ينقسم موظفوها البالغ عددهم 120 موظفا، على حد تعبير ألتمان، إلى ثلاث "قبائل" مختلفة تماما: باحثو الذكاء الاصطناعي، وبناة الشركات الناشئة، وخبراء سياسة التكنولوجيا والسلامة. وهي تشترك في مكاتبها في سان فرانسيسكو مع شركة نيورالينك، واجهة الكمبيوتر والدماغ المستقبلية.
تأسست شركة OpenAI في 2015 مع التزام تمويل بقيمة مليار دولار من عدد من أصحاب المشاريع وشركات التكنولوجيا الرائدة في الساحل الغربي، وتفتخر بالمهمة الطموحة بجنون التي تتمثل في تطوير الذكاء الاصطناعي العام لصالح البشرية جمعاء. كان من بين أوائل الداعمين لها الملياردير إيلون ماسك، مؤسس تسلا، وسبيس إكس المليء بالحيوية والمتقلب المزاج (الذي تراجع منذ ذلك الحين عن OpenAI)، وريد هوفمان، صاحب رأس المال المغامر ومؤسس لينكدإن، وبيتر ثيل، المستثمر الأول في فيسبوك وبالانتير.
تم تأسيس OpenAI في البداية باعتبارها شركة غير ربحية، ومنذ ذلك الحين تبنت نهجا تجاريا أكثر من قبل وقبلت استثمارا إضافيا بقيمة مليار دولار من مايكروسوفت في العام الماضي. تمت هيكلتها على أنها شركة "ذات أرباح محدودة"، وهي قادرة على زيادة رأس المال وإصدار الأسهم، وهو أمر ضروري إذا كنت تريد جذب أفضل الباحثين في وادي السيليكون، مع التمسك في الوقت نفسه بمهمتها العامة التوجيهية دون ضغط غير مبرر من المساهمين. يقول ألتمان: "هذا الهيكل يمكننا من تحديد وقت وكيفية إطلاق التكنولوجيا".
تولى ألتمان منصب الرئيس التنفيذي العام الماضي، بعد أن كان يدير سابقا شركة واي كومبنيتر، إحدى حاضنات الشركات الناشئة الأكثر نجاحا في وادي السيليكون، التي ساعدت على إنتاج أكثر من ألفي شركة، بما في ذلك إيربنب ودروبوكس وسترايب. يقول إنه شعر بالأغراء فقط للتخلي عن "وظيفة الأحلام" هذه للمساعدة على معالجة واحد من أكثر التحديات إلحاحا التي تواجه البشرية: كيفية تطوير ذكاء اصطناعي آمن ومفيد. يقول: "إنه أهم شيء يمكنني أن أتخيله على الإطلاق. لن أتظاهر بأن لدي جميع الإجابات حتى الآن، لكني سعيد لأن أبذل طاقتي في محاولة المساهمة بأي طريقة ممكنة".
من وجهة نظر ألتمان، ثورة الذكاء الاصطناعي التي تتكشف الآن قد تكون أكثر أهمية للإنسانية من الثورات الزراعية والصناعية والحاسوبية السابقة مجتمعة. سيؤدي تطوير الذكاء الاصطناعي العام إلى إعادة ضبط العلاقة بين البشر والآلات بشكل أساسي، ما قد يؤدي إلى ظهور شكل أعلى من الذكاء الإلكتروني. في تلك المرحلة، على حد تعبير المؤرخ الإسرائيلي، يوفال نوح هراري، سيتوقف الإنسان العاقل عن أن يكون أذكى خوارزمية على هذا الكوكب.
يرى ألتمان أن الذكاء الاصطناعي يمكن أن يغير طبيعة الإنتاجية البشرية والإبداع، على نحو يمكننا من معالجة كثير من التحديات الأكثر تعقيدا في العالم، مثل تغير المناخ والأوبئة. يقول: "أعتقد أنه سيكون مستقبلا قويا بشكل لا يصدق". لكن إذا أدير بشكل خاطئ، فلن يكون من سبيل للذكاء الاصطناعي سوى مضاعفة كثير من المشكلات التي نواجهها اليوم: التركيز المفرط لقوة الشركات في الوقت الذي تتولى فيه الشركات الخاصة بشكل متزايد الوظائف التي كانت تمارسها حكومات الدول، وزيادة اتساع التفاوت الاقتصادي وتضييق الفرص، وانتشار المعلومات المضللة وتآكل الديمقراطية.
بعض الكتاب، مثل نيك بوستروم، ذهبوا إلى حد القول إن الذكاء الاصطناعي المنفلت من عقاله يمكن أن يشكل تهديدا وجوديا للبشرية. قال في كتاب صدر في 2014: "قبل احتمال حدوث انفجار في الذكاء، نحن البشر نشبه الأطفال الصغار الذين يلعبون بقنبلة". من المؤكد أن مثل هذه التحذيرات جذبت انتباه إيلون ماسك، الذي غرد: "نحن بحاجة إلى توخي الحذر الشديد مع الذكاء الاصطناعي. يحتمل أن يكون أكثر خطورة من الأسلحة النووية".
مثل هذه المخاوف بشأن أفضل السبل لإدارة هذه الأدوات القوية تعني أن OpenAI أصدرت GPT-3 فقط في بيئة خاضعة للسيطرة والضبط. يقول ألتمان: "لم يكن GPT-3 موديلا أردنا طرحه في العالم دون أن نتمكن من تغيير كيفية تطبيقنا للأشياء أثناء تقدمنا". تم الآن منح نحو ألفي شركة إمكانية الوصول إليه في اختبار تجريبي خاص خاضع للسيطرة والضبط. ما يتعلمونه أثناء سعيهم لاستكشاف قدرات GPT-3 كانت تتم تغذية الموديل به لإجراء مزيد من التحسينات. "مذهل للعقل" و"جيد بشكل صادم" و"خرافي" ليست سوى بعض ردود الفعل في أوساط المطورين.
ديفيد تشالمرز، وهو أستاذ في جامعة نيويورك وخبير في فلسفة العقل، ذهب إلى حد الإشارة إلى أن GPT-3 متطور بما يكفي لإظهار علامات وعي بدائية. كتب على موقع ديلي نوس: "أنا منفتح على فكرة أن دودة بها 302 خلية عصبية هي كائن يتمتع بالوعي، لذلك أنا منفتح على فكرة أن GPT-3 مع 175 مليار وسيط متغير هو أيضا كائن يتمتع بالوعي".
مع ذلك، لم يستغرق المستخدمون وقتا طويلا لتعرية الجوانب المظلمة في GPT-3 وإغرائه لإنتاج عبارات تشتمل على لغة تتسم بالتحيز العنصري والجنسي. يخشى بعضهم من أنه لن يؤدي إلا إلى موجة مدية زلزالية من "القمامة الدلالية".
إذا رصد OpenAI أي دليل على سوء الاستخدام المتعمد أو غير المتعمد، مثل إنشاء بريد عشوائي أو محتوى سام، فيمكنه إيقاف تشغيل المستخدم المسيء وتحديث سلوك أنموذجه لتقليل فرص حدوثه مرة أخرى. يقول ألتمان: "يمكننا بالتأكيد إيقاف تشغيل المستخدم إذا انتهك الشروط والأحكام – وسنفعل – لكن الأمر الأكثر إثارة هو أنه يمكننا تغيير الأشياء بسرعة كبيرة".
يضيف: "أحد أسباب إطلاقنا لهذا كواجهة برمجة تطبيقات هو أنه يمكننا ممارسة النشر في المجالات التي يعمل فيها جيدا، والمجالات التي لا يعمل فيها بشكل جيد – أي أنواع التطبيقات التي تعمل وأين لا تعمل. هذه حقا ممارسة تم تشغيلها لنا لنشر أنظمة الذكاء الاصطناعي القوية للأغراض العامة هذه".
يفترض أن تساعد هذه الدروس على تحسين تصميم وسلامة أنظمة الذكاء الاصطناعي المستقبلية في الوقت الذي يتم فيه نشرها في روبوتات المحادثة، أو مقدمي الرعاية الروبوتية، أو السيارات ذاتية القيادة، مثلا.
رغم أدائه الحالي المثير للإعجاب في كثير من النواحي، هناك احتمال كبير أن الأهمية الحقيقية لـ GPT-3 تكمن في القدرات التي يطورها لتوليد الموديلات التي تأتي بعده. في الوقت الحاضر هو يعمل مثل وظيفة إكمال تلقائي فائقة التعقيد، وقادرة على الربط بين متواليات الكلمات التي تبدو معقولة دون أن يكون لديه أي مفهوم حول الفهم. كما توقع تورينج منذ عقود، يمكن لأجهزة الكمبيوتر أن تحقق الكفاءة في كثير من المجالات دون اكتساب الفهم.
جون إيتشيمندي، المدير المشارك لمعهد ستانفورد للذكاء الاصطناعي الذي يركز على الإنسان، يسلط الضوء على القيود الحالية التي تعانيها حتى أقوى موديلات توليد اللغة. يقول صحيح أنه تم تدريب GPT-3 على إنتاج نص، إلا أنه ليس لديه فهم حدسي لما يعنيه هذا النص. وبدلا من ذلك، تم اشتقاق نتائجه من نمذجة الاحتمالات الرياضية. لكنه يشير إلى أن التطورات الحديثة في أنظمة الكلام والرؤية الحاسوبية يمكن أن تثري قدراته بشكل كبير بمرور الوقت.
يضيف: "سيكون رائعا لو تمكنا من تدريب شيء ما على البيانات متعددة الوسائط، سواء كانت نصية أو صورا. يستطيع النظام الناتج بعد ذلك أن يعرف ليس فقط كيفية إنتاج الجمل باستخدام كلمة ’أحمر‘ ولكن أيضا استخدام اللون الأحمر. يمكننا البدء في بناء نظام لديه فهم حقيقي للغة بدلا من نظام يعتمد على القدرة الإحصائية".

ما هو GPT-3؟

GPT-3، الذي يرمز إلى الإصدار الثالث من المحولات التوليدية المدربة مسبقا، هو نظام قوي للغاية للتعلم الآلي يمكنه إنشاء نص بسرعة بأقل قدر من المدخلات البشرية. بعد مطالبة أولية، يمكنه التعرف على أنماط الكلمات وتكرارها لمعرفة ما سيحدث بعد ذلك.
ما يجعل GPT-3 قويا بشكل مذهل هو أنه تم تدريبه على نحو 45 تيرابايت من البيانات النصية. للمقارنة، الإصدار الكامل باللغة الإنجليزية من ويكيبيديا يمثل 0.6 في المائة فقط من مجموعة البيانات الكاملة لموديل GPT-3. أو، إذا نظرنا إلى الأمر بطريقة أخرى، يعالج GPT-3 نحو 45 مليار ضعف عدد الكلمات التي يراها الإنسان في حياته.
لكن على الرغم من أن GPT-3 يمكن أن يتنبأ بدقة مخيفة ما إذا كانت الكلمة التالية في الجملة يجب أن تكون مظلة أم فيلا، إلا أنه ليس لديه أي إدراك للمعنى. سأل أحد الباحثين GPT-3: "كم عدد عيون قدمي؟" أجاب GPT-3: "قدمك لها عينان".
شركة نبلا تكنولوجيز Nabla Technologies، وهي شركة بيانات للرعاية الصحية، فحصت مدى جودة GPT-3 في تقديم المشورة الطبية، سلطت الضوء على احتمال الأذى الذي يمكن أن ينجم عن عدم التوافق الحالي بين القدرة والفهم. اكتشفت الشركة أن في GPT-3 دعم في إحدى الحالات رغبة مريض وهمي في الموت عن طريق الانتحار. (تحذر OpenAI صراحة من مخاطر استخدام GPT-3 في مثل هذه الفئات "عالية المخاطر").
تقول شانون فالور، أستاذة أخلاقيات البيانات والذكاء الاصطناعي في جامعة إدنبره، إن مثل هذه الحالات تسلط الضوء على الحاجة إلى الإشراف البشري المستمر على هذه الأنظمة الآلية: "في الوقت الحالي، يحتاج GPT-3 إلى جليسة أطفال بشرية في جميع الأوقات تخبره بأنواع الأشياء التي لا ينبغي أن يقولها. المشكلة هي أن GPT-3 ليس ذكيا حقا. فهو لا يتعلم بالطريقة التي يتعلمها البشر. لا يوجد وضع يدرك فيه GPT-3 عدم ملاءمة هذه الأقوال المعينة ويتوقف عن استخدامها. هذه فجوة واضحة وآخذة في الاتساع ولا أعرف كيف سنغلقها".
تضيف: "كان الوعد الذي حققته الإنترنت هو قدرتها على نقل المعرفة إلى الأسرة البشرية بطريقة أكثر إنصافا وقبولا. أخشى أنه بسبب بعض التكنولوجيا، مثل GPT-3، نحن على أعتاب رؤية انحدار حقيقي، حيث تصبح المعلومات المشتركة غير قابلة للاستخدام بشكل متزايد وحتى ضارة للناس في حال وصولهم إليها".
ريد هوفمان، مؤسس لينكدإن، وهو أحد أعضاء مجلس إدارة OpenAI، يقول إن المنظمة تكرس الكثير من الجهود لتصميم إجراءات تشغيل آمنة ونماذج حوكمة أفضل. ومن أجل الحماية من النتائج السيئة فهو يقترح ثلاثة أشياء: تنظيف البيانات التاريخية السيئة التي تنطوي في داخلها على التحيزات المجتمعية، وإدخال شكل من أشكال قابلية الشرح في أنظمة الذكاء الاصطناعي وفهم ما تحتاج إلى تصحيحه، والتحقق باستمرار من ناتج أي نظام مقابل أهدافه الأصلية. "هناك بدايات كثير من العمل الجيد على هذه الأشياء. الناس متيقظون للمشكلات ويعملون على حلها".
يضيف: "السؤال ليس كيف يمكنك إيقاف التكنولوجيا، ولكن كيف يمكنك تشكيل التكنولوجيا. الصاروخ ليس سيئا بطبيعته. لكن حين تضع صاروخا في يد شخص يريد إحداث ضرر ولديه قنبلة فهذا يمكن أن يكون سيئا للغاية. كيف نتعامل مع هذا الأمر على الوجه الصحيح؟ كيف تبدو المعاهدات الجديدة؟ كيف تبدو المراقبة الجديدة؟ ما نوع التكنولوجيا التي تبنيها أو لا تبنيها؟ كل هذه الأشياء موجودة للغاية وتشكل أسئلة نشطة في الوقت الحالي".
طرح مثل هذه الأسئلة يظهر بلا شك حسن النية. ومع ذلك، فإن الإجابة عنها بشكل مرض تتطلب إنجازات غير مسبوقة من الخيال والتعاون والتنفيذ الفعال بين التحالفات المتغيرة للباحثين الأكاديميين والشركات الخاصة والحكومات الوطنية والمجتمع المدني والوكالات الدولية. كما هي الحال دائما، يكمن الخطر في أن التطورات التكنولوجية ستسبق الحكمة البشرية.

اقرأ ايضآ

  • أفضل موجّهات الإشارة الشبكية لعام 2022
  • انتهاء جموح العملات المشفرة في انتظار اللوائح
  • 1.5 تريليون دولار مساهمة «الميتافيرس» سنويا .. هل سيغير الاقتصاد العالمي ؟
  • الفضاء ساحة التنافس المنظور
  • في غياب التنظيم .. أشياء سيئة تنتظر العملات الرقمية
  • فيسبوك
    تعليقات


    المرونة السيبرانية واستدامة مواجهة التهديدات السيبرانية
    شهد عام 2021 تحولات ومتغيرات جديدة فيما يتعلق بحالة الأمن السيبراني في منطقة الشرق الأوسط وشمال إفري

    الاتجاهات العالمية للامن السيبراني عام 2021
    إذا كان عام 2020 هو عام فوضى التعامل مع كوفيد 19، فإن عام 2021 يمكن أن يطلق علية عام انفجار التهديدا

    تناقضات أول قانون لتنظيم التواصل الاجتماعي في بريطانيا
    بادرت الحكومة البريطانية المحافظة بمحاولة تقنين النشر على الفضاء الإلكتروني بمشروع قانون يستهدف منصا

    موضوعات جديدة
    الأكثر قراءة
    الأكثر تعليقا
     
        
    التاريخ