الكتب - مراجعه كتب الذكاء الاصطناعي بحاجة إلى الفلاسفة |
: 3260 | |
|
الاحد,30 يوليو 2023 - 06:25 ص باريس : أنيسة مخالدي الشرق الاوسط لمن يتساءل عن علاقة الفلسفة بالذكاء الاصطناعي، فلا بأس من التذكير بأن الذكاء هو أول المواضيع التي اهتم بها الفلاسفة، بدءاً بأرسطو وأفلاطون ومروراً ببرغسون، دون أن يتفقوا على تعريفه، ثم جاءت التكنولوجيا وأصبحت منذ قرن على الأقل ذات اهتمام واسع، ولذا فإن الجمع بين الاثنين هو محل نقاش فلسفي مزدوج أكثر من أي وقت مضى، ويتمحور الأمر أساساً حول «الأخلاقيات».
| اضغط للتكبير
|
ما أفضل الطرق لاستخدام التكنولوجيا؟ للإجابة عن هذه الإشكاليات فإن جهود الفلاسفة ارتكزت على بُعدين مهمين أولهما البُعد الأبستمولوجي أو المعرفي: مثل التساؤل عن ماهية الذكاء الاصطناعي، وهل هو واع أو قادر فعلاً على محاكاة الفكر البشري؟ في هذا المجال يُعد عمل الفيلسوف الأمريكي هوبرت دروفيس من أهم المراجع. وعلى الرغم من أنه ناقش هذه القضية في أواخر السبعينات في كتاب: «ما لا تزال أجهزة الكومبيوتر غير قادرة على فعله» فإن نظرياته لا تزال صالحة في الوقت الراهن. الفيلسوف الأميركي وصل إلى خلاصة مفادها أن الذكاء الاصطناعي لا يستطيع محاكاة الفكر البشري؛ لأن الآلة لن تكون قادرة على القيام بالوظائف العليا التي يقوم بها البشر على نحو كامل، ما دام أن العنصر البشري هو من يقرر.
في نهاية المطاف، تركيزاً على دور «الجسد» في عملية التفكير، وبعيداً عن أفلام الخيال، حاول فلاسفة آخرون فك لغز «الوعي» عند الآلات الذكية. ديفيد تشالمرز أحد الفلاسفة الأكثر تأثيراً في الحقل البحثي الخاص بطبيعة الوعي، وبتفسيره الخاص لمفهوم الوعي، فاجأ الجميع حين أقر بأن نسبة احتمال ظهور ذكاء اصطناعي «واع» قد تصل إلى 20 في المائة في العشر سنوات المقبلة.
وفي كتاب «الذكاء الاصطناعي، الذكاء البشري، اللغز المزدوج» (دار نشر غاليمار)، الذي صدر في مايو (أيار)، اعترف الفيلسوف وباحث الرياضيات الفرنسي دانيال أندلر، وهو أحد أقطاب البحث في هذا المجال، بأنه كان أول المُرحبين بالذكاء الاصطناعي قبل أن يغير رأيه وبالأخص بسبب الإشكالية «الأخلاقية» وعدم التحكم التّام في «الوحش» الذي صنعناه كما يقول: «بخصوص (وعي الذكاء الاصطناعي) أي دليل نستطيع تقديمه لنبرهن على وجود (وعي) عند الآلة الذكية؟ ليس لدينا مفهوم واضح ومحدد للوعي». ثم يواصل «إذا كانت هناك حكمة من قصّة بلاك لوموان مهندس (غوغل) الذي طُرد من عمله بعد أن أقر بأن روبوت الدردشة (لمدا) يتمتع بوعي وإحساس، فهي أن الآلة الذكية تغير تصورنا للعلاقة بين الإنسان والآلة، وهي من اليوم فصاعداً قادرة على التلاعب بنا، ولذا فإن السؤال الأهم هو كيف نحمي أنفسنا من نفوذها ونفوذ المجموعات التجارية التي تقف وراءها...؟». وفي سياق آخر يهتم الفلاسفة بمناقشة التحديات الاجتماعية والإنسانية والحضارية التي تواجه مجتمعاتنا في المستقبل القريب، وهل يحل الذكاء الاصطناعي بديلاً عن العمل البشري أو يتكامل معه؟
ديفيد تشالمرز
في كتابه «وعظ الروبوتات» (دار نشر فلاماريون) يكتب الفيلسوف من جامعة مونتريال مارتان جيلبر أن دخول الذكاء الاصطناعي أصبح وشيكاً في حياتنا اليومية: من السيارات ذات القيادة الذاتية إلى الروبوتات العسكرية والمساعدين الافتراضيين للأطفال والمسنين كلها مدعوة لاتخاذ قرارات متعلقة بسلامتنا. ولذا فهو يوصي ببساطة بمرافقة التدريب العميق الذي يسمح للخوارزميات بتلقي عدد هائل من المعلومات إلى تدريب «آخر» انطلاقاً من أخلاق وتصرفات بشر «فاضلين» للحصول على «روبوتات متخلّقة». ويستشهد بـ«تاي»، وهي شخصية افتراضية لمراهقة أميركية أطلقتها «مايكروسوفت» عام 2016 لتعليمها تلقائيا حوارات تجريها مع الشباب والمراهقين على مواقع التواصل الاجتماعي، لكن سرعان ما بدأت بنشر تغريدات عنصرية مؤيدة للنازيين بسبب ما تعلمته من مستخدمي «تويتر» حتى اضطرت «مايكروسوفت» إلى توقيفها. ومع ذلك يعترف الفيلسوف والباحث في جامعة مونتريال بأن «الذكاء الاصطناعي» يبقى علبة سوداء لا نتحكم دائماً في أسرارها ولا نفهم دائماً ردود أفعالها، مستشهداً بحادثة الطائرة التي يقودها الذكاء الاصطناعي والتي تمرّدت على مُشغلها إثر اختبار فقتلته. مثل هذه التصرفات لم يتم تدريب الآلة عليها، وهو الجانب الغامض المعروف باسم «هلوسات الذكاء الاصطناعي»، والتي تتضمن أيضاً الأخبار الزائفة والمعلومات الخاطئة. أما ألكسندر لاكروا مدير تحرير مجلة «فيلوسوفي» الفرنسية فقد وضع نقاط استفهام كثيرة حول «حرية الاختيار والقرار». وفي مقال بعنوان: «هل ستعرف السيارات القيادة بشكل جيد؟» نشر لاكروا مقالا في العدد الخاص بالذكاء الاصطناعي الذي أصدرته المجلة الفلسفية تحدث فيه عن «معضلة عربة الترام»، وهي واحدة من أكثر الإشكاليات مناقشة في الفلسفة الأخلاقية المعاصرة، وقد أعاد طرحها ليناقش مشاريع السيارات الذاتية القيادة التي يريد «غوغل» إطلاقها بالاعتماد على الذكاء الاصطناعي. كتب لاكروا «إذا كنت سائقاً وعلى وشك الاصطدام لأنك فقدت التحكم في الفرامل وكان عليك أن تختار بين دهس فريق من 5 أشخاص أو شخص واحد فمن تختار؟ الغالبية الساحقة ستجيب الشخص الواحد طبعاً ولكن ماذا لو كان هذا الشخص طفلا؟ أو ابنك؟ أو شخصية محبوبة ككلياني مبابي أو من النساء الحوامل؟ والآن تخيل أن خوارزميات الذكاء الاصطناعي هي من ستتخذ القرار...» في النهاية خلص الفيلسوف الفرنسي إلى استنتاج أن الإنسان يلعب بالنار حين يفوض «حقه في الاختيار» إلى الآلة، فنحن نقرر تحت تأثير اعتبارات ثقافية، وإنسانية، ودينية تختلف من مجتمع لآخر بينما تخضع الآلة لتدريب مجموعات تجارية تحتكر هذه التكنولوجيا، ولا تمثل سوى مصالح ثقافة معينة في وقت معين.
السؤال الأهم هو كيف نحمي أنفسنا من نفوذ الآلة ونفوذ المجموعات التجارية التي تقف وراءها؟
دانيال أندلر
وإن بدت الهوة عميقة بين السباق المجنون الذي دخلته المجموعات التي تحتكر تكنولوجيا الذكاء الاصطناعي لأغراض ربحية ونقاش الفلاسفة الذي يتطلب التأمل والبحث، إلا أن عمالقة التكنولوجيا قد أدركوا بسرعة أهمية هذا الدور. «غوغل» مثلاً يستعين منذ فترة طويلة بالفلاسفة لتطوير أنظمته الذكية، جيمس مانيكا وهو نائب رئيس التكنولوجيا والمجتمع عند «غوغل» شرح في ندوة نظمت في مايو الماضي أن المجموعة تستعين بالفلاسفة «لتتأكد أن يبقى الذكاء الاصطناعي أخلاقياً ويتطور ليصبح جريئاً ومسؤولاً في الوقت نفسه». كما نقلت صحيفة «لي زيكو» الفرنسية خبراً عن المدير العام لـ«مايكروسوفت فرنسا»، الذي أعلن أن أكثر الوظائف المفتوحة في مجموعته في العشر السنوات المقبلة هي لحاملي شهادات في الفلسفة والرياضيات، الفلاسفة بصفة خاصة لأنهم، كما يقول الخبر، «خير من يدعو إلى طرح الأسئلة في بيئة لا تبحث إلا عن أجوبة جاهزة...». لكن الأمور لا تسير بسرعة حسب البعض لأن الذكاء الاصطناعي يتطور كل يوم بخطوات عملاقة. ليتيسيا بوليكونك مديرة مختبر الأفكار «أنبياس أيتيك» حثّت الشركات على تكثيف تعاونها مع الباحثين والفلاسفة، مؤكدة أنه إن لم نرافق تعميم الذكاء الاصطناعي بالتفكير في طبيعة الإنسان فإن المجتمع الإنساني سيغرق في انجرافات خطرة. وتقول بوليكون في حوار نشرته صحيفة «لوفيغارو» بعنوان: «أمام مجيء الذكاء الاصطناعي ينقصنا الفلاسفة»: «في تقرير (دلفو) الذي قُدم للجنة الأوروبية في 2017 تمّ اقتراح قوانين مثالية وآيديولوجية مثل حماية حقوق الروبوتات أو تحديد شخصية قانونية لهم... كيف يعقل ذلك ولم نحدد بعد معنى الروبوت أو الآلة الذكية؟ هل يمكن عدّ الجوال أو جهاز التحكم مثلاً آلات ذكية؟ ومن المسؤول عن القرارات التي تتخذ؟ هل هي الشركة، المخترع، أم الآلة نفسها؟ مثل هذه النصوص ترتكز على تصور للإنسان والآلة بعيد كل البعد عن واقع، الأخطر من ذلك أن 90 في المائة من الخبراء الذين شاركوا في (دليل أخلاقيات المفوضية الأوروبية حول الذكاء الاصطناعي) هم من عالم التكنولوجيا والأعمال، المعالجة إذن لم تكن إنسانية، بل تجارية بحتة. من الضروري وضع الفلسفة وكذا علم النفس والاجتماع والتربية والسياسة والقانون في قلب النقاش حول الذكاء الاصطناعي».
|
|
|