دوريات - مفاهيم استراتيجية
العقول الاصطناعية ومدى قدرتنا على فهمها

: 12360
الثلاثاء,27 اكتوبر 2015 - 03:06 م
كتب دوجلاس هيفن ترجمة سارة عادل

لقد ابتكرنا شكلًا جديدًا تمامًا من الذكاء، ورغم ذلك لا يستطيع أيٌّ منا إدراك الكيفية التي يفكر ويعقل بها.

 العقول الاصطناعية ومدى قدرتنا على فهمها
اضغط للتكبير

كان ريك رشيد متوترًا لأسباب يمكن فهمها؛ فبينما كان يصعد فوق المنصة ليخاطب ألفَي باحث وطالب في مدينة تيانجين بالصين، كان يخاطر بأن يكون مثارًا للسخرية، فلم يكن يتحدث اللغة الصينية، وإدراكه لضعف مهارات مترجمه كان ينذر بتعرُّضه لتجربة محرجة.

بإمكان هذه العقول رؤية أشياء نغفل عنها، وتعرفنا أفضل مما نعرف أنفسنا.
بإمكان هذه العقول رؤية أشياء نغفل عنها، وتعرفنا أفضل مما نعرف أنفسنا.

قال ريك، الذي يشغل منصب نائب رئيس قسم الأبحاث بشركة مايكروسوفت، للحضور: «نأمل في أن نتمكن خلال السنوات القليلة القادمة من تحطيم حواجز اللغة بين الناس.» وبعد ثانيتين من الصمت المتوتر، جاء صوت المترجم عبر السماعات، ثم استأنف رشيد كلامه: «في رأيي الشخصي، أؤمن أن هذا الأمر سيؤدي إلى عالم أفضل.» صمت مرة أخرى، لتتردد الجملة مرة أخرى لكن باللغة الصينية.

ابتسم رشيد، ومع كل جملة كانت القاعة تضج بالتصفيق، بل إن بعض الحضور راح يهتف.

كان رد الفعل مفرطُ الحماس هذا مفهومًا؛ فقد أحرز مترجم رشيد تقدمًا كبيرًا؛ إذ كان يفهم كل جملة وينقلها إلى الجمهور دون أخطاء. أما الجزء الأكثر إثارة للإعجاب هنا، فهو أن المترجم لم يكن إنسانًا.

في وقت ما، كان أداء مثل هذه المهمة يفوق قدرات أكثر أشكال الذكاء الاصطناعي تعقيدًا، وإن لم يُدخر جهدٌ في ذلك. ولسنوات، كانت تهيمن على مجال الذكاء الاصطناعي خططٌ كبرى لاستنساخ أداء العقل البشري. فقد حلمنا بآلات يمكنها فهمنا وتمييزنا ومساعدتنا على اتخاذ القرارات، وفي السنوات القليلة الماضية حققنا هذه الأهداف، لكن ليس على النحو الذي تخيله الرواد.

إذن، هل توصلنا إلى طريقة لاستنساخ التفكير البشري؟ الإجابة لا، إننا بعيدون جدًّا عن ذلك. بدلًا من ذلك، اتخذت الرؤية الأصلية شكلًا مختلفًا. إن الذكاء الاصطناعي يحيط بك في كل مكان، ويُعزى نجاحه إلى البيانات والإحصائيات الضخمة؛ بمعنى إجراء عمليات حسابية معقدة باستخدام كميات ضخمة من المعلومات. لقد أوجدنا عقولًا، لكنها عقول لا تشبه عقولنا، ولا يمكن للبشر إدراك كيفية تفكيرها؛ وقد باتت آثار هذا التطور محط الاهتمام حاليًّا. وبينما يزداد اعتمادنا على هذا الشكل الجديد من الذكاء، فقد نكون بحاجة إلى تغيير آليات تفكيرنا لتتناسب معه.

منذ أكثر من نصف قرن من الزمان، وضع العلماء مجموعة من الأهداف التي من شأنها أن تقرِّب المسافة بيننا وبين صناعة آلات تتميز بذكاء يشبه الذكاء البشري. يقول نيلو كريستيانيني من جامعة بريستول بالمملكة المتحدة — الذي كتب عن تاريخ أبحاث الذكاء الاصطناعي وتطورها: «لدينا قائمة بأشياء نريد أن توجد في أنظمة الذكاء الاصطناعي تعود إلى خمسينيات القرن العشرين.»

ترجع العديد من البنود الموجودة على هذه القائمة إلى مؤتمر «ميكنة عمليات التفكير» الذي عُقد عام 1958م في تيدينجتون بالمملكة المتحدة، والذي جمع لفيفًا من علماء الكمبيوتر بالإضافة إلى علماء النفس والفيزياء والأحياء، الذين كانوا يحدوهم الأمل إزاء إمكانية بناء آلة مفكرة لها نفس هيئة تفكيرنا. وقد اتفقوا على سمات بارزة مفترضة للذكاء تضمنت فهم الكلام، وترجمة اللغات، وتمييز الصور، ومحاكاة مهارات اتخاذ القرار البشرية.

لكن الوقت مرَّ ولم يُنفَّذ أيُّ بند من بنود تلك القائمة. وقد حاول العديد من الباحثين محاكاة التفكير البشري بقواعد مبرمجة مرتبطة ببديهيات منطقية، واعتقدوا أن وضع قواعد كافية سيعقبه النجاح، لكن ثبت أن الأمر بالغ الصعوبة. ومع مرور عقود دون أن يحرز هذا المجال تقدمًا يُذكر، توقَّف التمويل المخصص له.

ما الذي تغيَّر إذن؟ يقول كريستيانيني: «لم نجد وسيلة لمحاكاة الذكاء البشري، فاستسلمنا إلى حدٍّ ما.» إلا أن هذه كانت بمثابة الانطلاقة. يذكر كريستيانيني: «ما إن توقفنا عن محاولة إنتاج سمات نفسية وعقلية، حتى بدأنا في إدراك النجاح.»

فقد تخلَّوْا — بوجه خاص — عن القواعد المبرمجة مسبقًا وتبنوا التعلم الآلي. بهذه الطريقة، تعلِّم أجهزة الكمبيوتر نفسها بناء أنماط من البيانات. ومع وجود كميات ضخمة بالحد الكافي من المعلومات، يمكنك جعل الآلات تتعلم القيام بأشياء تبدو ذكية، سواء أكانت فهم الأصوات وترجمة اللغات أو تمييز الوجوه. يقول كريس بيشوب — من قسم الأبحاث بشركة مايكروسوفت في كامبريدج بالمملكة المتحدة: «حين توفر لها عددًا كافيًا من قوالب الطوب وتأخذ خطوة إلى الوراء، فإنك ترى بيتًا.»

وإليك تصورًا تقريبيًّا لكيفية عمل آلية التعلم الآلي. كثير من أنجح أنظمة التعلم الآلي مبنية على الإحصائيات البايزية، وهي إطار رياضي يجعلنا نقيس الاحتمالية؛ حيث تحدد عددًا لمعقولية نتيجة بعينها مع الأخذ في الاعتبار السياق والارتباطات المُلاحظة سابقًا في السياقات المشابهة.

دعنا نقول إننا نريد أن يجيب الذكاء الاصطناعي عن أسئلة حول موضوع بسيط؛ على سبيل المثال: ما الطعام الذي تفضِّله القطط؟ تتمثل الطريقة القائمة على القواعد في بناء قاعدة بيانات — من البداية — حول القطط وعاداتها الغذائية بخطوات منطقية (انظر الشكل). أما في حالة التعلم الآلي، فستقوم في المقابل بتغذية الآلة بالبيانات عشوائيًّا — عمليات بحث على الإنترنت ووسائل تواصل اجتماعي وكتب وصفات … إلخ. وبعد إجراء عمليات من قبيل حساب تكرار كلمات بعينها وكيفية ارتباط المفاهيم ببعضها، يبني النظام نموذجًا إحصائيًّا يقيس احتمالية استمتاع القطط بأطعمة معينة.

مقارنة بين طريقتي القواعد المبرمجة والتعلم الآلي: تعرَّض الذكاء الاصطناعي لطفرة كبيرة منذ أن تحولنا من تعليم الآلات من خلال القواعد إلى ترك الآلة تعلِّم نفسها من خلال تزويدها ببيانات ضخمة. وهذه المسألة البسيطة تُظهر الاختلافات بين الطريقتين.
مقارنة بين طريقتي القواعد المبرمجة والتعلم الآلي: تعرَّض الذكاء الاصطناعي لطفرة كبيرة منذ أن تحولنا من تعليم الآلات من خلال القواعد إلى ترك الآلة تعلِّم نفسها من خلال تزويدها ببيانات ضخمة. وهذه المسألة البسيطة تُظهر الاختلافات بين الطريقتين.

بالطبع، توجد الخوارزميات التي يقوم عليها التعلم الآلي منذ سنوات؛ لكن الجديد هو أنه صار لدينا الآن كمٌّ كافٍ من البيانات لتحظى تلك الخوارزميات بالقبول.

ولنأخذ ترجمة اللغات كمثال. في أواخر القرن العشرين، استخدمت شركة آي بي إم طريقة التعلم الآلي لتعليم الكمبيوتر كيفية الترجمة من الإنجليزية إلى الفرنسية وبالعكس، من خلال تغذيته بالمستندات ثنائية اللغة الصادرة عن البرلمان الكندي. ومثل حجر رشيد، احتوت المستندات على ملايين عديدة من الأمثلة من الجمل المترجمة إلى كلتا اللغتين.

اكتشف النظام الذي وضعته شركة آي بي إم الارتباطات بين الكلمات والعبارات في اللغتين، وأعاد استخدامها في ترجمة العبارات الجديدة، لكن النتائج ظلت مليئة بالأخطاء؛ لذا كانت ثمة ضرورة إلى المزيد من البيانات. يقول فيكتور ماير-شونبرجر من معهد أكسفورد للإنترنت بجامعة أكسفورد: «ثم جاءت جوجل لتغذي نظامها بكافة نصوص شبكة الإنترنت.»

مثل شركة آي بي إم، بدأت جوجل جهودها في الترجمة بتدريب الخوارزميات على الإحالة المرجعية بين المستندات المكتوبة بالعديد من اللغات، لكن تبيَّن أن نتائج أداة الترجمة ستتحسن بدرجة واضحة إذا ما تعلَّمت الكيفية التي يتحاور بها الأشخاص الذين يتحدثون الروسية أو الفرنسية أو الكورية فعليًّا.

اتجهت جوجل إلى الشبكة الضخمة التي فهرستها، والتي تقترب بخطًى حثيثة من المكتبة الخيالية التي تخيَّلها خورخي لويس بورخيس في قصته القصيرة «مكتبة بابل» التي صدرت عام 1941م؛ والتي كانت تحوي كتبًا بكافة تركيبات الكلمات الممكنة. هكذا استطاعت أداة ترجمة جوجل — بتجربة الترجمة من الإنجليزية إلى الفرنسية على سبيل المثال — مقارنة محاولتها الأولية بكل الجمل المكتوبة بالفرنسية على الإنترنت. ويضرب لنا ماير-شونبرجر مثالًا على ذلك يتمثل في الاختيار بين ترجمة الكلمة الإنجليزية light إلى الكلمة الفرنسية lumière التي تشير إلى الإضاءة، أو ترجمتها إلى léger التي تشير إلى الوزن. وهكذا علَّمت أداة ترجمة جوجل نفسها ما يختاره الفرنسيون أنفسهم.

إن أداة ترجمة جوجل — بالإضافة إلى أداة ترجمة مايكروسوفت التي استخدمها رشيد — لا تعرف شيئًا عن اللغة على الإطلاق سوى التكرار النسبي لعدد كبير من تسلسلات الكلمات. وكلمة بكلمة، تحسب أدوات الذكاء الاصطناعي هذه احتمالية الكلمة التالية؛ فالأمر بالنسبة لهذه الأدوات مسألة احتمالات.

هذه الأساسيات بديهية إلى حد كبير. والتعقيد ينتج عن الأعداد الضخمة من الارتباطات التي تنشأ داخل الكميات الكبيرة من البيانات. فسيارة جوجل ذاتية القيادة — على سبيل المثال — تجمع بيانات قدرها ما يقارب الجيجابايت في كل ثانية لعمل توقعات بشأن البيئة المحيطة بها. كذلك فإن موقع أمازون بارع جدًّا في دفع الناس إلى الشراء أكثر؛ لأنه يزكي أشياء استنادًا إلى مليارات الارتباطات المأخوذة من ملايين عمليات الشراء الأخرى.

تقنية رائعة

تظهر ترجمة خطاب رشيد — بتخيل ما قاله، وما ينبغي أن تكون عليه الترجمة والكيفية التي سينطق بها صوته هذا الكلام باللغة الصينية — إلى أي مدى يمكن للذكاء الاصطناعي المعتمد على الإحصائيات أن يصل. يقول بيشوب: «هذه الأنظمة لا تصنع المعجزات، لكننا لا نتوقف عن الاندهاش من مدى ما يمكننا الحصول عليه منها بمجرد النظر إلى إحصائيات مجموعات البيانات بالغة الضخامة.»

تشرع هذه الخوارزميات الذكية في التأثير في كل منحى من مناحي الحياة. على سبيل المثال، بعد شهر من خطاب رشيد، استعان معهد الأدلة الجنائية الهولندي بلاهاي بنظام تعلُّم آلي يسمى «بونابارت» للمساعدة في العثور على مشتبه به في جريمة قتل تهرَّب من القبض عليه لمدة 13 عامًا. يستطيع بونابارت تحليل ومقارنة كميات ضخمة من عينات الحمض النووي؛ وهو الأمر الذي سيستغرق وقتًا طويلًا للغاية إذا ما أُجري يدويًّا. كذلك يستخدم مجالا التأمين والائتمان طريقة التعلم الآلي، حيث يوظفان خوارزميات ليصيغا بيانات المخاطر للأفراد. بالمثل، يستعين الطب بالذكاء الاصطناعي القائم على الإحصاء في فحص مجموعات البيانات الوراثية بالغة الضخامة بما يفوق قدرة البشر على تحليلها. كذا يُجري جهاز واتسون الذي أنتجته شركة آي بي إم عمليات تشخيص.

يقول ماير-شونبرجر: «بإمكان عمليات تحليل البيانات الضخمة أن ترى أشياء نغفل نحن عنها. إنها تعرفنا أكثر مما نعرف نحن أنفسنا. لكنها كذلك تتطلب طريقة تفكير مختلفة كثيرًا.»

في بداية ظهور الذكاء الاصطناعي، كانت «قابلية التفسير» مهمة جدًّا؛ فحين كانت الآلة تختار خيارًا بعينه، كان الإنسان قادرًا على معرفة السبب. لكن آلية تفكير العقل الاصطناعي المعتمد على البيانات اليوم عبارة عن تحليل إحصائي بالغ التعقيد لعدد ضخم من البيانات الإحصائية؛ مما يعني أننا استعضنا عن معرفة سبب الاختيار بمعرفة ماهية الاختيار وحسب.

حتى إذا ما تمكن أحد المتخصصين الماهرين من تتبع العمليات الحسابية، فقد لا يكون هذا الأمر ذا قيمة؛ إذ إنه لن يكشف عن سبب اختيار الآلة لقرار بعينه؛ ذلك لأن الوصول إلى هذا القرار لم يعتمد على مجموعة من القواعد التي يستطيع الإنسان تفسيرها؛ بحسب قول بيشوب، الذي يعتقد أن هذه المعاوضة مقبولة للحصول على أنظمة تعمل بكفاءة. ربما كانت العقول الاصطناعية الأولى شفافة، لكنها فشلت في أداء عملها. ويضيف قائلًا: «لقد كنت تحصل على تفسير، لكنه تفسير لتوقُّع خاطئ.» وقد انتقد بعضهم هذا التحول (انظر الجزء بعنوان «تشومسكي وجوجل»)، لكن بيشوب وآخرين يزعمون أن الوقت قد حان للكف عن انتظار الحصول على تفسيرات بشرية.

يقول كريستيانيني: «إن قابلية التفسير ليست سوى اتفاق مجتمعي. لقد قررنا في الماضي أنها مهمة، لكننا نرى الآن أنها ليست مهمة.»

يحاول بيتر فلاك — من جامعة بريستول بالمملكة المتحدة — تعليم طلابه في قسم علوم الكمبيوتر طريقة التفكير المختلفة جذريًّا هذه. تتعلق البرمجة بالقيم المطلقة، في حين يتعلق التعليم الآلي بدرجات من عدم اليقين؛ فهو يعتقد أننا ينبغي أن نكون أكثر تشككًا. فحين يزكي الذكاء الاصطناعي لموقع أمازون كتابًا بعينه — حسبما يقول فلاك — فهل ذلك يرجع إلى التعلُّم الآلي أم إلى أن الشركة لديها كتب لا تستطيع تغييرها؟ وفي الوقت الذي قد يخبرك أمازون — على سبيل المثال — بأن أشخاصًا مثلك اشتروا نوعية كتب معينة يحددها لك، فما الذي يعنيه فعليًّا ب «أشخاص مثلك» وب «نوعية كتب معينة»؟

يقول فلاك: «يبدو أنه في مرحلة ما ستوجد لدينا دائمًا آلات علينا أن نثق بعملها حتى وإن لم نفهمها تمامًا.»

يتمثل الخطر في أن نتوقف عن طرح الأسئلة. هل يمكن أن نعتاد على أن تُتَّخذ خياراتنا نيابةً عنا لدرجة أن نتوقف عن ملاحظة ذلك؟ فقد زادت مخاطر قيام الآلات الذكية باتخاذ قرارات مبهمة فيما يتعلق بطلبات الحصول على الرهونات العقارية أو التشخيصات المرضية أو حتى اتخاذ القرار فيما إذا كنت متهمًا بإحدى الجرائم. ففي الطب — على سبيل المثال — ماذا إذا ما قرر نظام قائم على التعلم الآلي أنك ستبدأ في معاقرة الخمر خلال السنوات القليلة القادمة؟ هل سيكون هذا مبررًا للأطباء للامتناع عن إجراء عملية زرع أعضاء لك؟ سيكون من الصعب أن تدافع عن نفسك إذا لم يعرف أحد كيفية الوصول إلى هذا الاستنتاج. وقد يثق بعضهم في الذكاء الاصطناعي أكثر من الآخرين. يقول فلاك: «الناس مستعدون لقبول أي شيء تكتشفه الخوارزميات إلى حدٍّ مبالغ فيه. فإذا اتخذ الكمبيوتر قرارًا ما، يطيعه الناس وحسب.»

قد يكون ثمة نظام ذكي في مكان ما الآن يحدد أي نوع من الأشخاص أنت، والحال الذي ستكون عليه في المستقبل. تأمل ما حدث للاتانيا سويني من جامعة هارفرد. ذات يوم، تفاجأت لاتانيا حين وجدت أن نتائج البحث على جوجل التي ظهرت لها كانت مصحوبة بإعلانات تسأل «هل سبق أن أُلقي القبض عليك؟» لم تكن هذه الإعلانات تظهر لزملائها من البيض، وقد حثها ذلك على إجراء دراسة أظهرت أن نظام التعلم الآلي وراء محرك بحث جوجل كان عنصريًّا عن غير قصد. ففي أعماق فوضى الارتباطات، رُبطت الأسماء التي يشيع إطلاقها على السود بالإعلانات المتعلقة بسجلات الاعتقال.

يقول ماير-شونبرجر: «ثمة إشكاليات أخلاقية عميقة.» وقد عبَّر العديد من الأشخاص عن تخوفهم بشأن الخصوصية في عصر البيانات الضخمة. يعلق ماير على ذلك قائلًا: «بصراحة، إن شعوري بالقلق إزاء الخصوصية أقل من قلقي بشأن سوء استغلال التوقعات الاحتمالية.»

للتبحر في هذا العالم، سيتعين علينا تغيير أفكارنا حول معنى الذكاء الاصطناعي. إن الأنظمة الذكية العظيمة التي بنيناها لا تلعب الشطرنج، ولا تخطط لسقوط البشرية. يقول كريستيانيني: «إنها ليست مثل جهاز هال 9000.» لقد تحولت هذه الأنظمة من متابعتنا طوال الوقت الذي نقضيه على الإنترنت ودفعنا باتجاه عملية شراء إلى التعهد بتوقع سلوكنا قبل أن نعرفه نحن أنفسنا. ليس بإمكاننا أن نتجنب هذه الأنظمة. وتكمن الصعوبة في الإقرار بأننا لا نستطيع معرفة الأسباب وراء الخيارات التي تتخذها أنظمة الذكاء الاصطناعي، وتقبُّل الخيارات على ما هي عليه؛ سواء أكانت تزكيات أم احتمالات رياضية؛ إذ لا يوجد شيء خارق وراء هذه العمليات.

حين حلم الناس بصناعة أنظمة ذكاء اصطناعي لها تفكير مثل تفكيرنا، لربما تطلعوا وقتها إلى أننا سنتعامل مع هذه الآلات المفكرة كندٍّ لنا. أما الذكاء الاصطناعي الذي انتهينا إليه، فغريب؛ إنه شكل من الذكاء لم يسبق أن التقينا به من قبل.

تشومسكي وجوجل

هل علينا فهم الذكاء الاصطناعي الذي نبتكره؟ أثار هذا السؤال جدلًا على غير المتوقع بين قامتين فكريتين كبيرتين من مجالين مختلفين تمامًا.

ففي أثناء الاحتفال بالذكرى المائة والخمسين لإنشاء معهد ماساتشوستس للتكنولوجيا، طُلب من نعوم تشومسكي — أبي علم اللغة الحديث — أن يعلق على نجاح الطرق الإحصائية في إنتاج أنظمة الذكاء الاصطناعي؛ فاتضح أن تشومسكي ليس من المعجبين بتلك الطرق.

لقد تأثر العديد من دارسي الذكاء البشري بأعمال تشومسكي في علم اللغة. ففي جوهر نظرياته، تكمن فكرة أن أدمغتنا تحتوي على قواعد متأصلة. وقد يوضح هذا سبب رفضه لنظرتنا الحديثة للذكاء الاصطناعي، التي أطاحت بالقواعد وأحلت الارتباطات الإحصائية محلها. وهذا في جوهره يعني أننا لا نعرف سبب ذكاء أنظمة الذكاء الاصطناعي هذه، فهي كذلك وحسب (انظر المقال الرئيسي).

في رأي تشومسكي، يشبه مؤيدو الطرق الإحصائية العلماءَ الذين يدرسون رقصات النحل والذين ينفِّذون محاكاة دقيقة لحركات النحل دون أن يسألوا عن سبب قيام النحل بذلك. وتتمثل فكرة تشومسكي في أن الطرق الإحصائية تقدم لنا التوقعات لكنها لا تمدنا بالفهم. يقول تشومسكي: «هذا مبدأ جديد تمامًا للنجاح. أنا لم أرَ أي شيء كهذا في تاريخ العلم.»

رد بيتر نورفيج — رئيس قسم الأبحاث في جوجل — على هجمة تشومسكي في مقال له على موقعه الخاص، وأعرب عن ضيقه من تعليق تشومسكي بأن الطريقة الإحصائية لم تحقق سوى «نجاح محدود». فعلى النقيض، أصبحت هذه الطريقة هي النموذج السائد الآن، حسبما كتب نورفيج، علاوةً على أنها تحقق أرباحًا قيمتها تريليونات عديدة من الدولارات سنويًّا. وبالمقابل الأكاديمي للإهانة، يرى نورفيج أن آراء تشومسكي غامضة وقارنها بتعليقات مذيع قناة فوكس نيوز بيل أورايلي، الذي انتقد، ذات مرة، العلم على نحو خاطئ لفشله في اكتشاف السبب وراء حدوث ظاهرتي المد والجزر على الأرض.

إلا أن نقطة الخلاف الرئيسية لنورفيج مع تشومسكي كانت أكثر جوهرية؛ فهو باختصار يجادل بأن العلماء من نوعية تشومسكي الذين يسعون لصياغة نماذج متناهية البساطة والكفاءة في الوقت نفسه لتفسير العالم باتوا عتيقي الطراز. يقول نورفيج: «لا يستطيع نموذج بسيط فتح الصندوق الأسود للطبيعة.» إن فكرة نورفيج هي أن منهج تشومسكي يُوهم بأنه يقدم تفسيرًا للعالم، في حين أنه لا يوجد له أصل في الواقع.

وما بدا كجدل حول الذكاء الاصطناعي، بدا بعد ذلك كجدل حول طبيعة المعرفة نفسها.

أول مشروع بحثي مستقل في العالم العربي

اقرأ ايضآ

  • الدبلوماسية الإلكترونية والمدخل الجديد لإدارة السياسة الخارجية
  • مشروع قانون تنظيم عمل كاميرات المراقبة بين اعتبارات الامن والخصوصية
  • تحديات القوانين: الفضاء الافتراضي والقانون الدولي
  • دليل "تالين":الهجمات الإلكترونية وحظر استخدام القوة فى القانون الدولى
  • كيف تدير مصر قوتها الذكية عبر الفضاء الالكتروني؟
  • فيسبوك
    تعليقات


    الدبلوماسية الإلكترونية والمدخل الجديد لإدارة السياسة الخارجية
    جاءت عملية اطلاق مصر مبادرة للتحول الرقمي في اطار تبني القيادة السياسية مشروعا وطنيا لخلق دوله اكثر

    مذبحة "الروضه " والرمق الاخير للجماعات الارهابية
    في حين حشدت شركات التسويق الالكتروني على ما اسمته بيوم الجمعه "البيضاء " والتي عرضت تخفيضاتها الهائل

    هل تصبح إستونيا أول دولة "رقمية" في العالم؟
    منذ عام 1997، تسعى إستونيا، التي يبلغ تعداد سكانها مليون و300 ألف نسمة، جاهدة لتنفيذ إحدى الأفكار ال

    موضوعات جديدة
    الأكثر قراءة
    الأكثر تعليقا
    هل تعتقد ان تعرض معلوماتك الشخصية للخطر يتصاعد ؟
    نعم
    ربما
    لا
     
        
    التاريخ