شركة غوغل تحاكي عمليًا مخاطر الذكاء الإصطناعي

تعرض شركة غوغل خمس تحديات يجب محاكاتها من أجل جعل الآلات الذكيّة مثل الروبوتات المنزلية آمنة.

 

هل يمكن أن تصبح الآلات ذكيةً وقوية لدرجة تشكيل تهديدٍ على الإنسان أو حتى على الإنسانيّة بأكملها؟
لقد أصبح هذا السؤال رائجًا في بعض مناطق وادي السيليكون خلال السنوات الماضية على الرغم من أنه لا يتوافق إلى حدٍ ما مع واقع الروبوتات البسيطة والمساعدين الإفتراضيين الحاليين. ويعتقد بعض خبراء الذكاء الإصطناعي أن التكهنات حول مخاطر البرامج الإلكترونية فائقة الذكاء المستقبلية  تضرّ بهذا المجال.
تجدر الإشارة هنا إلى أن شركة غوغل تحاول حاليًا إيجاد حلٍ وسطٍ لهذه المشكلة فهي شركة تستثمر بكثافة في مجال الذكاء الاصطناعي. إذ تحدد ورقةٌ أُصدرت اليوم خمس مشكلات  لا بد للباحثين معالجتها بغية المساعدة على جعل البرامج الذكية المستقبلية أكثر أمانًا. ويشير الباحث لدى غوغل كريس أولا Chris Olah في مدونة بشأن مقال علمي جديد إلى أن هذه المشكلات توضح كيفية جعل النقاش حول الذكاء الإصطناعي أكثر واقعيّة وفعاليّة.
ويوضح قائلًا "كانت المناقشة الأخيرة إفتراضية ونظرية جدًا". ويضيف "نؤمن بضرورة معالجة المشاكلات الواردة في مجال دراسة التعلم الآلي الفعلي والبدء بتطوير أساليب عملية لتصميم أنظمة ذكاء إصطناعي تعمل بشكلٍ آمن وموثوق به".
إستعان السيد أولا بروبوت تنظيف ليوضح بعضًا من نقاطه الخمس. فمن ضمن المخاوف المطروحة، مسألة منع البرامج من تحقيق هدفها من خلال الغش. فعلى سبيل المثال، قد يكتشف روبوت التنظيف أن تنظيف البقع عبر إخفائها عوضًا عن إزالتها فعليًا يناسب برمجته.
بالإضافة إلى ذلك،  تتمثل إحدى المشاكلات التي نواجهها في كيفية جعل الروبوتات تستكشف بيئة جديدة بشكلٍ آمن. فمثلاً، يجب أن يكون روبوت التنظيف قادرًا على اختبار طرقٍ جديدة  لاستخدام أدوات التنظيف ولكن ألا يستخدم ممسحةً رطبةً على قابس للكهرباء.
يشرح السيد أولا هذه المشاكل الخمس في مقالٍ جديد شارك في كتابته زميلين له من شركة غوغل إلى جانب باحثين في جامعة ستانفورد وجامعة كاليفورنيا في بيركلي ومعهد "أوبن أي آي" OpenAI للبحوث،  الذي شارك في تأسيسه وتمويله إيلون موسك Elon Musk، رائد الأعمال الكبير ومدير شركة "تيسلا" Tesla التنفيذي  
لقد شبّه السيد موسك سابقًا تطوير الذكاء الإصطناعي "باستدعاء الشياطين" فجعل من مسألة تطوير "ذكاء إصطناعي آمن" أحد أهداف معهد "أوبن أي آي" الأساسية.كما أعلنت  شركة غوغل عن التزامها بضمان  عدم تسبب  برنامج الذكاء الإصطناعي بأي عواقب غير مقصودة. هذا الشهر صدر عن مجموعة  "ديب مايند"  DeepMind التابعة للشركة والمتواجدة في لندن، المقال البحثي الأوّل حول الموضوع. وشكّل أيضًا ديميس هسابيس Demis Hassabis، رئيس مجموعة "ديب مايند"، مجلسًا أخلاقيًا للنظر في سلبيات الذكاء الإصطناعي المحتملة ولكن لم يتم الكشف عن أسماء  أعضاء هذا المجلس.
كما رحّب أورن إيتزيوني Oren Etzioni، المدير التنفيذي لمعهد "ألن" للذكاء الإصطناعي Allen Institute for AI بالمقاربة الواردة في مقال غوغل الجديد. هو الذي انتقد سابقًا المناقشات حول مخاطر الذكاء الإصطناعي لكونها غامضة بالنسبة للعلماء والمهندسين لدرجة أنهم لا يستطيعون المشاركة فيها مشاركةً مفيدة وفعالة. وأضاف أن السيناريوهات التي طرحتها شركة غوغل دقيقةً لدرجة أنها تسمح بإجراء بحث فعلي حتى ولو لا يزال من غير الواضح ما إذا ستكون هذه التجارب مفيدةً من الناحية العملية.
ويختم السيد إيتزيوني قائلًا "يسأل الأشخاص المناسبون الأسئلة المناسبة، أما الإجابات المناسبة فستتكشف لنا مع مرور الزمن".



                                                                                                                   المصدر :موقع MIT Technology Review
التسميات:

إرسال تعليق Blogger Disqus

[blogger]

Author Name

نموذج الاتصال

الاسم

بريد إلكتروني *

رسالة *

يتم التشغيل بواسطة Blogger.