الذكاء الاصطناعي خارق الذكاء: هل يستحيل التنبؤ به؟

الذكاء الاصطناعي فائق الذكاء.. هل يستحيل التنبؤ به؟

Share on facebook
Share on twitter
Share on linkedin
وجدت دراسةٌ جديدةٌ أنه قد يكون من المستحيل على البشر السّيطرة على ذكاءٍ اصطناعيٍّ فائق الذّكاء (Super-intelligent AI). والأسوأ من ذلك، أنهى البحث أيضًا أيّ أملٍ في الكشف عن هذا الذكاء الاصطناعي الّذي لا يمكن إيقافه، وهو على وشك النّشوء. ولكنّ تقدير الجدول الزّمنيّ لذلك أقلّ إحباطًا. فحسب تقديرٍ واحدٍ علي الأقلّ، يفصلنا العديد من العقود عن أن يكون هذا التّهديد الوجوديّ الحوسبيّ في حسبان البشريّة.

بجانب الأخبار عن تفوّق الذكاء الاصطناعي على البشر في الألعاب، مثل الشّطرنج (Chess) والجو (Go) والجيبوردى (jeopardy)؛ أتت مخاوفٌ بأنّ الآلات فائقة الذّكاء قد تعيث فسادًا فى أحد الأيّام.

يقول مانوِل ألفونسِكا (Manuel Alfonseca) الباحث الرّئيس للدّراسة، وهو عالم حاسوبٍ فى جامعة مدريد للتّحكّم الذّاتيّ:

«السّؤال عن إمكانيّة التّحكّم في الذّكاء الخارق عند نشوئه هو سؤالٌ قديمٌ، فهو يرجع على الأقلّ إلى القانون الأوّل للرّوبوتات لأسيموف، في أربعينيّات القرن العشرين»

القوانين الثلاثة للروبوتات

قدّمت لأوّل مرّةٍ في قصّة إسحاق أسيموف (Isaac Asimov) القصيرة «الركض فى الانحاء – Runaround»، وهي كالتّالي:

  1. لا يجوز للرّوبوت أن يؤذي إنسانًا، أو -من خلال التّراخي- يسمح بحدوث مكروهٍ لإنسانٍ.
  2. يجب على الرّوبوت إطاعة أوامر البشر، باستثناء الأوامر الّتى تخالف القانون الأوّل.
  3. يجب على الرّوبوت حماية وجوده طالما أنّ هذه الحماية لا تتعارض مع القانون الأوّل والثّاني.

 

في عام 2014، بحث الفيلسوف نيك بوستروم (Nick Bostrom)، مدير معهد مستقبل البشريّة في جامعة أوكسفورد (University of Oxford)، عن طرقٍ يستطيع من خلالها الذكاء الاصطناعي فائق الذّكاء تدميرنا. ليس هذا وحسب، بل حلّل استراتيجيّات التّحكّم المحتملة في مثل هذه الآلة، وأسباب أنّ هذه الاستراتيجيّات قد لا تعمل.

وبيّن بوستروم نوعين ممكنين من الحلول لـ«مشكلة التّحكّم» هذه؛ الأوّل هو التّحكّم في ما يمكن أن يفعله الذّكاء الاصطناعيّ، مثل منعه من الاتّصال بشبكة الإنترنت، والآخر هو التّحكّم في ما يريد أن يفعله الذّكاء الاصطناعيّ، مثل تعليمه قواعد وقيمًا حتّى يتصرّف في إطار المصلحة الفضلى للبشريّة. يظنّ بوستروم أنّ هناك مشكلةً مع الخيار الأوّل وهي أنّ الآلة فائقة الذّكاء قد تستطيع كسر أيّ قيودٍ نستطيع -نحن البشر- أن نصنعها، أمّا بالنّسبة للخيار الثّاني، كان يخشى في الأساس أنّ البشر ليسوا بالذّكاء الكافي لتدريب ذكاءٍ اصطناعيٍّ فائق الذّكاء.

يقترح ألفونسكا وزملاؤه الآن أنّ من المستحيل التّحكّم في ذكاءٍ اصطناعيٍّ فائق الذّكاء، بسبب القيود الأساسيّة المتأصّلة في الحوسبة نفسها. وقد فصّلوا هذه النّتائج في مجلّة أبحاث الذكاء الاصطناعي (Journal of Artificial Intelligence Research) في شهر يناير من العام الحاليّ (2021). اقترح الباحثون أنّ أيّ خوارزميّةٍ تسعى للتّأكّد من أنّ الذكاء الاصطناعي فائق الذّكاء لا يستطيع أن يؤذي البشر، يجب عليها أوّلًا أن تحاكي سلوك هذه الآلة -الذكاء الاصطناعي- لتوقّع العواقب المحتملة من تصرّفاتها. بعد ذلك، تحتاج خوارزميّة الاحتواء هذه أن توقف الآلة فائقة الذّكاء في حال حدوث ضررٍ للبشر بالفعل.

ومع ذلك، قال العلماء إنّ من المستحيل لأيّ خوارزميّةِ احتواءٍ أن تُحاكي سلوك الذكاء الاصطناعي وأن تتنبّأ بيقينٍ تامٍّ إن كانت تصرّفاته قد تؤدّي إلى ضررٍ. قد تفشل الخوارزميّة في محاكاة سلوك الذّكاء الاصطناعيّ بطريقةٍ صحيحةٍ أو التّنبّؤ بعواقب أفعاله بدقّةٍ، ولا تتعرّف إلى مثل هذه الإخفاقات. يقول ألفونسكا:

«تمّ إثبات أنّ القانون الأوّل للرّوبوتات لأسيموف غير قابلٍ للحساب، وبالتّالي فهو غير عمليٍّ».

ويشرح ألفونسكا أنّ الباحثين يقولون أنّنا قد لا نعرف حتّى إذا كنّا خلقنا الآلة خارقة الذّكاء، هذا نتيجة نظريّة ريس (Rice’s Theorem) الّتي تنصّ بالأساس أن لا يمكن للمرء بشكلٍ عامٍّ أن يعرف أيّ شيءٍ عن ما قد يُخرج برنامج الكمبيوتر بالنّظر فقط للبرنامج.

من النّاحية الأخرى، ليست هناك حاجةٌ بعد لتجميل غرفة الضّيوف لاستقبال الرّوبوتات، أسيادنا المستقبليّين. فهناك ثلاثة تحفّظاتٍ مهمّةٍ للبحث لا تزال تترك الكثير من عدم اليقين لتوقّعات المجموعة -المجموعة القائمة علي البحث-:

  • الأوّل هو أنّ ألفونسكا يقدّر أنّ لحظة الحقيقة للذّكاء الاصطناعيّ لا تزال تبعد عنّا -على حدّ قوله- «على الأقل قرنين في المستقبل».
  • ثانيًا، يقول إنّ الباحثين لا يعرفون إن كان ما يسمّى بالذّكاء الاصطناعيّ العامّ، وهو ما يعرف أيضًا بالذّكاء الاصطناعيّ القويّ، ممكنًا نظريًّا. يقول ألفونسكا: «إنّها آلةٌ تضاهينا في الذّكاء في تنوّعٍ واسعٍ من المجالات».
  • وأخيرًا يقول ألفونسكا: «نحن لم نثبت أنّ الذّكاءات الخارقة لا يمكن السّيطرة عليها أبدًا، ما أثبتناه فقط هو استحالة السّيطرة عليها دائمًا».

رغم احتمالية عدم قدرتنا السّيطرة على ذكاءٍ اصطناعيٍّ عامٍّ خارق الذّكاء، فيجب أن يكون ممكنًا التّحكّم في ذكاءٍ اصطناعيٍّ ضيّقٍ فائق الذّكاء، واحدٍ متخصّصٍ لوظائف معيّنةٍ بدل أن يكون قادرًا علي نطاقٍ واسعٍ من المهام مثل البشر. يقول ألفونسكا:

«نحن بالفعل نملك ذكاءً خارقًا من هذا النّوع، على سبيل المثال، نحن نمتلك آلاتٍ تستطيع أن تحسب الرّياضيّات أسرع بكثيرٍ منّا. أليس هذا ذكاءً اصطناعيًّا [ضيّقًا] فائق الذّكاء؟»

فريق الإعداد

ترجمة: Mohammed Adnan
مراجعة علمية: أحمد مجدي
تدقيق لغوي: أحمد مجدي
تحرير: داليا شافعي السيد
5 1 vote
Article Rating
Subscribe
نبّهني عن
guest
0 تعليقات
Inline Feedbacks
View all comments