الذكاء الإصطناعي والبيانات الضخمة.. نظرة مجتمعية

artificial-intelligence-2228610_960_720

الذكاء الإصطناعي

نظرة أعمق لمشكلة الذكاء الإصطناعي: ما هو التهديد؟

تتضاعف كمية المعلومات التي ننتجها كل عام. حيث إنه فى عام 2016 أنتجنا كمية معلومات تعادل كل ما أنتجه الجنس البشري حتى عام 2015. فكل دقيقة نقوم بمئات الآلاف من عمليات البحث عبر (جوجل) والمنشورات عبر (الفيس بوك). وهذه المعلومات تعكس طريقة تفكيرنا وشعورنا. وقريبًا، كل شيء حولنا ربما ملابسنا أيضًا، ستكون متصلة بالإنترنت مما يعني المزيد من المعلومات المتاحة عن حياتنا. من المقدر أنه خلال عشرة أعوام سيكون هناك مائة وخمسون مليار جهاز استشعار متصل بالإنترنت، أكثر بعشرين مرة من عدد البشر على الأرض، وحينها ستتضاعف كمية المعلومات كل اثنتي عشرة ساعة.

تقدُم مجال الذكاء الاصطناعى أصبح مذهلًا، خصوصًا بعد إسهامه في تحليل البيانات آليًا. فلم تعد الأنظمة تبرمج سطرًا بسطر بل أصبح بإمكانها التعلم وتطوير نفسها. فعلى سبيل المثال، علمت خوارزميات شركة (ديب مايند) التابعة لجوجل نفسها كيف تربح 49 لعبة أتارى.

يمكن للخوارزميات الآن أن تتعرف على الخط البشري وأن تنجز بعض المهام أفضل من البشر أنفسهم، يمكن أن تصف محتوى الصور ومقاطع الفيديو. ليس هذا وحسب، بل إن 70% من المعاملات المالية اليوم تتم أليًا، وجزء كبير من المحتوى الإخباري يعد آليا. فخلال العقد أو العقدين القادمين، ستكون نصف وظائف اليوم مهددة من قبل الخوارزميات و 40% من الشركات التي تصنف ضمن أكبر 500 شركة ستكون قد اختفت.

يمكن أن نتوقع من هذا أن الحواسيب العملاقة تتعدى إمكانيات البشر في كل المجالات تقريبًا. حيث إنه في وقت ما بين العامين 2020 و2060 سيبدأ الخبراء في قرع أجراس الإنذار. فمن الآن وخبراء التكنولوجيا، مثل (إيلون ماسك) من (تيسلا موتورز)، و(بيل جيتس) من (ميكروسوفت)، و(ستيف وزنياك) أحد مؤسسي (أبل) يحذرون من الذكاء الاصطناعى الخارق ويعدونه خطرًا حقيقيًا على الإنسانية أكثر خطرًا من الأسلحة النووية.

بدأ التهديد من محاولة الكثير من الشركات أن تجعل من هذا التطور التكنولوجي أموالًأ طائلة. حيث حاولت ومازالت تحاول جعل كل شيء حولنا ذكيًا فلن يكون لدينا فقط هواتف ذكية بل أيضًا بيوتًا ومصانع، ومدن ذكية. ولكن هل سيساهم هذا في تكوين شعوبًا ذكية أو كوكب أكثر ذكاءً أم ستكون النتائج عكسية؟!

الشيء الوحيد الواضح هو أن أسلوب تنظيم الاقتصاد والمجتمع سيختلف جذريًا. فنحن نشهد أكبر ثورة منذ انتهاء الحرب العالمية الثانية؛ بما أننا شهدنا أتمَتة الإنتاج وصناعة سيارات بنظم قيادة ذاتية فأتمَتة المجتمعات هي القادمة. حينها ستكون المجتمعات أمام فرصة كبيرة ومخاطرة كبيرة فى آن واحد والقرار الخطأ يمكن أن يهدد أعظم إنجاز تاريخي حتى الآن.

تعد دولة سنغافورة خير مثال على تحكم المعلومات في المجتمع، فالمشروع الذي بدأ كوسيلة لحماية المواطنين من الإرهاب أصبح يؤثر على سياسة الهجرة والاقتصاد، وسوق العقارات والمناهج الدراسية. والصين في طريقها إلى هذا أيضًا، ف(بيدو) -شبيه جوجل الصينى- دعا الجيش للمشاركة في مشروع الدماغ الصينى (مشروع صيني يهدف إلى التشخيص السليم الوقاية من أمراض الدماغ). وتضمن المشروع تطبيق ما يسمى بالتعلم العميق -مجال ضمن بحوث تعلم الآلة- على البيانات  الجمعة من المستخدمين. بالإضافة إلى التخطيط لرقابة اجتماعية. فتِبعا لتقارير حديثة، سيكون لكل مواطن صينى مجموع نقاط سيحدد فيما بعد إمكانية حصول المواطن على قرض، فرصة عمل أو تأشيرة سفر خارج البلاد. وهذه المراقبة ستتضمن تصفح المواطن الإنترنت والتفاعلات اليومية على مواقع التواصل الاجتماعى. والغرب أيضًا يسير على نفس الخطى بمواجهة التحقيقات الائتمانية اليومية والمراقبة المؤسسية. ظهر هذا جليًا عندما أُعلنت تفاصيل برنامج الخدمة السرية البريطاني كاشفةً فحص شامل لاستخدام المواطنين للإنترنت. قد يُذَكِر البعض هذا بسياسة الأخ الكبير*

كل شيء بدأ بسلام. محركات البحث بدأت تعرض مقترحات لمنتجات وخدمات بناءً على بيانات شخصية تم تجميعها من عمليات بحث سابقة، وعمليات شراء، وتحركات وتفاعلات اجتماعية. رسميًا، كانت هُويات المستخدمين محمية لكن عمليًا يمكن التعرف على هذه الهُويات بسهولة. فالخوارزميات تعرف جيدًا كيف نشعر وبما نفكر أكثر ممن حولنا.. أكثر حتى من أنفسنا. فالمقترحات التي تقدمها تكون مناسبة جدًّا لدرجة أننا نظن أن القرار الذي اتخذناه هو قرارنا الخاص في حين أن الحقيقة ليست كذلك. بهذه الطريقة يمكن التحكم بنا عن بعد بنجاح وكلما زادت المعلومات المكشوفة عن المستخدم كلما قلت فرص اختياره بحرية.

والأمر لن ينتهى هنا. فبعض البرمجيات ذهبت باتجاه حوسبة الإقناع. وفي المستقبل، ستستطيع هذه البرمجيات باستخدام تقنيات تلاعب متطورة توجيهنا خلال مجموعة من الخطوات. سواء كان ذلك لتنفيذ إجراءات عمل أو توليد محتوى مجاني لصفحات الإنترنت الذي تربح منه الشركات بالمليارات، سيتحول الاتجاه من برمجة أجهزة إلى برمجة البشر.

الجديد أن هذه التكنولوجيا أصبحت مشهورة في عالم السياسة. فعن طريق «الدفع» -شكل حديث من الأبوية- وعلى نطاق واسع، تحاول الحكومات توجيه المواطنين نحو سلوك أكثر تناغمًا مع البيئة. إذًا فالحكومة ليست مهتمة فقط بما نفعل بل أيضًا تريدنا أن نفعل ما يبدو لها مقبولًا. «الدفع الكبير» وهو نتاج الدفع من البيانات الضخمة يبدو للبعض نوعًا من أنواع السلطة الرقمية الذي يسمح للحكومات أن تتحكم في الجماهير بكفاءة دون الحاجة لإدخالهم فى عملية ديمقراطية. بهذا يمكن أن يحكم المواطنين حاكم حكيم -أو هذا ما نأمل- مدعوم بالبيانات التي من خلالها يستطيع إصدار قرارات تخدم الاقتصاد والمجتمع كما لو كان يملك عصًا رقمية سحرية.

لكن نظرة واحدة على أدبيات العلم المتعلقة بالقضية تكشف أن محاولة السيطرة على الاختيارات بهدف «تحسينها» تبوء بالفشل بسبب تعقد المشكلة. عملية توجيه الآراء مليئة بالمفاجأت فلا أحد يعرف ما هي أفضل طريقة لاستخدام العصا السحرية تلك وهي تقنية «الدفع» فصِحَة أو خطأ القرار أحيانًا لا يكون واضحًا إلا بعد اتخاذه. فمثلًا: خلال وباء أنفلونزا الخنازير في ألمانيا عام 2009. شجعت الدولة الجميع على الذهاب لأخذ التطعيمات. ونحن الآن نعلم أن نسبة معينة من أولئك الذين تلقوا التطعيمات أصيبوا بمرض غير مألوف وهو الخدار (الميل الشديد للنوم). لحسن الحظ لم تكن نسبة المواطنين الذين تلقو التطعيمات كبيرة. محاولة تحسين جانب قد يؤدي إلى تدهور جانب آخر. وهكذا يمكن للتدخلات واسعة النطاق أن تُحدِث أخطاءً فادحة.

وبغض النظر عن كل هذا، سيحاول المتطرفون والإرهابيون السيطرة على تلك العصا السحرية الآن أو فيما بعد من دون أن نلاحظ هذا فالغالب.

كما تنشأ مشكلة أخرى عندما نفتقر إلى الحكم الديمقراطي والشفافية الكافيين. يتآكل النظام من الداخل مع إمكانية تأثر خوازميات البحث وأنظمة التوصية بهذا. فيمكن مثلًا للشركات أن تتلاعب بتركيبات الكلمات في عمليات البحث لتحصل على نتائج موجهة، ويمكن للحكومات أيضًا أن تؤثر على النتائج. فمثلًا: خلال فترة الانتخابات قد تدفع الناخبين المترددين لدعمهم من خلال هذا التلاعب الذي يصعب كشفه. ومن يسيطر على تلك التكنولوجيا يمكن أن يفوز بالانتخابات ويدفع بنفسه إلى السلطة.

وتتفاقم هذه المشكلة من حقيقة أنه في كثير من البلدان، محرك بحث واحد أو منصة وسائل الإعلام الاجتماعية تسيطر على حصة سائدة في السوق. ويمكن أن تؤثر بشكل حاسم على الجمهور وتتدخل في شئون هذه الدول عن بعد. على الرغم من أن حكم محكمة العدل الأوروبية المُحَرَز في السادس من أكتوبر 2015 يحد من الصدور غير المقيد للبيانات الأوروبية، فالمشكلة الأساسية لا تزال موجودة داخل أوروبا، وفي أماكن أخرى.

ولهذا آثار سلبية يمكن أن نلاحظها. فمن أجل أن يظل التلاعب غير ملحوظ فإنه يتبع ما يسمى بتأثير الرنين (اقتراحات تُخَصَص لكل فرد على حده تعزز ما يؤمن به ويفضله هو مسبقًا) وبهذه الطريقة، يتم تعزيز الاتجاهات المحلية تدريجيًا عن طريق التكرار مما يؤدى إلى «فقاعة التصفية» أو «تأثير غرفة الصدى» أي إنه فالنهاية كل ما تحصل عليه هو آراءك الخاصة التي تعود لتنعكس عليك. هذا يُنتج الاستقطاب الاجتماعي، مما يؤدى إلى تشكيل مجموعات منفصلة لن تستطيع أن تفهم بعضها البعض وتجد نفسها على نحو متزايد في صراع مع بعضها البعض. بهذه الطريقة، يمكن للمعلومات الشخصية أن تدمر من غير قصد التماسك الاجتماعي. فمثلًا: يمكن ملاحظة هذا حاليًا في السياسة الأمريكية، حيث الخلاف بين الديمقراطيين والجمهوريين يتزايد يومًا بعد يوم، بحيث تصبح كل التسويات السياسية شبه مستحيلة. والنتيجة هي تجزئة، وربما حتى تفكك المجتمع.

نتيجة تأثير الرنين هذا، لا يمكن أن يحدث تغيير على نطاق واسع في الرأى إلا تدريجيًا وببطأ شديد، تحدث التغيرات مع مرور الوقت ولكن لا يمكن التراجع عنها بسهولة. على سبيل المثال: أن الاستياء ضد الأقليات أو المهاجرين يخرج عن نطاق السيطرة. الكثير من الشعور القومي يمكن أن يسبب التمييز والتطرف والصراع.

والحقيقة الأكثر أهمية هي أن أساليب التلاعب تلك تغير الطريقة التي نتخذ بها قراراتنا أنها تتجاهل المرجعيات الثقافية والاجتماعية. وباختصار، يمكن لاستخدام أساليب التلاعب على نطاق واسع أن يسبب أضرارًا اجتماعية خطيرة، بما في ذلك وحشية السلوك فالعالم الرقمي.

نظرة قضائية للذكاء الإصطناعي: وجوب وجود قوانين حاكمة

إذا افترضنا أن طرق التلاعب مثل الدفع الضخم يمكن أن تكون مشابهة للإعلانات الشخصية فيجب أن تحكمها قوانين كي لا تكون مضللة ولا تستخدم حيل نفسية مثل المحفزات المموهة (هي الرسائل سريعة تكون موجهة للعقل الباطن فتحلل وكأنها أوامر داخلية)، هذا هو السبب في أنه لا يجوز إظهار المشروبات الغازية في فيلم لجزء من الثانية. لأن هذا يترك أثرًا في اللاوعي فيعد إعلانًا غير ملموس. علاوة على ذلك، الجمع واسع النطاق ومعالجة البيانات الشخصية هي بالتأكيد ليست متوافقة مع قوانين حماية البيانات المعمول بها في الدول الأوروبية وغيرها.

وقد أثار هذا قضايا قانونية. فلا يمكن تجاهل الغرامات الكبيرة التي فُرضت على شركات التبغ، والسيارات، وتكنولوجيا المعلومات والبنوك على مدى السنوات القليلة الماضية بسبب استخدام تلك الحيل وتمريرها عن طريق الأفلام.

نظرة أخلاقية وحقوقية للذكاء الإصطناعي

وعلاوة على هذا كله، في العالم الأكاديمى، حتى التجارب الغير ضارة التي تُطبق على الإنسان تحتاج موافقة من قبل لجنة أخلاقية مُعترف بها. يُطلب من الأشخاص المعنيين إقرار بموافقة مع العلم بكافة تفاصيل التجربة. ولكن نقرة واحدة لتأكيد الموافقة على (شروط الأستخدام) المكونة من مائة صفحة -كما هو الحال في العديد من المواقع والتطبيقات- لا تكون كافية بالمرة. مع ذلك يتم إجراء تجارب بتقنيات التلاعب مثل الدفع على ملايين الناس دون إبلاغهم بل ودون شفافية أو قيود أخلاقية. حتى الشبكات الاجتماعية الكبيرة، مثل: (الفيسبوك) أو مواقع المواعدة أقرت علنا إجراء هذا النوع من التجارب.

دعونا نفترض أن هناك آلة فائقة الذكاء تمتلك معرفة إلهية وقدرات خارقة، هل نتبع تعليماتها؟

يبدو أننا سنفعل ذلك. وإن فعلنا ستكون تحذيرات (إيلون ماسك)، و(بيل جيتس)، و(ستيف وزنياك) و(ستيفين هوكنج) صحيحة. ستسيطر الحواسيب على العالم. يجب أن نعلم أن الذكاء الخارق للحواسيب يمكن أن يُخطئ، ويكذب، ويتبع أهواء أنانية أو يمكن حتى التلاعب به ولا يمكن تشبيهه بالعقل الجمعي للبشر. ففكرة استبدال أفكار وتحليلات جميع المواطنين بحاسوب تبدو سخيفة. لأنها تقلل من تنوع وجودة الحلول المتاحة.

وقد بات من الواضح أن مشاكل العالم لم تنخفض على الرغم من فيضانات البيانات الأخيرة. بل على العكس، السلام العالمى لا يزال هشًا. ونحن أيضًا بعيدين عن التغلب على الأزمة المالية وتأثيرها على الاقتصاد. كما تقدر خسائر الجرائم الإلكترونية السنوية ب 3 تريليون دولار. ناهيك عن استعداد بعض الدول والمنظمات الإرهابية لحروب إلكترونية.

وفى عالم سريع التغيير كهذا، لا يمكن حتى للذكاء الخارق أن يتخذ قرارات مثالية ولكن يمكننا محاولة تكوين مجتمع رقمي أفضل.

نظرة متفائلة: محاولة إيجاد حلول

وباختصار، يمكن القول أننا الآن في مفترق طرق. فيمكن للبيانات الكبيرة، والذكاء الاصطناعي وعلم التحكم الآلي تشكيل مجتمعنا للأفضل أو للأسوأ. إذا كانت هذه التقنيات على نطاق واسع غير متوافقة مع القيم الأساسية لمجتمعنا، عاجلًا أم آجلًا سوف يسبب أضرار واسعة النطاق. ويمكن أن يؤدي إلى مجتمع الآلي. نحن في لحظة تاريخية، حيث أن علينا اتخاذ قرار بشأن الطريق الذي يسمح لنا جميعًا الاستفادة من الثورة الرقمية. ولذلك، فإننا نحث على التمسك بالمبادئ الأساسية التالية:

  • منع تمركز نظم المعلومات.
  • دعم تقرير الفرد لمصير معلوماته.
  • الشفافية لتحقيق أكبر قدر من الثقة.
  • الحد من تشويه المعلومات.
  • دعم التنوع اللاجتماعى والاقتصادى.
  • تنمية وتوعية العقل الجمعي.
  • تعزيز السلوك المسئول من المواطنين في العالم الرقمي من خلال محو الأمية الرقمية والتنوير.

*الأخ الكبير: شخصية من رواية 1984 لجورج أورويل

إعداد: سارة سمير سليم
مراجعة علمية: محمد رضا
مراجعة لُغويَّة: إسراء عادل
تحرير: زياد الشامي

المصادر:

https://www.livescience.com/62775-humans-why-scared-of-ai.html

https://www.newscientist.com/article/mg22530044.000-big-science-names-sign-open-letter-detailing-ai-danger/

https://www.scientificamerican.com/article/will-democracy-survive-big-data-and-artificial-intelligence/

https://www.newscientist.com/article/dn17518-smart-machines-whats-the-worst-that-could-happen/

https://www.newscientist.com/article/2133188-ai-will-be-able-to-beat-us-at-everything-by-2060-say-experts/

شارك المقال:

تواصل معنا

«الباحثون المصريون» هي مبادرة علمية تطوعية تم تدشينها في 4/8/2014، بهدف إثراء المحتوى العلمي العربي، وتسهيل نقل المواد والأخبار العلمية للمهتمين بها من المصريين والعرب،

تابعنا على منصات التواصل الإجتماعي