الذكاء الاصطناعي: الإنسان “عبد” للتقنيّات؟

مدة القراءة 7 د

في الأسابيع الأخيرة، طُرح مشروع في عريضة وقّع عليها إيلون ماسك والعديد من مديري المؤسّسات التي تعمل في مجالات الرقمنة، يهدف إلى التوقّف، لمدّة ستّة أشهر، عن الأبحاث في مجال الذكاء الاصطناعي إلى حين سنّ تشريعات له على أساس أنّه يؤثّر على الأمن القومي والتعليم. وذلك بعد الضجّة الكبيرة حول قدرات الذكاء الاصطناعي وإصدار شركة “أوبن أي إيه” (open IA) لبرنامجَيْها الأخيرين “تشات جي بي تي 3.5″ و”جي بي تي 4”.
الجدير بالإشارة أنّ مديري “أوبن أي إيه”، الذين من خلالهم أخذ الذكاء الاصطناعي هذه الضجة أخيراً، لم يوقّعوا على العريضة.
هل الذكاء الاصطناعي سيُفقد الإنسان إنسانيّته في ظلّ وقوعه تحت عبودية التقنيّات التي تسيطر عليها مجموعة “غافام” (غوغل وأبل وفيسبوك وأمازون ومايكروسوفت) التي تمارس ما يمكن نعته بالإمبريالية الرقميّة؟
على سبيل المثال، باتت برمجيّات الذكاء الاصطناعي هي التي تحدّد نسب الجمال في دول العالم، وأيّ الدول نساؤها ورجالها هم الأكثر جاذبية. تقوم هذه البرامج بحصر العبارات مثل جذّابة ومثيرة وجميلة ووسيمة ورائعة. ثمّ تصنِّف البلدان حسب عدد “اللايكات” والتفاعلات على هذه الصور بناءً على هذه الكلمات التي يكتبها الناس على صور المشاهير والمؤثّرين على شبكات التواصل. وقد أتت الهند أوّلاً وأميركا ثانياً بفضل بوليوود في الأولى وهوليوود في الثانية، وتفاعل الناس مع صور المشاهير. فهل فعلاً باستطاعة الذكاء الاصطناعي أن يحدّد من هو البلد الأكثر جمالاً بناءً على نوعٍ من التصويت ووفقاً للصور على الشبكات الاجتماعية؟ لكن ماذا عن حضور باقي الدول؟ ألا يوجد جمال في إفريقيا وفي العالم العربي وفي كولومبيا وغيرها؟ طبعاً لا يمكن للذكاء الاصطناعي تحديد من هو البلد الأكثر جمالاً. فعدم وجود تفاعلات من هذه الدول يؤدّي إلى عدم إدراجها أو إلى إتيانها في مراتب متأخّرة.

يجب التنبيه إلى أنّه ليست كلّ التقنيّات والبرمجيّات تعمل بخوارزميات الذكاء الاصطناعي بسبب أنّها تقوم بعملٍ آليٍّ باستخدام الحواسيب والتقنيّات

هذا أحد الأمثلة التي من الممكن أن يحدّدها الذكاء الاصطناعي وتصبح معياراً من المعايير المعتمَدة. وهذا ممّا يدلّ على أنّ الشركات المصنّعة لهذه البرمجيّات هي التي تتحكّم بسلوكيّة الأفراد وتوجّههم حتى في طريقة اللباس وطريقة التصرّف. هذه هي المراقبة الناعمة التي تمارسها خوارزميّات “غافام” وغيرها للتلاعب بالأفراد وتوجيههم حسب ما يتناسب مع أهداف الكسب المادّي.
من منظورٍ آخر، حسب تقرير بنك الاستثمار “غولدن ساكس”، فإنّ الذكاء الاصطناعي سيحلّ محلّ 300 مليون وظيفة في الفترة المقبلة. خبرٌ نزل مثل الصاعقة على كلّ من يعمل في المجالات المتعلّقة بوسائل التعبير والكتابة. هل فعلاً يجب الخوف من الذكاء الاصطناعي؟ وهل من المفترض البحث عن تشريعات تقونن الأبحاث والتطبيقات الرقمية؟
أوّلاً من الصعب معرفة وتحديد عدد الوظائف التي سيحلّ محلّها الذكاء الاصطناعي، وثانياً يعتبر البعض أنّ من الواجب الاستثمار في الذكاء الاصطناعي لزيادة الإنتاجية. طبعاً، سيواجه بعض الوظائف منافسةً من التطبيقات، وسيعاني بعضها الآخر من انخفاض الأجور. ولكن يجب التأقلم مع التغيّرات التقنية وممارسة التعلّم الدائم والانفتاح على المعلوماتية لكي يبقى المستخدم على تماسٍّ مع ما يحصل. ستغيب بعض الوظائف، لكنّ بعضها الآخر سيولد.
هل هذا الخوف فعلاً مبرَّر؟ الهلع الذي يصيب الناس ليس مبرَّراً دائماً. عندما أتى التلفاز، خاف الناس من التغيّرات التي سيؤدي إليها هذا الجهاز، ثمّ جاء الحاسوب فخاف الناس على وظائفهم، ثمّ أتت الإنترنت وبدأنا نخطّط لمواجهة هذا الخوف الناجم عن التشبيك. وكان الأمر كذلك بالنسبة للهواتف الذكية، ونخاف الآن من تطبيقات الذكاء الاصطناعي.
يجب التنبيه إلى أنّه ليست كلّ التقنيّات والبرمجيّات تعمل بخوارزميات الذكاء الاصطناعي بسبب أنّها تقوم بعملٍ آليٍّ باستخدام الحواسيب والتقنيّات. فالذكاء الاصطناعي يعمل على تحليل أنماط معيّنة ويفتّش عمّا يميّز هذه الأنماط لاستخدامها في الخوارزميّات وتطبيقها بعد ربطها فيما بينها وبمجموعات كبيرة من البيانات من خلال خوارزميات قادرة على التعلّم والتطوّر لأنّها بُرمجت على هذا الأساس. ولكنّ هذه العملية هي تكرار لِما يقوم به العقل البشري. فالإبداع هو من سمات البشر، وأمّا الذكاء الاصطناعي فهو تكرارٌ لهذا الإبداع ولهذا الابتكار المبنيّ على ذكاء البشر. يمارس الذكاء الاصطناعي سلوكاً ذكيّاً، أي أنّه يقلّد السلوك الذكيّ عند الأفراد، وأمّا الذكاء البشري فهو ابتكار.
الإبداع ميزةٌ فريدةٌ لدى العقل البشري تتعلّق بالبيئة التي خزّن فيها معلوماته، ولا يوفّرها الذكاء الاصطناعي حتى الآن ولن يوفّرها. من المحتمل أن نصل إلى ذلك إذا ما انتقلنا إلى الذكاء الاصطناعي العضوي (وهذا موضوع آخر سنأتي عليه لاحقاً). لكن لا يمكن حتى الآن أن نغذّي خوارزميات الذكاء الاصطناعي بكلّ ما يجول في البيئة الاجتماعية والتجارب الفردية والعامّة.
نحن في مرحلة التكنولوجيا المزعزعة. فلكلّ تطوّر ضريبة تطال المستخدِم والمجتمع. وبالتالي تتّجه الدول المصنّعة إلى محاولة بناء تشريعات تتعلّق باستخدام التطبيقات الذكيّة.

من مساوئ استخدام البشر للذكاء الاصطناعي أنّنا في مرحلة “التزييف العميق” الذي يرتكز على التعلّم الآليّ العميق. نحن في مرحلة أسلحة “البلبلة الشاملة”

لن نقول إنّ ما يُعمل به حالياً غير أخلاقي، لكنّه حتى الآن لا يتّبع أيّ نظام أخلاقي. يحاول العديد من المؤسّسات وضع ميثاق لتنظيم الذكاء الاصطناعي واستخداماته المتعدّدة. على كلّ مشروع أن يراعي هذه الموادّ الخمس: المصلحة العامّة وعدم إيذاء الآخرين واستقلالية الأفراد والعدل والمساواة والوضوح. في أوروبا يجري وضع قانون ينتهي العمل به في 2024.

ولكن يبقى السؤال التالي: إذا ما استطعنا بناء تشريعات وقوانين، وهذا عملياً سهل، لأنّها ستكون عبارة عن بعض القوانين المتعلّقة بحقوق الإنسان والحرّية الشخصية مثل حرّيّة التعبير وحقّ الخصوصية وحماية البيانات وعدم التمييز وعدم استخدام التطبيقات للقرصنة وبناء موادّ متفجّرة وإنشاء برمجيّات إباحية ملفّقة من خلال التلاعب بالصور ونشر أخبار مزيّفة ومعلومات مضلّلة، فكيف سيكون بإمكان هذه التشريعات أن تمنع تعريض كلّ من عنده صورة على الإنترنت للقرصنة والابتزاز. لقد أصبح بإمكان أيّ شخص أن يصنع ما يريد. من الممكن لأيّ شخصٍ أن يتعلّم بناء قنبلة يدوية مثلاً أو أن يصنع سمّاً بطريقةٍ سهلةٍ. وتأتي المخاوف الأكثر جدّيّة من معرفة أفكار الناس وسلوكيّتهم من خلال مراقبتهم ومراقبة تفاعلاتهم ومراقبة أصدقائهم بشكلٍ متواصلٍ على شبكات التواصل الاجتماعي.
لا يمكن تطوير محاذير فعّالة إذا كان هناك انعدام للوضوح على صعيد المسؤولية والعواقب غير المقصودة المحتملة، مثل الخداع والجرائم الإلكترونية. فالأخلاقيات والقيم معروفة عالمياً، لكن على من ستُطبّق؟!

إقرأ أيضاً: هل يطلق “الذكاء الاصطناعي”… قنبلة نووية؟

من مساوئ استخدام البشر للذكاء الاصطناعي أنّنا في مرحلة “التزييف العميق” الذي يرتكز على التعلّم الآليّ العميق. نحن في مرحلة أسلحة “البلبلة الشاملة”. إنّها حرب عالمية معلوماتية ترتكز على الرياضيات والحساب والإحصاء، حربٌ تتزعّمها الولايات المتحدة الأميركية والصين على وجه التحديد، حربٌ تتمحور حول امتلاك البيانات وإمكانية معالجتها. فالبيانات والمعلومات حالياً هي الموارد البشرية الفعليّة، ورأسمالها هو العقل البشري، ومنتجاتها هي تطبيقات الذكاء الاصطناعي.
يوجد سباق بين المنتِج للبرمجيّات والمزيّف أو المقرصن. كان هذا السباق وما زال موجوداً بين من يصنع برمجيّات خبيثة ومن يصنع برمجيّات لمحاربة البرمجيّات الخبيثة واكتشافها.
الخوف هو أن لا يستطيع المستخدِم التمييز بين الواقع والخيال، وألّا يتمكّن من معرفة مصادر الأنباء الموثوقة.
تتعلّق المخاطر بالنماذج التوليدية لانتشار المحتوى. ولا يقف ذلك عند التعدّي على الخصوصية، بل يتخطّاه إلى الابتزاز والتهديد وتشويه السمعة.
ولكن لا ننسى أنّ لبرمجيّات الذكاء الاصطناعي العديد من الفوائد التي باتت معروفة ومطبّقة، ومنها اتخاذ قرارات حياتية مهمّة في مكالمات خدمة الزبائن والتشخيص الطبّي والقيام بالمهامّ المتكرّرة والأعمال المنزلية.

مواضيع ذات صلة

الصراع على سوريا -2

ليست عابرة اجتماعات لجنة الاتّصال الوزارية العربية التي عقدت في مدينة العقبة الأردنية في 14 كانون الأوّل بشأن التطوّرات في سوريا، بعد سقوط نظام بشار…

جنبلاط والشّرع: رفيقا سلاح… منذ 100 عام

دمشق في 26 كانون الثاني 2005، كنت مراسلاً لجريدة “البلد” اللبنانية أغطّي حواراً بين وليد جنبلاط وطلّاب الجامعة اليسوعية في بيروت. كان حواراً باللغة الفرنسية،…

ترامب يحيي تاريخ السّلطنة العثمانيّة

تقوم معظم الدول التي تتأثّر مصالحها مع تغييرات السياسة الأميركية بالتعاقد مع شركات اللوبيات التي لها تأثير في واشنطن، لمعرفة نوايا وتوجّهات الإدارة الأميركية الجديدة….

الأردن: 5 أسباب للقلق “السّوريّ”

“الأردن هو التالي”، مقولة سرت في بعض الأوساط، بعد سقوط نظام بشار الأسد وانهيار الحكم البعثيّ في سوريا. فلماذا سرت هذه المقولة؟ وهل من دواعٍ…