الأستاذ الدكتور باسل يونس ذنون الخياط
أستاذ مُتمرِّس/ جامعة الموصل
بين الذكاء الطبيعي والاصطناعي – الجزء الثالث
لقد بدأت أبحاث الذكاء الاصطناعي التركيزَ على تطوير الآلات التي يمكنها التعلُّم والتفكير بأنفسها في سبعينيات القرن الماضي، وفي عام 1997 أصبح برنامج ذكاء اصطناعي يسمى (Deep Blue) أول نظام كمبيوتر يهزم بطل العالم في الشطرنج.
هناك عدد من خوارزميات الذكاء الاصطناعي مستوحاة من الطبيعة، يتم من خلالها تقليد فعاليات واقعية موجودة في الحياة الواقعية لمعالجة مسائل أخرى. من هذه الخوارزميات (خوارزمية الفراشةButterfly Algorithm ) للتحسين، وتتضمن محاكاة لطريقة الفراشة في بحثها عن الرحيق، و (خوارزمية قرية النمل Ant Colony Algorithm) التي تتضمن البحث عن الحلول المثلى في الرسوم البيانية ضمن جملة من الاحتمالات على نحو شبيه بطريقة النمل في البحث والتقفي.
وهناك (خوارزمية تحسين البجع Pelican Optimization Algorithm) التي تستمد فكرتها من سلوك واستراتيجية طيور البجع التي تتبعها عند الصيد بطريقة ذكية والتي جعلت من هذه الطيور صيادين ماهرين، حيث تصطاد البجع الأسماك عن طريق السباحة في مجموعات تعاونية، وذلك بتشكيل خطٍ أو شكل"U"، ثم تدفع الأسماك إلى المياه الضحلة عبر ضرب أجنحتها على سطح الماء، لتجمع الأسماك بعد ذلك عند تجمعها.
وهناك (خوارزمية الذئب الرماديThe Grey Wolf Algorithm )، وهي خوارزمية مستوحاة من طريقة صيد الذئاب الرمادية، حيث يوجد ثلاثة ذئاب رئيسية داخل قطيع الذئاب: القائد يُسمى ألفا α، والذئب الذي في المرتبة الثانية يسمى بيتا β، أما الذئب بالمرتبة الثالثة فيُسمى دلتا δ، ويدرج بقية القطيع بعد هؤلاء الثلاثة. ويتحكم هؤلاء الذئاب الثلاثة بتحديد مواقع القطيع أثناء الصيد (مواقعهم بالنسبة لموقع الفريسة).
من الناحية الرياضية، فإن الفريسة هي الحل المضبوط الذي نحاول الوصول إليه في حل مسألة معينة، وإن أقرب حل للحل المضبوط يُسمى ألفا، والحل الذي يليه يسمى بيتا، وثالث اقرب حل يسمى دلتا. أما بقية الحلول فتُدرج ضمن بقية القطيع. ويتم تحديث هذه الحلول ضمن معادلات رياضية معينة وطبقا للحلول (ألفا، بيتا و دلتا).
هنري كيسنجر والذكاء الاصطناعي:
على الرغم من أن ثعلب السياسة" الأميركية كيسنجر بلغ المئة من عمره، فقد أصبح مهووسا بموضوع الذكاء الاصطناعي، وتعاون مع اثنين من المؤلفين المشاركين في تأليف كتاب صدر عام 2021 بعنوان "عصر الذكاء الاصطناعي ومستقبل الإنسان".
لقد عبّر كيسنجر عن خشيته من تسبب الذكاء الاصطناعي أو الآلات بأزمات عالمية وإحداث ضرر شامل، مشيرا إلى أن الظروف تتطلب وجود قادة مسؤولين في دفة القيادة يحاولون "تجنب الصراع".
وقال كيسنجر إن هدف الولايات المتحدة في المحافظة على التحكّم البشري في الذكاء الاصطناعي إنما هو "هدف مرغوب فيه للغاية"، غير أنه قال إن "السرعة التي يعمل بها الذكاء الاصطناعي ستجعله إشكاليًا في مواقف الأزمات".
وقال إن البشر لا يستطيعون مراجعة كل المعرفة التي اكتسبتها الآلة، مضيفا: "نحن نعطيها تلك المعرفة.. أنا أحاول الآن أن أفعل ما فعلته فيما يتعلق بالأسلحة النووية، للفت الانتباه إلى أهمية تأثير هذا التطور".
وأشار كيسنجر إلى أنه سيكون هناك سباق تسلح بالذكاء الاصطناعي؛ "لكن الأمر سيكون مختلفا لأنه في سباقات التسلح السابقة يمكنك تطوير نظريات معقولة حول كيفية انتصارك.. إنها مشكلة جديدة تماما من الناحية الفكرية".
الذكاء الاصطناعي وكأس العالم في قَطر:
لقد كان من أكثر التساؤلات المطروحة في أرجاء العالم قبيل بطولة كأس العالم الأخيرة في قَطر هو: من هي المنتخبات المرشحة للفوز بكأس العالم في مونديال قَطر 2022؟.
لقد نشرت شبكة "أوبتا "OPTA المتخصصة بالأعداد والإحصاءات قائمة المنتخبات المرشحة للظفر بكأس العالم لكرة القدم 2022 في قَطر وذلك باستخدام الذكاء الاصطناعي. وقد اعتمدت الشبكة على حاسوب متطوّر، ووضعت صعوبة مسار الصعود إلى الأدوار الإقصائية ومسار الطريق إلى النهائي كأحد أبرز المعايير.
لقد كانت حظوظ الفرق العالمية المرشحة للظفر بكأس العالم في قَطر وفق التصنيف الذكي OPTA هي أن الفريق الفرنسي هو الفريق الأوفر حظا للفوز بكأس العالم 2022، يليه الفريق البرازيلي ثم الإسباني فالإنكليزي فالبلجيكي فالهولندي فالألماني فالأرجنتيني ثم البرتغالي.
لو قارنا هذه الترشيحات النظرية (الذكية) مع ما حصل على أرض الواقع في قَطر، نجد المفارقات الآتية:
- الفريق الذي فاز بكأس العالم كان الفريق الأرجنتيني الذي كان تسلسله وفق التصنيف الذكي الثامن!
- الفريق البرازيلي الذي رشحه التصنيف الذكي للمركز الثاني سقط في دور الثمانية!
- الفريق البلجيكي الذي كان مرشحا للمركز الرابع وفق التصنيف الذكي سقط في البداية في دور 16 الأولي.
نماذج عالمية:
إن سلوكيات كل من الدماغ البشري ونماذج الذكاء الاصطناعي يحددها المُدخلات المُستخدمة. وكما تؤثر بيئة الفكر المتطرف في أفكار الإنسان وسلوكياته وقد تؤدي الى بعض الاختلالات في طبيعته البشرية، فإن البيانات تلعب دورا فاعلا في تحديد سلوك الذكاء الاصطناعي وردوده، وهو ما قد يحصل بسبب بيانات التدريب نفسها، أو بسبب مجتمع المستخدمين الذين تستمر الخوارزميات بالتعلم منهم وتقليدهم، لينتج اختلالاً مشابهاً لسلوك الإنسان في الخداع والتلاعب والانغماس الكبير في الهدف المراد تحقيقه بغض النظر عن الآثار الجانبية السلبية.
لقد أصدرت "مايكروسوفت" سنة 2016 روبوت الدردشة Tay الذي صُمم بهدف التعلم من المستخدمين على منصة تويتر والتفاعل معهم. وخلال أقل من 24 ساعة من إصدار(Tay)، اكتسب أكثر من 50 ألف متابع ونشر ما يقارب مائة ألف تغريده، وكان سلوكه جيداً حتى جرى توجيهه إلى موضوعات تشمل الاغتصاب والعنف العائلي. وصار بفعل البيانات شخصية إلكترونية يتقمص دور فتاة مراهقة نازيّة بالكامل تنشر تغريدات سلبية، مما أجبر شركة مايكروسوفت على توقيف الروبوت بعد 16 ساعة من إصداره!!
وفي سنة 2017 تم تطوير نموذج (شيليShelly ) للذكاء الاصطناعي لإنتاج قصص الرُعب، وقد اُستخدمت مجموعة من قصص الرُعب في التدريب، وصار النموذج قادر على أخذ نصوص قصيرة من أفكار الإنسان الكابوسية لإنتاج قصص ذات طابع مخيف.
وفي سنة 2018، كُشف عن برمجية الذكاء الاصطناعي (نورمان) من قبل باحثين من المعهد الشهير (MIT)، و(نورمان) يجسدّ مادة لدراسة مخاطر الذكاء الاصطناعي عندما تُستخدم البيانات المتحيّزة في تدريب خوارزميات تعلّم الآلة. وبعد تغذية (نورمان) ببيانات تتعلق بالموت والاحتضار، بدت النتائج مخيفة؛ مثل رجل يقفز من النافذة.
أن الفكرة المحورية في مجال تعلم الآلة أنه لا توجد طريقة رياضية لإنتاج الخوف والعنف، بل إن البيانات هي التي تفعل ذلك، كما أنه لا يمكن للخوارزمية أن تُميز مفهوم الخير والشر إلا بفعل (بيانات سليمة).
دونالد ترامب والذكاء الاصطناعي:
لقد أصبح الذكاء الاصطناعي أداة للتزيف والتزوير وخلق المشاكل في مختلف الاتجاهات. فقد تناقل رواد مواقع التواصل الاجتماعي صورة جرى تصميمها مؤخرا بواسطة الذكاء الاصطناعي تُظهر عناصر من الشرطة وهم يعتقلون الرئيس الأميركي السابق دونالد ترامب.
إن هذه الصورة المفبركة تضمنت إشارات واضحة تؤكد عدم مصداقيتها: ويظهر في الصورة المزيفة أحد ضباط الشرطة بدون أصبع سبابة، في حين أن ضابط آخر يمسك قبضة ترامب دون أن تظهر يد الرئيس السابق بالصورة.
وقد حذر صانعو السياسة من إساءة الاستخدام المحتملة للوسائل الاصطناعية بنشر معلومات مضللة وبث الفتنة وإرباك المشهد السياسي.
من ناحية أخرى فيُستخدم الذكاء الاصطناعي بعمليات تركيب أصوات على صور الفيديو وفبركتها. فقد قام مؤخرا الإعلامي المصري (توفيق عكاشة) بتركيب صوت باللهجة المصرية على صورة الرئيس الأميركي الأسبق دونالد ترامب، مما يقود إلى صعوبة تصديق أي فيديو نشاهده أو نرسله عبر شبكات التواصل الاجتماعي.
وأجد من الضروري وضع تشريعات خاصة لحماية المواطنين من عمليات مثل هذه وما شابه قد تتعرض لها البنات أو الرجال في عالم اليوم الذي تلاشت به كل الضوابط والحدود.
https://www.youtube.com/watch?v=tUqsXzEuYag
تأثيرات الذكاء الاصطناعي على المجتمع:
بالرغم من أن الذكاء الاصطناعي عنوان عصري جذاب، وقد وظفه العديد من الباحثين في بحوثهم الأكاديمية، وأنا منهم، كما وظفه بعض طلبتي في الرياضيات والإحصاء وعلوم الحاسوب، إلا أنني لدي بعض التحفظات على الإلحاح في استخدام الذكاء الاصطناعي في الجانب الأكاديمي، لأن الجانب الأكاديمي التقليدي يجب أن يبقى هو الأساس، ومن الضروري أن يحافظ التخصص العلمي على هويته الخاصة به لأنها عنوان وجوده.
إن استخدام الذكاء الاصطناعي في البحوث العلمية في التخصصات ذات العلاقة بعلوم الحاسوب هو أشبه بإضافة الملح والتوابل والنكهات للطعام، فتُعطي نكهتها للطعام وتزيد من قيمته التذوقية. إلا أن الإفراط بهذه المواد يكون ذا تأثير سلبي؛ و (كل شيء يزيد عن حدّه ينقلب إلى ضده) كما يقول المثل الشعبي.
إن استخدام التقنيات العصرية، ومنها الذكاء الاصطناعي والسبورة الذكية، يجب أن يكون وفق ضوابط أساسية لأن الإلحاح في مثل هذه التقنيات سيترك آثارا وخيمة وسيقتل روح المثابرة والإبداع لدى الطلبة، كما سيؤدي إلى زعزعة الثقة في الأدوات العلمية التقليدية.
886 زائر، ولايوجد أعضاء داخل الموقع