عندما يتطرّق الباحثون للمخاطر التي يؤثّر فيها الذكاء الاصطناعي على البشرية، غالبًا ما يُشار إلى “مشكلة التحكّم”. ويكمن الخوف في أن تتمتّع هذه التقنية بـ”ذكاءٍ” يمكن أن يجعلها تسعى إلى أهدافٍ ومصالح تتعارض مع أهداف ومصالح البشر. لكن، هل هذا حقًا يشكّل أكبر تهديدٍ للذكاء الاصطناعي على المجتمع البشري؟ على الأغلب لا. وهذا ما تؤكّده دراسة استقصائية أُجرِيت عام 2022 على أكثر من 700 خبير في مجال الذكاء الاصطناعي، يعتقد معظمهم أنّ الذكاء الآلي على مستوى الإنسان لا يزال على بعد 30 عامًا على الأقلّ.
1. مشكلة التلاعب
إنّ هذا النوع من تقنيات الذكاء الاصطناعي يتمّ استخدامه بالفعل، لدفع حملات التأثير والإقناع على منصات التواصل الاجتماعي، لكنه يعدّ بسيطًا مقارنةً بالتوجّه الذي تتّجه إليه التكنولوجيا وتأثيرها. وهذا ما يؤكّده نائب رئيس شركة تويتر الأسبق “إيلاد جيل” في تدوينة على مدونته الشخصية، ويرى أنّ معالجة اللغة الطبيعية (NLP) سيكون لها تأثيرات على البشر عمومًا في غضون 5 سنوات فقط.
وبالعودة إلى نقطة التلاعب، نفترض أنّ الموجات الحالية التي نعيشها اليوم وتحديدًا في مجال النماذج اللغوية الكبيرة يمكن توصيفها إلى حدّ كبير برمي الطلقات النارية على أسراب الطيور. وهذا التكتيك قد يخلق وابلًا من المعلومات المضللة يمكن لها التأثير على العديد من فئات المستخدمين، ويتردد صداها بينهم لتنتشر عبر منصات التواصل الاجتماعي. ويعدّ هذا التكتيك خطيرًا وقد يتسبّب في ضرر حقيقي للمجتمع.
2. أنظمة ذكية في الوقت الحقيقي
إنّ هذه الفئة من البرمجيات مصمَّمة لإشراك المستخدمين في تفاعلات المحادثة، بل ومتابعة أهداف التأثير تبعًا لكلّ مستخدم. ويتم نشرها باستخدام مصطلحاتٍ جاذبة مثل إعلانات المحادثة، أو التسويق التفاعلي، أو بوتات الدردشة وما إلى ذلك. لكن مهما كانت التسمية، فإنّ هذه البرمجيات بها نواقل مثيرة للقلق حول سوء الاستخدام. وهنا لا نتحدّث عن الخطر المتمثّل في أنّ المستخدمين قد يثقون في مخرجات بوتات الدردشة المدرّبة على بياناتٍ مليئة بالأخطاء والتحيزات. لا، وإنمّا التلاعب المتعمّد للأفراد من خلال النشر المستهدف لأنظمة الذكاء الاصطناعي بناءً على أجنداتٍ معينة. وبالتالي، ستعمل هذه الأنظمة على نحوٍ يتمّ تحديد المستخدمين كأهدافٍ فردية، وتكييف تكتيكات المحادثة الخاصة معهم في الوقت الحقيقي، وذلك لتحقيق أعلى قدرٍ من تأثير الإقناع. وفي صميم هذه التكتيكات، توجد النماذج اللغوية الكبيرة، والتي يمكن أن تنتج حوارًا بشريًا تفاعليًا مع تتبّع مسار المحادثة والسياق، لدرجة أنّها قد تقدّم استنتاجات من الصعب التمييز بينها وبين استنتاجات البشر.
3. ظهور الإنسان الرقمي
بالطبع سيكون التفاعل حاضرًا مع الشخصيات المتأتية عن الذكاء الاصطناعي والتي تكون واقعية بصريًا. وهذا يقود إلى تقنيةٍ أخرى سريعة التقدّم، وقد تساهم في مشكلة التلاعب الذي أشرنا إليها أعلاه: الإنسان الرقمي. وهو فرعٌ من برمجيات الحاسوب التي تهدف لإنشاء أشخاص رقميين يحاكون البشر الحقيقيين ويقومون بالتعبير وما إلى ذلك. ويمكن نشر عمليات المحاكاة هذه من خلال الحوسبة التقليدية ثنائية الأبعاد عبر مؤتمرات الفيديو مثلًا، أو من خلال الواقع المختلط (Mixed Reality) وهي تقنية تتيح دمج الواقع الحقيقي مع الافتراضي. ومن أشهر الأمثلة على هذه التقنية نذكر لعبة “بوكيمون جو” التي راجت في عام 2016.
إنّ التطورات السريعة في قوة الحوسبة، والمحركات الرسومية، وتقنيات النمذجة جعلت تقنية الإنساني الرقمي تتطوّر بشكلٍ ملحوظ. وتقوم الشركات بتوفير أدوات من هذا النوع. فعلى سبيل المثال تمّ إطلاق أداة “Metahuman Creator” من شركة “Unreal” وهي مصمّمة لإنشاء أناسٍ رقميين يمكن تحريكهم في الوقت الحقيقي للتفاعل مع المستهلكين.
4. التخفّي وصعوبة التمييز
عند الجمع بين الإنسان الرقمي، ونماذج اللغة الكبيرة سيتوفر عالم نتفاعل فيه مع المتحدثين الافتراضيين الذين سيتصرفون تمامًا كأشخاصٍ حقيقيين. لقد أجرى باحثون من جامعتي “لانكستر” و”كاليفورنيا بيركلي” دراسة تم نشرها العام الماضي (2022)، أظهرت أنّ المستخدمين باتوا لا يستطيعون التمييز بين الوجوه البشرية الأصيلة، وتلك التي يتم توليدها عبر الذكاء الاصطناعي. بل حتى أنهم ينظرون إلى الوجوه الناتجة عن هذه التقنية على أنها “أكثر جدارة بالثقة” من الأشخاص الحقيقيين. وبالتالي، فإنّ هذا المنحى يشير إلى اتجاهَين خطيرَين: الأول يتمثل في افتقار القدرة على معرفة الفرق بين الإنسان الرقمي والإنسان الحقيقي، والثاني يتمثّل في إمكانية الوثوق بأنظمة الذكاء الاصطناعي أكثر من البشر أنفسهم.
5. إمكانية الإدراك والتدخّل
إنّ التطورات التقنية في مجال معالجة اللغة الطبيعية، قد تجعلنا نجد أنفسنا قريبًا في محادثاتٍ شخصية مع برمجيات ذكية لا يمكن تمييزها عن الأناس الحقيقيين. سواء كان ذلك لإقناع الناس بشراء منتجٍ ما، أو تصديق معطياتٍ زائفة لغاياتٍ معينة. ونفترض أنّ هذه البرمجيات، ستتمكّن أيضًا من تحليل المشاعر في الوقت الحقيقي من خلال الكاميرات، ورصد ومعالجة تعابير الوجه، وحركة العين، وتوسعّ البؤبؤ، وحتى معالجة التغير في الطبقات الصوتية للشخص وما إلى ذلك. وكلّ هذه المؤشرات ستتيح استنتاج ردود الفعل العاطفية خلال المحادثة. لكن ماذا يعني ذلك؟
مقال جميل شكراً لك 🔹
واحدة من المقالات النادرة التي تتناول هذه الزاوية باللغة العربية. شكرا لكم ونرجو المزيد من هذا النوع من المقالات!
جميل جدا استاذ محمذ بالتوفيق