الذكاء الاصطناعي في المحادثات: ما المخاطر العميقة التي يمكن أن يتسبّب بها؟

الأربعاء 24 رجب 1444ھ الأربعاء 15 فبراير 2023م
فيسبوك
تويتر
واتساب
تيليجرام
لينكدإن
المصدر: Getty
المحتوى

عندما يتطرّق الباحثون للمخاطر التي يؤثّر فيها الذكاء الاصطناعي على البشرية، غالبًا ما يُشار إلى “مشكلة التحكّم”. ويكمن الخوف في أن تتمتّع هذه التقنية بـ”ذكاءٍ” يمكن أن يجعلها تسعى إلى أهدافٍ ومصالح تتعارض مع أهداف ومصالح البشر. لكن، هل هذا حقًا يشكّل أكبر تهديدٍ للذكاء الاصطناعي على المجتمع البشري؟ على الأغلب لا. وهذا ما تؤكّده دراسة استقصائية أُجرِيت عام 2022 على أكثر من 700 خبير في مجال الذكاء الاصطناعي، يعتقد معظمهم أنّ الذكاء الآلي على مستوى الإنسان لا يزال على بعد 30 عامًا على الأقلّ.

لكن من ناحيةٍ أخرى، يبرز قلقٌ عميق بشأن نوعٍ مختلفٍ من مشكلة التحكّم والتي باتت بالفعل موجودة، ويمكن أن تشكّل تهديدًا كبيرًا. وما نشير إليه هنا، هو احتمالية استخدام أدوات الذكاء الاصطناعي المتاحة حاليًا في استهداف المستخدمين والتلاعب بهم. وهذا الشكل من التلاعب يمكن نشره على نطاقٍ واسع في المجتمع من قبل الشركات أو حتى جهاتٍ حكومية وما إلى ذلك.

1. مشكلة التلاعب

لقد شكلّت نماذج اللغات الكبيرة (Large Language Models) أحد أكبر الإنجازات التي حدثت في الآونة الأخيرة. وقد تمّ اعتمادها من قبل العديد من الشركات مثل “أوبن إيه آي” (OpenAI) التي أنشأت بوت الدردشة “تشات جي بي تي”. وقد جعل هذا النوع من البرمجيات، تفاعلات المحادثة الطبيعية بين الآلة والمستخدمين قابلة للتطبيق، لكن أيضًا يفتح بابًا للتلاعب.

إنّ هذا النوع من تقنيات الذكاء الاصطناعي يتمّ استخدامه بالفعل، لدفع حملات التأثير والإقناع على منصات التواصل الاجتماعي، لكنه يعدّ بسيطًا مقارنةً بالتوجّه الذي تتّجه إليه التكنولوجيا وتأثيرها. وهذا ما يؤكّده نائب رئيس شركة تويتر الأسبق “إيلاد جيل” في تدوينة على مدونته الشخصية، ويرى أنّ معالجة اللغة الطبيعية (NLP) سيكون لها تأثيرات على البشر عمومًا في غضون 5 سنوات فقط.

وبالعودة إلى نقطة التلاعب، نفترض أنّ الموجات الحالية التي نعيشها اليوم وتحديدًا في مجال النماذج اللغوية الكبيرة يمكن توصيفها إلى حدّ كبير برمي الطلقات النارية على أسراب الطيور. وهذا التكتيك قد يخلق وابلًا من المعلومات المضللة يمكن لها التأثير على العديد من فئات المستخدمين، ويتردد صداها بينهم لتنتشر عبر منصات التواصل الاجتماعي. ويعدّ هذا التكتيك خطيرًا وقد يتسبّب في ضرر حقيقي للمجتمع.

2. أنظمة ذكية في الوقت الحقيقي

إنّ هذه الفئة من البرمجيات مصمَّمة لإشراك المستخدمين في تفاعلات المحادثة، بل ومتابعة أهداف التأثير تبعًا لكلّ مستخدم. ويتم نشرها باستخدام مصطلحاتٍ جاذبة مثل إعلانات المحادثة، أو التسويق التفاعلي، أو بوتات الدردشة وما إلى ذلك. لكن مهما كانت التسمية، فإنّ هذه البرمجيات بها نواقل مثيرة للقلق حول سوء الاستخدام. وهنا لا نتحدّث عن الخطر المتمثّل في أنّ المستخدمين قد يثقون في مخرجات بوتات الدردشة المدرّبة على بياناتٍ مليئة بالأخطاء والتحيزات. لا، وإنمّا التلاعب المتعمّد للأفراد من خلال النشر المستهدف لأنظمة الذكاء الاصطناعي بناءً على أجنداتٍ معينة. وبالتالي، ستعمل هذه الأنظمة على نحوٍ يتمّ تحديد المستخدمين كأهدافٍ فردية، وتكييف تكتيكات المحادثة الخاصة معهم في الوقت الحقيقي، وذلك لتحقيق أعلى قدرٍ من تأثير الإقناع. وفي صميم هذه التكتيكات، توجد النماذج اللغوية الكبيرة، والتي يمكن أن تنتج حوارًا بشريًا تفاعليًا مع تتبّع مسار المحادثة والسياق، لدرجة أنّها قد تقدّم استنتاجات من الصعب التمييز بينها وبين استنتاجات البشر.

3. ظهور الإنسان الرقمي

بالطبع سيكون التفاعل حاضرًا مع الشخصيات المتأتية عن الذكاء الاصطناعي والتي تكون واقعية بصريًا. وهذا يقود إلى تقنيةٍ أخرى سريعة التقدّم، وقد تساهم في مشكلة التلاعب الذي أشرنا إليها أعلاه: الإنسان الرقمي. وهو فرعٌ من برمجيات الحاسوب التي تهدف لإنشاء أشخاص رقميين يحاكون البشر الحقيقيين ويقومون بالتعبير وما إلى ذلك. ويمكن نشر عمليات المحاكاة هذه من خلال الحوسبة التقليدية ثنائية الأبعاد عبر مؤتمرات الفيديو مثلًا، أو من خلال الواقع المختلط (Mixed Reality) وهي تقنية تتيح دمج الواقع الحقيقي مع الافتراضي. ومن أشهر الأمثلة على هذه التقنية نذكر لعبة “بوكيمون جو” التي راجت في عام 2016.

إنّ التطورات السريعة في قوة الحوسبة، والمحركات الرسومية، وتقنيات النمذجة جعلت تقنية الإنساني الرقمي تتطوّر بشكلٍ ملحوظ. وتقوم الشركات بتوفير أدوات من هذا النوع. فعلى سبيل المثال تمّ إطلاق أداة “Metahuman Creator” من شركة “Unreal” وهي مصمّمة لإنشاء أناسٍ رقميين يمكن تحريكهم في الوقت الحقيقي للتفاعل مع المستهلكين.

4. التخفّي وصعوبة التمييز

عند الجمع بين الإنسان الرقمي، ونماذج اللغة الكبيرة سيتوفر عالم نتفاعل فيه مع المتحدثين الافتراضيين الذين سيتصرفون تمامًا كأشخاصٍ حقيقيين. لقد أجرى باحثون من جامعتي “لانكستر” و”كاليفورنيا بيركلي” دراسة تم نشرها العام الماضي (2022)، أظهرت أنّ المستخدمين باتوا لا يستطيعون التمييز بين الوجوه البشرية الأصيلة، وتلك التي يتم توليدها عبر الذكاء الاصطناعي. بل حتى أنهم ينظرون إلى الوجوه الناتجة عن هذه التقنية على أنها “أكثر جدارة بالثقة” من الأشخاص الحقيقيين. وبالتالي، فإنّ هذا المنحى يشير إلى اتجاهَين خطيرَين: الأول يتمثل في افتقار القدرة على معرفة الفرق بين الإنسان الرقمي والإنسان الحقيقي، والثاني يتمثّل في إمكانية الوثوق بأنظمة الذكاء الاصطناعي أكثر من البشر أنفسهم.

5. إمكانية الإدراك والتدخّل

إنّ التطورات التقنية في مجال معالجة اللغة الطبيعية، قد تجعلنا نجد أنفسنا قريبًا في محادثاتٍ شخصية مع برمجيات ذكية لا يمكن تمييزها عن الأناس الحقيقيين. سواء كان ذلك لإقناع الناس بشراء منتجٍ ما، أو تصديق معطياتٍ زائفة لغاياتٍ معينة. ونفترض أنّ هذه البرمجيات، ستتمكّن أيضًا من تحليل المشاعر في الوقت الحقيقي من خلال الكاميرات، ورصد ومعالجة تعابير الوجه، وحركة العين، وتوسعّ البؤبؤ، وحتى معالجة التغير في الطبقات الصوتية للشخص وما إلى ذلك. وكلّ هذه المؤشرات ستتيح استنتاج ردود الفعل العاطفية خلال المحادثة. لكن ماذا يعني ذلك؟

هذا يعني أنّ المتحدث الافتراضي سيكون قادرًا على تكييف تكتيكاته بناءً على كيفية استجابة البشر لكلّ كلمة تصدر عنه، واكتشاف استراتيجيات التأثير التي تعمل، وأيها التي لا تعمل مع المستخدمِين. وعليه، لن تتكيف أنظمة الذكاء الاصطناعي للمحادثة مع ردود الفعل العاطفية الفورية فحسب، بل أيضًا مع السمات السلوكية، وهذا ما يجعل احتمالية التلاعب تعتبر شديدة وعالية.
في الواقع، على الرغم من الفوائد التي يتم تسجيلها حاليًا لـ بوتات الدردشة. لكن، قد يكون الخطر التفاعلي للذكاء الاصطناعي في المحادثات يتخطّى في السوء، الترويج أو التأثير الذي كان يتمّ من خلال وسائل الإعلام التقليدية. ولا بدّ للمجتمع العلمي والباحثين التركيز على هذه المسألة في أبحاثهم. والأمر لا يتعلّق بنشر المحتوى الخطر فحسب، وإنّما في إمكانية التلاعب ونشره على نطاقٍ واسع. وبالتالي نحن بحاجة إلى حمايةٍ قانونية واضحة ضد هذا التهديد وهذا ما ينبغي أخذه بعين الاعتبار كأولوية.
نشرة فهم البريدية
لتبقى على اطلاع دائم على كل ما هو جديد مما تقدمه منصة فهم، انضم لنشرتنا البريدية.
باحث في مجال الذكاء الاصطناعي. كاتب تقني. يرتكز عمله المهني على توفير المهارات الإستراتيجية لدعم وفهم تقنية الذكاء الاصطناعي في المنطقة العربية. أنجز العديد من الدراسات والمقالات العلمية في الذكاء الاصطناعي، وتركّز أبحاثه على التأثير الحقيقي لهذه التقنية في مختلف المجالات.
  1. Hesham Ashour Hesham Ashour

    مقال جميل شكراً لك 🔹

  2. فاتن فاتن

    واحدة من المقالات النادرة التي تتناول هذه الزاوية باللغة العربية. شكرا لكم ونرجو المزيد من هذا النوع من المقالات!

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *