المصدر: Getty Images
في تقريره السنوي لعام 2019، دعا ” AI Now Institute” وهو مركز أبحاث، يعمل على درس الآثار الاجتماعية لتقنية الذكاء الاصطناعي، إلى فرض حظر على التكنولوجيا المصمّمة للتعرّف على عواطف الناس في بعض الحالات. وقال الباحثون إن تقنية “التعرّف على المشاعر” لا ينبغي استخدامها في القرارات التي “تؤثر على حياة الناس والوصول إلى الفرص” مثل قرارات التوظيف أو تقييم الألم على اعتبار أنها ليست دقيقة بما فيه الكفاية ويمكن أن تؤدي إلى قرارات متحيّزة. فما هي هذه التقنية والتي يتم استخدامها بالفعل ويجري تسويقها، ولماذا تثير هذا القلق؟
1- التعرّف على الوجه
لأكثر من عقد، يعمل الباحثون على خوارزميات يمكن أن تحدّد مشاعر البشر، إلى جانب إجراء استنتاجات أخرى، وقد تم تحليل تعابير الوجه منذ عام 2003، عبر الإعتماد على الحوسبة المتمثلة بـ “التعلّم الآلي” حيث يتم قراءة المشاعر والرد عليها من خلال النص والصوت والاستشعار الحيوي عبر الأجهزة القابلة للارتداء وغيرها من المؤشرات.
2- تحدي قراءة العواطف
يقوم الباحثون دائمًا بالبحث عن القيام بأشياء جديدة، ويعدّ التعرف على العاطفة شيئاً مثيراً ومغرياً، وهو مهارة يمكن للإنسان تحصيلها مع الوقت والتدريب، لكنّ توالد هذه المهارات باستخدام الكمبيوتر لا يزال يمثل تحديًا. وفي حين أنه من الممكن للذكاء الاصطناعي القيام ببعض الأشياء الرائعة مع الصور مثل خلق صورة لجعلها تبدو كما لو كانت مرسومة من قبل فنان مشهور وحتى إنشاء وجوه واقعية – ناهيك عن إنشاء ما يسمى “التزييف العميق” – نقف عند تساؤلات حول إمكانية أجهزة ليس لديها أصلاً إمكانية شعورأو حالات عاطفية أن يكون لديها القدرة على قراءة العواطف. مسألة التعرّف على العواطف نفترض أنها صعبة، لأنها تميل إلى الاعتماد على السياق الذي نعيشه كبشر، والذي لا يعدّ مؤشراً كافياً أحياناً، فعندما يحدّق شخص ما مثلاً على شيء ما قد يبدو أنه يفكر ببساطة! ولا ننكر أن تقنية التعرّف على الوجه قد قطعت شوطًا طويلًا عبر استخدام “التعلم الآلي” لكن تحديد الحالة العاطفية للشخص بناءً على النظر إلى وجهه يفتقد إلى المعلومات الأساسية. يتم التعبير عن المشاعر ليس فقط من خلال تعبير الشخص نفسه، بل أينما كان وماذا يفعل أيضاً، وفي هذه الحالات يصعب تغذية هذه الإشارات على شكل بيانات في خوارزميات التعلم الآلي. ولمعالجة هذا، هناك جهود نشطة لزيادة تقنيات الذكاء الاصطناعي للنظر في السياق.
3- قراءة عواطف الموظف
يسلّط التقرير الصادر عن “AI Now Institute” الضوء على بعض الطرق التي يتم بها تطبيق الذكاء الاصطناعي على القوى العاملة من أجل تقييم إنتاجية العامل وحتى في وقت مرحلة مقابلة التوظيف.إن تحليل اللقطات من المقابلات، خاصة بالنسبة للباحثين عن عمل عن بُعد، جاري بالفعل. وإذا كان يمكن للمدراء التماس شعور وعواطف الموظفين من المقابلة إلى التقييم، فإن اتخاذ القرارات فيما يتعلق بمسائل التوظيف الأخرى مثل الزيادة أو الترقيات أو المهام قد يتأثر بهذه المعلومات، ولكن هناك العديد من الطرق الأخرى التي يمكن أن تستخدم هذه التكنولوجيا.
4- لماذا القلق؟
تتمتع هذه الأنواع من الأنظمة بعيوب مرتبطة بالشفافية، المساءلة وغيرها إلى حد التحيّز فقد وجدت إحدى الدراسات أن خوارزميات التعرّف على الوجه صُنفت وجوه الأشخاص السود على أنها أكثر غضبًا من الوجوه ذات البشرة البيضاء، حتى عندما كانوا يبتسمون. ورغم المحاولات في بحث هذه المشكلة ومعالجتها، يبدو أنه لا يمكن حلها في إطار التكنولوجيا بشكل حصري في هذه المرحلة، لأنّ هذا النوع من المشاكل، يتطلّب جهداً مستمراً ومتضافراً من جانب أولئك الذين يستخدمون التكنولوجيا حتى يكونوا على دراية بهذه القضايا ومعالجتها. كما يبرز تقرير “AI Now Institute” أنه :”على الرغم من زيادة محتوى أخلاقيات الذكاء الاصطناعي، إلا أنه من النادر ما تركز المبادئ والبيانات الأخلاقية على كيفية تنفيذها وما إذا كانت فعالة”. ويلاحظ أن مثل هذه البيانات الأخلاقية تتجاهل إلى حد كبير الأسئلة عن كيف وأين ومن سيضع هذه المبادئ التوجيهية موضع التنفيذ. وهناك أيضًا مجموعة من الإشكالات المرتبطة بالخصوصية العامة المتعلقة بالتكنولوجيا، والتي تمتد من انتشار الكاميرات لخدمة الشرطة إلى جعل البيانات الحساسة مجهولة المصدر.ومع هذه المخاوف الأخلاقية والخصوصية، قد يكون رد الفعل الطبيعي هو الدعوة إلى فرض حظر على هذه التقنيات. بالتأكيد، يبدو أن تطبيق الذكاء الاصطناعي على مقابلات العمل أو إجراءات إصدارالأحكام الجنائية خطيرًا إذا كانت هذه الأنظمة متحيّزة، ولا يمكن الاعتماد عليها.لكن هناك تطبيقات مفيدة على الرغم من ذلك، على سبيل المثال، المساعدة في تشخيص العلامات لمنع انتحار الشباب، واكتشاف السائقين الذين في حالة السكر…ولعلّ ذلك أحد الأسباب وراء توقّف باحثين ومواطنين عمومًا عن الدعوة إلى فرض حظر شامل على هذه التقنيات المرتبطة بالذكاء الاصطناعي.
5- الجمع بين الذكاء الاصطناعي والحكم الإنساني
يحتاج مصممو التكنولوجيا إلى النظر بعناية في كيفية الاستعانة بالمعلومات الناتجة عن أنظمة الذكاء الاصطناعي في عمليات صنع القرار، فيمكن لهذه الأنظمة أن تعطي نتائج غير صحيحة تمامًا مثل أي شكل آخر من أشكال الذكاء. ولا تزال هناك أيضًا تحديات تقنية كبيرة في قراءة العواطف، خاصةً التفكير في السياق لاستنتاج العواطف. وإذا كان الأشخاص يعتمدون على نظامِ غير دقيق في اتخاذ القرارات، فإن مستخدمي هذا النظام سيكونون في وضع أسوأ. فالبشر باتوا يميلون إلى الوثوق بهذه الأنظمة أكثر من الشخصيات الموجودة في مراكز القرار، وعلى ضوء ذلك، نحن كمجتمع بحاجة إلى النظر بعنايةِ، في عدالة هذه الأنظمة ومساءلتها وشفافيتها وأخلاقياتها أثناء التصميم والتطبيق، مع الحفاظ دائمًا على الإنسان باعتباره صانع القرار النهائي.