إشكاليات حلول الذكاء الاصطناعي لـ “كوفيد 19”

الثلاثاء 02 ذو القعدة 1441ھ الثلاثاء 23 يونيو 2020م
فيسبوك
إكس
واتساب
تيليجرام
لينكدإن

757 كلمة

7 دقائق

المحتوى

المصدر: Shutterstock

تقوم العديد من الشركات والمنظمات في قطاع الرعاية الصحية، بالعمل على تطوير مجموعة من أنظمة الذكاء الاصطناعي للاستجابة لحالات الطوارئ في مواجهة  “كوفيد 19” أو ما يُعرف بفيروس كورونا. بعض هذه الأنظمة تعمل على تتبّع انتشار الفيروس والتنبّؤ به، فيما البعض الآخر يدعم الاستجابة الطبية ويساعد في الحفاظ على السيطرة الاجتماعية.

في الواقع، يمكن للذكاء الاصطناعي تقليل الضغط على أنظمة الرعاية الصحية، والمساعدة في إنقاذ الأرواح من خلال التشخيص السريع للمرضى، والحدّ من انتشار الفيروس، ولكن هناك مشكلة أنّ الخوارزميات هي من نتاج الإبداع البشري، وبهذا فهي عرضة للتحيّزات (Biases) التي يمكن أن تعمّق التفاوت الاجتماعي وتشكّل مخاطر على الشركات والمجتمع على نطاق واسع. في هذه المقالة، سنسلط الضوء على البيانات الخاصة بـ”كوفيد 19″، وتناول بعض جوانب تطبيق الذكاء الاصطناعي في مواجهة الفيروس وتبايناته.

1- مشكلة البيانات

عبر الاستعانة بتقنية التعلّم الآلي، تستخدم أنظمة الذكاء الاصطناعي الخوارزميات  للوصول إلى استنتاجات من البيانات المتعلّقة بالأشخاص. وهذا يتضمّن الخصائص الديموغرافية، والتفضيلات، والسلوكيات المحتملة في المستقبل. و لخدمة مجموعة واسعة من السكان بفعالية، يتعيّن على هذه الأنظمة أن تتعلّم كيفية إنشاء عمليات ربطٍ مستندة إلى كمياتٍ هائلة من البيانات.

لكن مع ذلك، بيانات التدريب التي يتم الاعتماد عليها، غالبًا ما تكون مليئة بالتحيّزات الاجتماعية والثقافية وغيرها، كما أنه قد لا تتوفّر بيانات لجميع السكان، أو تكون موجودة ولكنها  ليست  ذات جودة عالية، أو تعكس عدم المساواة بين الأفراد في المجتمع، وبهذه الحالة، يمكن أن تقوم الخوارزميات بتنبؤات غير دقيقة ومتحيّزة، وتقدم صور نمطية للمجتمع، خصوصًا أنّ التحيّز لا يكون واضحًا على الدوام أثناء بناء النموذج، نظرًا لأننا لا نستطيع  إدراك التأثيرات النهائية لهذه البيانات إلا بعد فترة طويلة. وبالنسبة إلى مرض “كوفيد 19” فالكثير من البيانات الناتجة عنه وتمّ جمعها وتتبّعها، كانت غير كاملة ومتحيّزة. فمثلًا في الولايات المتحدة كانت معدلات تشخيص الحالات المصابة بالفيروس عرضة لنقصٍ كبيرفي اكتشافها، ما يعني الانتقال الصامت للفيروس المسبّب للعدوى.

2- الاستجابة الطبية

8wrBDVLw5kh876fXZjJ1GsBtJ9TF2bEKbMXc8cwgqacAb4cQtwzin2apy UpjKxBMXDpR8o9ipmeRfxd9FRYRWfnI W9J5iEFiUEm0YEeDEIYwQKmWX 5RlS47deUfpsF164IaqD
المصدر: GE Healthcare

تساعد بعض أنظمة الذكاء الاصطناعي التي تم إنشاؤها، لدعم الاستجابة الطبية في تشخيص مرض “كوفيد 19” واكتشافه من خلال تحليل صور الأشعة للصدر. وهناك طرق أخرى يتم العمل عليها، وقد جرى الإعلان عنها مؤخرًا، مثل تطوير نموذج ذكي قادر على تشخيص الإصابة بالفيروس من دون إجراء اختبار بالاعتماد فقط على الأعراض. كما قد تكون هذه التقنية مفيدة أيضًا في البحث عن لقاح للفيروس التاجي والعلاجات الأخرى.

ومع ذلك، فإنّ فجوة البيانات التي ذكرناها أعلاه، لها آثار كبيرة على أنظمة الذكاء الاصطناعي في الطب، فالناس يتفاعلون بشكلٍ مختلف مع الفيروسات واللقاحات والعلاجات، كما أظهرت لنا حالات تفشي فيروسات سابقة مثل “سارس” وغيرها . وتشير البيانات الحالية المتاحة عن مرض “كوفيد 19” حول العالم إلى أنّ الرجال والنساء يواجهون معدلات وفاة مختلفة، كما وجدت ورقة بحثية حديثة أنّ المرضى من النساء اللواتي تم إدخالهنّ إلى المستشفى في “ووهان” بالصين لديهم مستويات أعلى في القدرة على  التصدي للفيروس مقارنةّ بالرجال.

إنّ الخوارزميات التي لا تأخذ  بعين الاعتبار حالات عدم المساواة، سينتج عنها تنبؤات ونتائج غير دقيقة. ففي عام 2019، وجدت دراسة أنّ خوارزمية “Optum” كانت متحيّزة ضد الأمريكيين السود، وقامت بمنح المرضى من ذوي البشرة الفاتح امتيازاتٍ خاصة مقارنةً بأقرانهم المرضى من ذوي البشرة السمراء. وفي خضمّ أزمة “كوفيد 19″، ينبغي أن تكون أنظمة الذكاء الاصطناعي حذرة في عدم إعطاء صبغة معينة بشكلٍ غير مقصود على الأشخاص خاصةً عندما يتعلق الأمر بتخصيص الموارد المحدودة مثل الشخص الذي يجب وضعه على جهاز التنفس الصناعي وغيرها.

3- السيطرة الاجتماعية

ASDAQ3YqQ33VQqLvagFcken4rEr1SKxYRNDi5SW2NFNY7VMIDGmubooX DjKsD5bm03 uykHE7XgW9ySwpXb1UspE zyKVg5ZK MwO4xjhIVL5F6Wo9lMKzjCpG8Aa 91r2n Nuk
المصدر: New York Times

من آخر تطبيقات الذكاء الاصطناعي هو التتبّع أو تعقّب الأشخاص وذلك في محاولةٍ للعمل على احتواء الفيروس. ومن خلال تتبّع معلومات المستخدمين مثل بيانات الصحة والموقع الجغرافي، واستخدام تقنية التعرّف على الوجه المدعوم بالذكاء الاصطناعي، يمكن لهذه الأدوات فرض التباعد الاجتماعي. وقد بدأت الصين تجربة جماعية في استخدام البيانات لتنظيم حياة المواطنين باستخدام تطبيقٍ يملي عليهم ما إذا كان ينبغي عزلهم أو السماح لهم بالدخول إلى المراكز التجارية والأماكن العامة. ومثلها تعمل الولايات المتحدة على جمع البيانات ومراقبتها من شركات تكنولوجيا كبيرة مثل فيسبوك وغوغل تحت عنوان رسم خريطة انتشار الفيروس.

لكنّ أدوات التتبّع والرقابة هذه، يترتّب عليها آثار أخلاقية. فاستخدام الذكاء الاصطناعي لتحديد من يغادر منزله يمكن أن يؤدي إلى شكل من أشكال انتهاك الخصوصية، وإخضاع بعض المجتمعات للمزيد من القيود. وقد يستدعي إلى الذهن فكرة بناء نموذج ذكي أشبه بـ “الشرطة التنبؤية” في المستقبل. وليس من الواضح كيف ستستخدم الدول والحكومات هذه الأنواع من الذكاء الاصطناعي. فالتتبّع قد يستمر حتى بعد انقضاء أزمة الفيروس، ما يعني المزيد من الرقابة، كما أنّ احتمالات مخاطر سوء الاستخدام وإلغاء الخصوصية ستكون عالية.

ومع استمرار الوباء في التأثير على الأفراد والمجتمعات، يمكن للذكاء الاصطناعي المساعدة في تحسين الاستجابة الطبية والحد من انتشار “كوفيد 19″، لكن ينبغي إدراك أنّ التركيز على الاستخدام المسؤول والمنصف لهذه التقنية هو الأولوية على المدى الطويل، وعلينا أن لا نتجاهل ذلك أو نتغافل عنه.

نشرة فهم البريدية
لتبقى على اطلاع دائم على كل ما هو جديد مما تقدمه منصة فهم، انضم لنشرتنا البريدية.
باحث في مجال الذكاء الاصطناعي. كاتب تقني. يرتكز عمله المهني على توفير المهارات الإستراتيجية لدعم وفهم تقنية الذكاء الاصطناعي في المنطقة العربية. أنجز العديد من الدراسات والمقالات العلمية في الذكاء الاصطناعي، وتركّز أبحاثه على التأثير الحقيقي لهذه التقنية في مختلف المجالات.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *