ما يجب أن تعرفه عن الأخلاقيات في تصميم الذكاء الاصطناعي

الأحد 15 شعبان 1445ھ الأحد 25 فبراير 2024م
فيسبوك
تويتر
واتساب
تيليجرام
لينكدإن
المحتوى

يُعدّ مفهوم “الأخلاقيات من خلال التصميم” مفهوماً حديثاً، وهو نهجٌ لإدراج الاعتبارات الأخلاقية في عمليات تصميم وتطوير النظم والأجهزة التقنية الحديثة. وصحيحٌ أنه يمكن تطبيق هذا النهج على أي تقنية، إلا أن في هذه المقالة، نهدف إلى التركيز على أنظمة الذكاء الاصطناعي، ونحاول أن نناقش كيف نأخذ الأخلاق بعين الاعتبار في التصميم.

إنّ جذور مفهوم الأخلاقيات من خلال التصميم في علم الحاسوب يعود إلى عام 2010. والفكرة الرئيسية وراء ذلك، هي أنه قد يتيح جعل التكنولوجيا أخلاقية من خلال عملية تصميمها. وقد لاقى هذا المفهوم رواجاً في أوروبا عام 2019، لا سيما بعد قرار البرلمان الأوروبي بضرورة وضع سياسة ذكاء اصطناعي شاملة. وفي بحثٍ حول الدراسات السابقة التي تناولت هذا الموضوع، وجدنا أوراقاً، قدمت تعريفًا للأخلاق حسب التصميم، واقترحت مبادئ أخلاقية يمكن التركيز عليها، لكن لم يتمّ تقديم خارطة طريق لها، رغم أنها استعرضت بعض الأفكار التي قد توفّر أساسيات لبناء نهجٍ أخلاقي حسب التصميم.

۱. مسار التطبيق

تكمن الفرضية الرئيسية في أنّ خيارات التصميم ليست محايدة أخلاقياً، بل يمكن أن يكون لها تداعيات أخلاقية كبيرة. ومن المؤكد أن العديد من العواقب المترتبة على تقنيات الذكاء الاصطناعي تعتمد جزئيًا أو كليًا على كيفية استخدامها. ولكن، هذا لا ينفي أهمية التصميم حيث يمكن أن تولّد خياراته أحيانًا آثار سلبية عبر مجموعةٍ واسعةٍ من سياقات الاستخدام. فمثلاً التطبيقات المصمّمة لجمع ونشر المعلومات الشخصية تلقائيًا عن المستخدمين، دون موافقتهم الواضحة، يعدّ انتهاكاً للخصوصية. وتجدر الإشارة إلى أنّ فكرة إمكانية تضمين القِيَم في التصميم ليست جديدة في علم الحاسوب، حيث أنه يتفرّع منها فكرة الخصوصية. ومؤخرًا جرى تداول الشفافية عن طريق التصميم. وإلى جانب ذلك، هناك جانب الأمان حسب التصميم، وهو نهجٌ يتضمّن جوانب السلامة في الأنظمة.

توفّر الأخلاقيات حسب التصميم لمهندسي الذكاء الاصطناعي مهاماً محددة يجب إنجازها أثناء تطوير الأنظمة. لكنها لا تحدّد الكيفية التي ينبغي بها إنجاز تلك المهام، لأنّ ذلك سيتوقف على آليات التطبيق، وعلى قيام الشركات بذلك. ويلعب نهج الأخلاقيات حسب التصميم دوراً مهماً في تزويد المهندسين بطرق العمل بدلاً من مطالبتهم بالدخول فيما يشبه “المداولاتٍ الفلسفية” حول الأخلاقيات. إذ لا يمتلك المهندسون عمومًا مهارات التحليل الأخلاقي، وتقييم الإشكالات الأخلاقية والتخفيف منها، مثل التحيزات وغيرها. وهنا يأتي دور خبراء أخلاقيات الذكاء الاصطناعي الذي سبق وتناولناه في مقالةٍ سابقة.

۲. مخطط النهج الأخلاقي

نظرياً، ينصبّ التركيز في التطبيق، على إظهار القيم الأساسية اللازمة للتصميم لتلبية المعايير الأخلاقية، بدءًا من الخصوصية، وصولاً إلى الإنصاف. صحيحٌ أنّ العديد من المصطلحات الأخلاقية تعتبر فضفاضة، لكن هذا لا يمنع ضرورة وضع نهجٍ أخلاقي حسب التصميم لأنظمة الذكاء الاصطناعي يحدّد ما ينبغي القيام به. ولهذه الغاية، نضع مخططاً لكيفية استخدام الأخلاقيات في تصميم الأنظمة الذكية من خلال عدّة خطوات:

التقييم

:
يتم أولاً دراسة أهداف النظام على أساس القيم الأخلاقية الأساسية (كالخصوصية، وحوكمة البيانات، وغيرها). وفي حال تم انتهاك أي من هذه القيم، فإنّ الذكاء الاصطناعي -كما هو مُتصوَّر- يصبح بالفعل “غير أخلاقي”. وهنا، ينبغي إعادة النظر في الأهداف العامة للنظام.

الاستدلال

:
بعد ذلك، يتمّ تثبيت هذه القيم الأخلاقية على أنها خصائص ينبغي تضمينها في نظام الذكاء الاصطناعي. ويوفّر هذا متطلّبات التصميم الأخلاقية. وتعتمد كيفية تطوير هذه المتطلّبات على منهجية التطوير، وطبيعة النظام.

خارطة الطريق

:
تتضمن الخطوة الثالثة رسم خارطة الطريق لمتطلبات التصميم الأخلاقي التفصيلية، والتي تشتمل على إجراءاتٍ محددة يتعيّن اتخاذها أثناء عملية التصميم. بما في ذلك وظائف النظام، وهياكل البيانات، والتدابير التنظيمية. وفي بعض الحالات، قد تتطلّب المتطلبات الأخلاقية وظائف إضافية، على سبيل المثال: لتجنّب تحيّز الخوارزميات، يجب إجراء تقييم رسمي للتحيز للبيانات قبل استخدامها.

التطبيق

:
تكمن هذه الخطوة في تحديد المواضع التي سيتمّ التعامل فيها مع كل المتطلّبات الأخلاقية وكيفية تطبيقها. ويعكس ذلك نهج الأخلاقيات حسب التصميم، من خلال تقديم نموذجٍ عام تُترجَم فيه القيم فعلياً إلى متطلّبات خاصة بالذكاء الاصطناعي. وبالتالي، ستحتاج معظم الشركات إلى إعادة تنظيم عمليات التطوير الخاصة بها. على سبيل المثال، قد تحتاج أنظمة التحكم في الإصدار إلى تعديل لتتبّع القضايا الأخلاقية. ومثل هذا التغيير، سيكون له تأثيرات إيجابية، إذا ما تمّ تشجيع المطورين على قيادة هذه التغييرات.
أمّا الخطوة الأخيرة فهي تتمثّل في تنفيذ بروتوكولات الأخلاقيات حسب التصميم على أنظمة الذكاء الاصطناعي.
لقد حاولنا من خلال هذه المقالة تقديم شرحٍ موجزٍ لنهج الأخلاقيات حسب التصميم لتطوير أنظمة الذكاء الاصطناعي. ويحدّد المخطط الذي اقترحناه أعلاه، الإجراءات التي ينبغي اعتمادها في مراحل مختلفة من تطوير الذكاء الاصطناعي، والتي لا بدّ لها أن تراعي عدداً من القِيَم على رأسها الخصوصية، والإنصاف، والمساءلة، وغيرها. ذلك أنّ فكرة الأخذ بعين الاعتبار للأخلاقيات خلال التصميم هو نهجٌ لا غنى عنه وتُعتبَر نقطة مركزية في أخلاقيات الذكاء الاصطناعي.
نشرة فهم البريدية
لتبقى على اطلاع دائم على كل ما هو جديد مما تقدمه منصة فهم، انضم لنشرتنا البريدية.
باحث في مجال الذكاء الاصطناعي. كاتب تقني. يرتكز عمله المهني على توفير المهارات الإستراتيجية لدعم وفهم تقنية الذكاء الاصطناعي في المنطقة العربية. أنجز العديد من الدراسات والمقالات العلمية في الذكاء الاصطناعي، وتركّز أبحاثه على التأثير الحقيقي لهذه التقنية في مختلف المجالات.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *