7 مبادئ أساسية للذكاء الإصطناعي من شركة قوقل

الأربعاء 27 رجب 1440ھ الأربعاء 3 أبريل 2019م
فيسبوك
إكس
واتساب
تيليجرام
لينكدإن
سبعة مبادئ أساسية للذكاء الإصطناعي من شركة قوقل

755 كلمة

8 دقائق

المحتوى

تعد شركة قوقل احد الشركات الأولى التي استخدمت الذكاء الإصطناعي وتعلم الآلة في منتجاتها و هي أكثر الشركات تقدما في العالم في مجالات وعلوم الذكاء الإصطناعي . نشرت الشركة عام ٢٠١٨ المبادئ الأساسية ( الغير تقنية ) التي تستند عليها الشركة في تطوير تقنيات الذكاء الإصطناعي .

1-‏النفع العام (socially beneficial)

تصميم  الذكاء الاصطناعي وخوارزمياته يجب ان يكون الهدف منه و الاحتمالات الممكنة للاستخدام تصب بشكل عام في مصلحة الجميع وأن الفائدة لأغلب الناس تتجاوز المضار . هذه الفكرة تتماشى مع التوجه الاجتماعي الأوروبي والشرقي وتتعارض مع الجانب الفردي ( زيادة المصلحة الفردية ) المهمين على الرأس مالية الأمريكية. وفي هذا دلالة على توجه عالمي لشركة قوقل يتقبل من الجميع. كما أنها بهذا المبدأ استبعدت الشركة فكرة تطوير أسلحة باستخدام الذكاء الإصطناعي.

2- تجنب الانحياز غير العادل ( ‏Avoid creating or reinforcing unfair bias )

وهذه مشكلة تواجهها معظم خوارزميات تعلم الآلة حيث تعتمد بشكل كبير على البيانات . وفي حال كون البيانات كانت منحازة لفئة معينة من الناس او لتوجه معين او بعض الأحيان لعرق معين فإنه ينبغي بذل مجهود لتجنب التداعيات غير العادلة على الفئة المتضررة . مثال: بعض تقنيات التعرف على الوجه قد تفشل في التعرف على ذوي البشرة السوداء لعدم وجود تمثيل لهم في البيانات المستخدمة في تدريب خوارزميات الذكاء الإصطناعي.  و تؤكد شركة قوقل على أهمية التنوع في مصادر البيانات من قبل مجمعي البيانات و التنوع العرقي لتجنب الانحياز الظالم والذي قد يظلم عرقيات معينة او بضر بفئة معينة من الناس في قرارات مصيرية مثل الوظيفة او تشخيص مرض معين

face1
بعض تقنيات الذكاء الإصطناعي تفشل وتنحاز في نتائجها لانحياز البيانات المستخدمة في تدريب هذه الخوارزميات. ذلك قد يضر ويظلم بعض العرقيات.

3- السلامة أولا ( built and tested for safety )

تقنيات الذكاء الإصطناعي الحديثة بالتعلم العميق (deep learning) تعمل بشكل فعال لكن لا يوجد تفسير كامل لسبب عملها وقد تفشل بالقليل من التلاعب المتعمد (adversarial attacks). وبما أنه هذه التقنيات يتم استخدامها بشكل كبير في تطبيقات مختلفة  وسيتم استخدامها بشكل أكبر في المستقبل . فلذلك هناك خطر عالي في الأنظمة التي تستخدم تلك التقنيات وتعتمد عليها حياة البشر مثل تشخيص الأمراض . لذلك تشجع قوقل البناء الآمن و القوى لخوارزميات الذكاء الإصطناعي لتجنب -أو على الأقل تقليل- الخطر على السلامة.

4- تحمل المسؤولية ( Be accountable to people )

تظهر هذه المشكلة في التطبيقات التي تمس حياة البشر بشكل مباشر , مثل القيادة الذاتية للسيارات . حيث انه قد تسبب خوارزميات الذكاء الإصطناعي حوادث مميتة في المستقبل ( رغم عملها الفعال في معظم الحالات ). من سيتحمل المسؤولية حينها؟ تؤكد قوقل على دور العلماء في تحمل مسؤولية ما يصنعونه وما سيترتب عليه من تأثير مباشر ( ضار او نافع ) على حياة الملايين من الأشخاص

self driving car accident
في 2018 حصل حادث مميت لسيارة تسلا بوضع ذاتية القيادة و قدد تتكرر مثل هذه الحوادث مستقبلا. من يتحمل مسؤولية الحادث ؟ شركة تسلا أم شركة تقنية القيادة الذاتية , أم شركة الأجهزة , أم مهندس التصميم؟

5- الخصوصية كجزء أساس (Incorporate privacy design principles )

بعد فضيحة فيسبوك واستغلالها بيانات المستخدمين بشكل غير قانوني, طفت على السطح قضية الخصوصية وأنه من الضروري بناء تطبيقات تحمي خصوصية المستخدمين وظهر قانون حماية خصوصية البيانات في أوروبا (GDPR) .  تظهر مشكلة الخصوصية جليا في خوارزميات الذكاء الإصطناعي التي تحتاج بيانات كبيرة وتلجأ بعض الشركات لبيانات المستخدمين ( او حتى بيانات مفتوحة لكن غير مصرحة ) لتدريب الخوارزميات واستخدامها لأغراض تجارية دون الرجوع لأصحاب هذه البيانات .. وذلك يعد خرقا للقانون و لخصوصية الناس .

mark
في عام 2018 ظهرت فضيحة تسريب بيانات شركة فيس بوك وأدت إلى انتشار الوعي عن أهمية الخصوصية وظهور قانون حماية خصوصية بيانات المستهلك (GDPR) في أوروبا

6- الالتزام بالمعايير العلمية ( scientific excellence)

الطريقة العلمية التي تعتمد على تحري الحقائق والتعاون البحثي ونشر المعلومات تعد أهم قواعد شركة قوقل في مجال الذكاء الإصطناعي حيث لا ينبغي للمطورين و العلماء الخروج عن المهنية او احتكار جانب علمي معين مما لا يتماشى مع المعايير العلمية العالية المتبعة في المجال الأكاديمي.يشمل ذلك تحري المعلومة قبل نشرها و عدم ادعاء سبق علمي أو التهويل الإعلامي  لبحث معين دون التمحيص المتبع في أفضل المنشورات العلمية .

‏7- نشر العلم للجميع ( Be made available )

تعد النقطة السابعة محور صعب حيث تضع شركة قوقل على عاتقها نشر كافة التقنيات وتوفيرها للجميع في حال التزامهم بالقواعد الست الماضية.  ذلك يعني فتح البيانات ونشر البرمجيات و فتحها للجميع ليستفيدوا منها ويطورو عليها . يعد هذا توجه عالمي حيث ينشر الجميع على موقع GitHub لكن ما تزال كثير من الشركات تحتفظ بتقنياتها البرمجية لنفسها او تسجل براءة اختراع عليها . التزام قوقل بهذه القاعدة صعب لأنه يعني فقدان الامتياز الناتج عن اكتشافات جديد قد تفيد الشركة ماديا في مواجهة المنافسين مثل فيسبوك و مايكروسوفت و أمازون.

لمصدر الصفحة الخاصة بالمبادئ انظر هنا

لقواعد قوقل التقنية المتبعة في تعلم الآلة انظر هنا

نشرة فهم البريدية
لتبقى على اطلاع دائم على كل ما هو جديد مما تقدمه منصة فهم، انضم لنشرتنا البريدية.
باحث في جامعة أوكسفورد في بريطانيا، حاصل على الدكتوراة والماجستير في مجال رؤية الحاسب والذكاء الإصطناعي من جامعة كاوست، بكالوريوس هندسة كهربائية من جامعة الملك فهد للبترول والمعادن، أحب الابتكار والتقنية وريادة الأعمال.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *