تعد شركة قوقل احد الشركات الأولى التي استخدمت الذكاء الإصطناعي وتعلم الآلة في منتجاتها و هي أكثر الشركات تقدما في العالم في مجالات وعلوم الذكاء الإصطناعي . نشرت الشركة عام ٢٠١٨ المبادئ الأساسية ( الغير تقنية ) التي تستند عليها الشركة في تطوير تقنيات الذكاء الإصطناعي .
1-النفع العام (socially beneficial)
تصميم الذكاء الاصطناعي وخوارزمياته يجب ان يكون الهدف منه و الاحتمالات الممكنة للاستخدام تصب بشكل عام في مصلحة الجميع وأن الفائدة لأغلب الناس تتجاوز المضار . هذه الفكرة تتماشى مع التوجه الاجتماعي الأوروبي والشرقي وتتعارض مع الجانب الفردي ( زيادة المصلحة الفردية ) المهمين على الرأس مالية الأمريكية. وفي هذا دلالة على توجه عالمي لشركة قوقل يتقبل من الجميع. كما أنها بهذا المبدأ استبعدت الشركة فكرة تطوير أسلحة باستخدام الذكاء الإصطناعي.
2- تجنب الانحياز غير العادل ( Avoid creating or reinforcing unfair bias )
وهذه مشكلة تواجهها معظم خوارزميات تعلم الآلة حيث تعتمد بشكل كبير على البيانات . وفي حال كون البيانات كانت منحازة لفئة معينة من الناس او لتوجه معين او بعض الأحيان لعرق معين فإنه ينبغي بذل مجهود لتجنب التداعيات غير العادلة على الفئة المتضررة . مثال: بعض تقنيات التعرف على الوجه قد تفشل في التعرف على ذوي البشرة السوداء لعدم وجود تمثيل لهم في البيانات المستخدمة في تدريب خوارزميات الذكاء الإصطناعي. و تؤكد شركة قوقل على أهمية التنوع في مصادر البيانات من قبل مجمعي البيانات و التنوع العرقي لتجنب الانحياز الظالم والذي قد يظلم عرقيات معينة او بضر بفئة معينة من الناس في قرارات مصيرية مثل الوظيفة او تشخيص مرض معين
3- السلامة أولا ( built and tested for safety )
تقنيات الذكاء الإصطناعي الحديثة بالتعلم العميق (deep learning) تعمل بشكل فعال لكن لا يوجد تفسير كامل لسبب عملها وقد تفشل بالقليل من التلاعب المتعمد (adversarial attacks). وبما أنه هذه التقنيات يتم استخدامها بشكل كبير في تطبيقات مختلفة وسيتم استخدامها بشكل أكبر في المستقبل . فلذلك هناك خطر عالي في الأنظمة التي تستخدم تلك التقنيات وتعتمد عليها حياة البشر مثل تشخيص الأمراض . لذلك تشجع قوقل البناء الآمن و القوى لخوارزميات الذكاء الإصطناعي لتجنب -أو على الأقل تقليل- الخطر على السلامة.
4- تحمل المسؤولية ( Be accountable to people )
تظهر هذه المشكلة في التطبيقات التي تمس حياة البشر بشكل مباشر , مثل القيادة الذاتية للسيارات . حيث انه قد تسبب خوارزميات الذكاء الإصطناعي حوادث مميتة في المستقبل ( رغم عملها الفعال في معظم الحالات ). من سيتحمل المسؤولية حينها؟ تؤكد قوقل على دور العلماء في تحمل مسؤولية ما يصنعونه وما سيترتب عليه من تأثير مباشر ( ضار او نافع ) على حياة الملايين من الأشخاص
5- الخصوصية كجزء أساس (Incorporate privacy design principles )
بعد فضيحة فيسبوك واستغلالها بيانات المستخدمين بشكل غير قانوني, طفت على السطح قضية الخصوصية وأنه من الضروري بناء تطبيقات تحمي خصوصية المستخدمين وظهر قانون حماية خصوصية البيانات في أوروبا (GDPR) . تظهر مشكلة الخصوصية جليا في خوارزميات الذكاء الإصطناعي التي تحتاج بيانات كبيرة وتلجأ بعض الشركات لبيانات المستخدمين ( او حتى بيانات مفتوحة لكن غير مصرحة ) لتدريب الخوارزميات واستخدامها لأغراض تجارية دون الرجوع لأصحاب هذه البيانات .. وذلك يعد خرقا للقانون و لخصوصية الناس .
6- الالتزام بالمعايير العلمية ( scientific excellence)
الطريقة العلمية التي تعتمد على تحري الحقائق والتعاون البحثي ونشر المعلومات تعد أهم قواعد شركة قوقل في مجال الذكاء الإصطناعي حيث لا ينبغي للمطورين و العلماء الخروج عن المهنية او احتكار جانب علمي معين مما لا يتماشى مع المعايير العلمية العالية المتبعة في المجال الأكاديمي.يشمل ذلك تحري المعلومة قبل نشرها و عدم ادعاء سبق علمي أو التهويل الإعلامي لبحث معين دون التمحيص المتبع في أفضل المنشورات العلمية .
7- نشر العلم للجميع ( Be made available )
تعد النقطة السابعة محور صعب حيث تضع شركة قوقل على عاتقها نشر كافة التقنيات وتوفيرها للجميع في حال التزامهم بالقواعد الست الماضية. ذلك يعني فتح البيانات ونشر البرمجيات و فتحها للجميع ليستفيدوا منها ويطورو عليها . يعد هذا توجه عالمي حيث ينشر الجميع على موقع GitHub لكن ما تزال كثير من الشركات تحتفظ بتقنياتها البرمجية لنفسها او تسجل براءة اختراع عليها . التزام قوقل بهذه القاعدة صعب لأنه يعني فقدان الامتياز الناتج عن اكتشافات جديد قد تفيد الشركة ماديا في مواجهة المنافسين مثل فيسبوك و مايكروسوفت و أمازون.
لمصدر الصفحة الخاصة بالمبادئ انظر هنا
لقواعد قوقل التقنية المتبعة في تعلم الآلة انظر هنا