كتب – محمد عبد الظاهر
كيف نضمن أن يعكس سلوك تقنيات الذكاء الاصطناعي قيمنا داخل المجتمع؟
الحكومات مسؤولة عن صياغة أخلاقيات ضابطة ” للذكاء الاصطناعي”
كتب – محمد عبد الظاهر
” هل تعلم أن هناك دائمًا أشباح في عقول “الروبوت “، تمثل مجموعة من الأكواد والمقاطع العشوائية تتجمع سويا لتشكل بروتوكولات غير متناسقة، تثير التساؤلات حول إرادتهم الحرة وقدرتهم على الإبداع، وحتى ما يمكن أن نُسمية بالروح البشرية داخل تلك الآلات، لا يمكن السيطرة عليها بشكل كامل.”
هذه ليست معلومة علمية، لكنها مقطع من فيلم ويل سميث الشهير ” Rogue Robot”، فهل شاهدت من قبل أحد أفلام سلسلة ” RoboCop” أو سلسلة أفلام ” Transforms” الأمريكية.
وهل شعرت فعلًا أن هناك خوفا شديدا من تنامي قوة الــ” روبوت” مقارنة بقوة البشر، ماذا لو حلت الآلات محل الإنسان في كل حياته اليومية، هل هناك قواعد تحكم تلك التقنيات الحديثة، وما هي طبيعة التشريعات التي يمكن أن تحد من القوة المفرطة سواء “ذهنية أو عضلية لو صح تسميتها” لتلك الآلات. وإذا أعتقد البعض أن أغلب تقنيات الذكاء الاصطناعي هي شر خالص، فيكف يمكن التحكم فيه بطريقة أخلاقية وتشريعية توجه لخير البشرية؟
هل تسألت من المسؤول عن مقتل “أشخاص” تحت عجلات السيارات ذاتية القيادة، أو كيف نُحاسب الروبوت المتسبب في خطأ طبي أثناء العمليات الجراحية؟
وماذا لو تم القبض على “روبوت” أثناء عملية سطو مسلح على أحد البنوك؟
وفقا لتقريرٍ صدر مؤخرًا عن “القمة العالمية للحكومات ” بالتعاون مع “ديلويت”، حول تأثير أخلاقيات الذكاء الاصطناعي داخل القطاع الحكومي، أكد التقرير ” أنه على الرغم من الإنجازات الكبيرة التي حققتها تقنيات الذكاء الاصطناعي إلا أنه الحكومات تواجه بعض التحديات حول كيفية تطبيق تكنولوجيا الذكاء الاصطناعي في القطاع العام وفي استراتيجيات الحوكمة، وهل هناك قواعد أخلاقية او تشريعية التي يمكن ان تضبط تلك التقنيات.”
التطور طويل الأمد “خطر”؟
أشار التقرير أيضًا إلى أنه على الرغم من الإنجازات الكبيرة التي حققها للذكاء الاصطناعي إلا أنه أثار بعض القلق، وتتحدث عنه وسائل الإعلام فهل يمكن للتطوير طويل الأمد للذكاء الاصطناعي أن يؤدي إلى نهاية البشرية كما توقع إيلون ماسك، وبيل غيتس، وكما يرى بعض خبراء التكنولوجيا؟
ما هو دور الأخلاقيات في تصميم وتطوير وتطبيق الذكاء الاصطناعي؟ كيف يمكن للأخلاقيات المساعدة بتحقيق أكبر استفادة ممكنة من الذكاء الاصطناعي؛ لتعزيز جودة حياة المواطنين والصالح العام؟
وأشار التقرير إلى أن أثار ظهور الذكاء مجموعة القضايا الأخلاقية المتعلقة بالجوانب المعنوية والقانونية والاقتصادية والاجتماعية لمجتمعاتنا، حيث يواجه المسؤولون الحكوميون تحديات وخيارات
متعلقة بكيفية تطبيق تكنولوجيا الذكاء الاصطناعي في القطاع العام، وفي استراتيجية الحوكمة، بداية من حالات الوفيات الناجمة عن سيارات ” أوبر” ذاتية القيادة، وصولا إلى أداة التوظيف المتحيزة جنيسا التابعة لــ” أمازون” .فأننا
نجد أنفسنا أمام عدد وفير من الأمثلة حول المخاوف الأخلاقية التي تُعزز فكرة أنه يجب أخذ هذه المخاوف بعين الاعتبار قبل نشر أنظمة الذكاء الاصطناعي.
ويتضمن ذلك ضرورة أن تفهم الحكومات وقيادات الشركات ما هو المقصود بالـــ” القيم الجيدة” بالنسبة للذكاء الاصطناعي، والوصول إلى إجماع مجتمعي حول أخلاقيات الذكاء الاصطناعي الذي يمثل أحد المهام الرئيسية للحكومات.
الفجوة كبيرة
التقرير أشار إلى ان هناك فجوة كبيرة كيفية أن نستخدم نحن الذكاء الاصطناعي؟ وبين ما يجب أن يُستخدم من أجله؟ . لذا يجب على الحكومات أن تطور البيئة التنظيمية إلى جانب الذكاء الاصطناعي الذي يحدث تغييرات جذرية سريعة في عالمنا.
ويتوجب على الحكومات والمؤسسات العامة البدء بتحديد القضايا الأخلاقية والتداعيات المجتمعية للذكاء الاصطناعي، وغيره من التكنولوجيا ذات الصلة قبل استخدامها، حيث ينقسم الهدف إلى شقين:
أولا: إدارة مخاطر الذكاء الاصطناعي بشكل مناسب ضمن الحكومة للوصول إلى قطاع يعززه الذكاء الاصطناعي.
ثانيا: تطوير سياسات ذكية لتنظيم الذكاء الاصطناعي بطرق ذكية وضمان ان يعود بالفائدة على المجتمع والاقتصاد.
حيث يجب أن يعكس سلوك تقنيات الذكاء الاصطناعي القيم المجتمعية، حيث يمثل تحقيق الإجماع المجتمعي حول أخلاقيات الذكاء الاصطناعي أحد المهام الرئيسية للحكومات.
وكشف استبيان أجرته “ديلويت” في الولايات المتحدة مؤخرا، على عدد 1,400 من المسؤولين التنفيذيين واسعي الاطلاع على شؤون الذكاء الاصطناعي، كشف أن أحد أكبر التحديات التي تواجه الذكاء الاصطناعي تكمن في المجال الأخلاقي.
حيث صنف 32% من المشاركين القضايا الأخلاقية على أنها أحد أهم ثلاثة مخاطر يُمثلها الذكاء الاصطناعي، في حين لا تمتلك معظم المؤسسات مقاربات محددة للتعامل مع موضوع أخلاقيات الذكاء الاصطناعي حتى الآن. على سبيل المثال، كيف يمكننا ضمان أن تقوم أنظمة الذكاء الاصطناعي بخدمة الصالح العام عوضا خدمة مصالح الأفراد؟
الاعتبارات الأخلاقية
هل يمكن وضع اعتبارات وقيم أخلاقية ثابتة تُؤخذ بعين الاعتبار عند عمل تقنيات الذكاء الاصطناعي في القطاع الحكومي، أو التعامل المباشر مع الجمهور؟
حدد تقرير ” ” خمسة اعتبارات أخلاقية يجب التعامل معها عند انخراط تقنيات الذكاء الاصطناعي في القطاع الحكومي وهي:
أولا: الجوانب التنظيمية والحوكمة: ما هي مبادئ الحوكمة التي يجب على الحكومات اعتمادها كجزء من اللوائح الاستباقية؟ كيف يمكننا إتاحة تطوير تطبيقات الذكاء الاصطناعي لخدمة الصالح العام؟ ما هو الوضع الأخلاقي لآلات الذكاء الاصطناعي؟ ما هي الخصائص التي يجب توافرها في الآلة؟ كيف يمكننا إضفاء الشفافية على عمليات نشر ز في قرارات ّخوارزميات الذكاء الاصطناعي لمنع برمجة التحي الآلة؟
ثانيا: الشرعية وعدم التنصل: فكيف يمكننا ضمان شرعية تقنيات الذكاء الاصطناعي الذي تتفاعل معه؟ كيف التأكد ما إذا كانت بيانات التدريب شرعية أم لا؟
ثالثا: السلامة والأمن: هل يضمن الذكاء الاصطناعي علما لهندسة السلامة لوكلاء الذكاء الاصطناعي؟ كيف نضمن بأن الآلات لا تضر البشر؟ من سيقوم بتغطية الأضرار التي تُسببها الآلات؟
رابعا: الأثر الاجتماعي-الاقتصادي: كيف يمكننا الحد من خسارة الوظائف الناجمة عن الذكاء الاصطناعي في بيئة العمل؟ هل هي المخاطر الاجتماعية والأخلاقية للتصنيف التنبؤي؟ هل تصل البشرية إلى مرحلة لا يوجد فيها عمل نتيجة الاصطناعي؟
خامسا : الأخلاق: هل نمتلك الحق بتدمير الروبوتات؟ هل نعتبرها ملك للأفراد أم هل هي جزء من الثروة العامة؟ ماذا لو طورت الروبوتات/الذكاء الاصطناعي آراءها الخاصة حول المشكلات؟
مبادرات أخلاقية
جميع تلك التساؤلات، والمخاوف، والمعتقدات أثارت التفكير في العديد من المبادرات حول العالم، لوضع إطار أخلاقي ضابط لتقنيات الذكاء الاصطناعي، وما قد ينجم عنها من أضرار للبشر ومنها:
المؤسسات الأكاديمية
تهدف مبادرة “أخلاقيات وحوكمة الذكاء الاصطناعي” ( Ethics and Governance of AI) التي أطلقها مركز “بيركمان كلاين” التابع لكلية هارفرد للقانون بالتعاون مع مختبر الوسائط التابع لمعهد ماساتشوستس للتكنولوجيا
بقيمة 27 مليون دولار أمريكي، إلى وضع قواعد قانونية وأخلاقية جديدة للذكاء الاصطناعي وغيره من أنواع التكنولوجيا القائمة على الخوارزميات المعقدة.
القطاع الخاص
صممت عدة شركات تكنولوجية برامج تدعم الذكاء الاصطناعي كأداة لإيجاد مجتمع أفضل. على سبيل المثال، تهدف مبادرة الذكاء الاصطناعي للصالح الاجتماعي ” AI for Social ” من جوجل ، ومنحة “الذكاء الاصطناعي للصالح العام ” AI for Good” بقيمة 110 مليون دولار من ميكروسوفت .
إلى تمويل برامج الذكاء الاصطناعي التي تدعم المشاريع الإنسانية وإمكانية الوصول والبيئة. وخصصت “مايكروسوفت” أخيرا 50 مليون دولار مؤخرا لبرنامج “الذكاء الاصطناعي من أجل الأرض” لمواجهة التغير المناخي.
القطاع العام
أعلن عدد متزايد من الدول عن إطلاق إرشادات أخلاقية للذكاء خلال فترة قصيرة من الوقت. وفي ديسمبر 2018 أطلقت المفوضية الأوروبية، مدعومة من مجموعة من الخبراء رفيعي المستوى المسودة الأولي من الإرشادات الأخلاقية ” Ethics Guidelines ” لتطوير واستخدام الذكاء الاصطناعي. وفي الوقت ذاته أطلقت كندا “إعلان مونتريـال للذكاء الاصطناعي “، وهي وثيقة تهدف إلى توجيه الأفراد والمؤسسات والحكومات فيما يخص اتخاذ خيارات مسؤولة وأخلاقية عند إنشاء واستخدام تكنولوجيا الذكاء الاصطناعي.
الإمارات رائدة
وضمن الجهود العالمية لوضع تشريعات وقيم أخلاقية تضبط تقيات الذكاء الصناعي والثورة الصناعية الرابعة، أطلقت دولة الإمارات ” مختبر التشريعات” الأول من نوعه عالميًا، ويعد من أكبر مختبرات تخطيط المستقبل بشكل استباقي من خلال تطوير آليات وتشريعات المستقبل كالذكاء الاصطناعي والتنقل الذكي ذاتي القيادة، وغيرها، وله منصة للتعاون مع مؤسسة دبي للمستقبل تجمع بين العاملين في القطاع التشريعي في الجهات الاتحادية والمحلية والخاصة لمراجعة التشريعات واقتراح الجديد منها.
Twitter: @mohamabdulzaher
Linkedin: @Mohamed Abdulzaher