لماذا أخلاقيات الذكاء الاصطناعي؟
١٠ يوليو ٢٠٢٥
KoçDigital
• Dr. Ayşegül Turupcu, Öykü Zeynep Bayramoğlu
في عصر البيانات الضخمة، يتم تشكيل المجتمع من خلال تحليل البيانات وتطبيقاتها. لقد غيّر علم البيانات والذكاء الاصطناعي عالمنا بالفعل، ومن الضروري تقييم تأثير هذه التطبيقات من حيث تأثيرها على القيم المجتمعية. يجب تقييم السلبيات والإيجابيات من حيث الإطار والمنهجية والتأثير. هذه التطبيقات أصبحت بالفعل جزءًا من حياتنا اليومية، وتشمل مجالات مثل التصنيع، البيع بالتجزئة، التمويل، الرعاية الصحية، الموارد البشرية والتوظيف، خدمة العملاء، الزراعة، والتعليم.
بسبب هذه المخاوف، نشأ مجال دراسي يُعرف باسم "أخلاقيات الذكاء الاصطناعي". ومن بين الخصائص الأساسية التي يجب أن تمتلكها تطبيقات الذكاء الاصطناعي الأخلاقي:
الخصوصية والأمان
أصبح من الصعب حماية الخصوصية وأمان المعلومات الشخصية والتجارية الحساسة مع انتشار أنظمة الذكاء الاصطناعي. تهدف هذه المبادئ إلى إعلام المستخدمين بكيفية ولماذا سيتم استخدام بياناتهم وتخزينها.
الشفافية
رغم أن أنظمة الذكاء الاصطناعي تساعد الشركات بشكل كبير في اتخاذ القرارات، إلا أنه من الضروري شرح مكونات النظام والغرض من استخدام مخرجاته عند إصدار الأحكام.
المتانة والسلامة
يجب أن تعمل أنظمة الذكاء الاصطناعي بشكل ثابت وآمن في الظروف المتوقعة وغير المتوقعة. يجب أن يشمل تصميم النظام اختبارات قبل النشر وصيانة بعد النشر لضمان الأداء الموثوق والمستقر.
التنوع والعدالة
يجب أن تعزز أنظمة الذكاء الاصطناعي التنوع والمشاركة والشمول، وتضمن سماع جميع الأصوات، ومعاملة الجميع على قدم المساواة، وحماية العدالة الاجتماعية. على سبيل المثال، عند استخدام الذكاء الاصطناعي في الرعاية الصحية أو طلبات القروض أو التوظيف، يجب أن تقدم نفس التوصيات للأشخاص الذين لديهم نفس الأعراض أو الظروف المالية أو المهارات المهنية.
المساءلة
مصممو ومنفذو أنظمة الذكاء الاصطناعي مسؤولون عن كيفية عمل أنظمتهم. يشمل ذلك تطوير معايير لحماية البيانات وتحديد وتخفيف المخاطر المحتملة، وهي مسؤوليات تقع على عاتق المؤسسات لضمان المساءلة.
ما الذي تم إنجازه؟
وقّعت المفوضية الأوروبية، إلى جانب 36 دولة عضو في منظمة التعاون الاقتصادي والتنمية (OECD) بالإضافة إلى الأرجنتين والبرازيل وكولومبيا وكوستاريكا وبيرو ورومانيا، على مبادئ الذكاء الاصطناعي الخاصة بالمنظمة.
النهج القائم على الثقة هو المفتاح لتحقيق "التنافسية المسؤولة"، من خلال توفير الأساس الذي يمكن لجميع الأطراف التي تستخدم أو تتأثر بأنظمة الذكاء الاصطناعي أن تثق في أن تصميمها وتطويرها واستخدامها قانوني وأخلاقي وقوي.
ورغم أن هذه المبادئ ليست ملزمة قانونيًا بعد، إلا أن مبادئ منظمة التعاون الاقتصادي والتنمية أثبتت تأثيرها الكبير في وضع المعايير الدولية ومساعدة الحكومات على صياغة التشريعات الوطنية.
ماذا عن الشركات؟
أخلاقيات الذكاء الاصطناعي ليست مجرد فضول أكاديمي، بل هي ضرورة للشركات.
الشركات التي تفشل في تطبيق أخلاقيات البيانات والذكاء الاصطناعي محكوم عليها بالفشل في تقنياتها.
وللتغلب على ذلك، تحتاج الشركات إلى معايير أخلاقية، وتحديد المخاطر الأخلاقية، وخطط للتخفيف منها على مستوى المؤسسة.
إن عدم تطوير ممارسات تنظيمية داخل المؤسسات يؤدي إلى فقدان ثقة العملاء والمستهلكين والموظفين.
وفقًا لمسح تنفيذي أجرته مؤسسة Capgemini Research حول أخلاقيات الذكاء الاصطناعي في عام 2020:
- 71٪ من العملاء يريدون أن تكون أنظمة الذكاء الاصطناعي أكثر شفافية وقابلة للتفسير
- 67٪ يتوقعون من الشركات المطورة للذكاء الاصطناعي أن تتحمل المسؤولية عن أي آثار سلبية
- 66٪ يتوقعون أن تكون النماذج عادلة وغير متحيزة
- يبحث العملاء عن ذكاء اصطناعي جدير بالثقة
ماذا أنجزنا في KoçDigital حتى الآن؟
في عام 2021، أنشأت KoçDigital مبادئها الخاصة استنادًا إلى المبادئ التوجيهية الأخلاقية للذكاء الاصطناعي الجدير بالثقة الصادرة عن المفوضية الأوروبية.
ولتقييم مدى قابلية تطبيق هذه المبادئ على مشاريع الذكاء الاصطناعي، قمنا بإعداد دليل تقييم المخاطر الأخلاقية للذكاء الاصطناعي للشركات في عام 2022 بعد تحليل شامل لأساليب تقييم تأثير الذكاء الاصطناعي.
الهدف الرئيسي من هذا الدليل هو تحديد ملف المخاطر والتأثير للمشروع واتخاذ خطوات استباقية لتقليل المخاطر.
وكخطوة مكملة، قمنا بتطوير عملية إدارة الذكاء الاصطناعي الجدير بالثقة على مستوى المؤسسة، والتي تهدف إلى تعزيز التواصل التنظيمي ومراقبة المخاطر طوال دورة حياة المشروع.

