دراسة سعودية تحذر من خطورة الذكاء الاصطناعي وآثاره السلبية

أصدر الباحث السعودي إبراهيم المسلم دراسة لحوكمة الذكاء الاصطناعي والحد من مخاطره وآثاره السلبية، وقسَّمت الدراسة الذكاء الاصطناعي إلى مستويات؛ بعضها حقيقي وبعضها خيالي، تبدأ بالضعيف على غرار السيارة ذاتية القيادة، والعام غير المحصور في مجال معين مثل المُنظار الآلي في مجالات الأبحاث، والقوي القادر على محاكاة وظائف المخ البشري، والخارق المتفوق على الذكاء البشري في شتى المجالات على غرار روبوتات أفلام الخيال العلمي.
ولخصت الدراسة مخاطر الذكاء الاصطناعي التي قد تنجم عن مراحل ثلاث في دورة حياة التقنية؛ هي مرحلة التطوير والأخطاء أثناء بناء الأنظمة وقياس أدائها وأمنها، ومرحلة التطبيق وأخطار سوء الاستخدام، ومرحلة المخاطر الناجمة عن التبني واسع النطاق.
وسلطت الدراسة الضوء على انحياز الذكاء الاصطناعي، مُصنِّفةً الانحياز بأنه صفة بشرية، ولأن الذكاء الاصطناعي يحاكي الذكاء البشري عن طريق التعلم من البيانات المُدخلة له، فإنه سيرث منه عيوبه، وفي حال تضمُّن البيانات على عنصرية أو طبقية أو تمييز جنسي، فإن أنظمة الذكاء الاصطناعي ستعزز هذه الأفكار.
وأوصت الدراسة بضرورة اتخاذ إجراءات مهمة؛ تجنب البيانات المحمية قانونياً مثل تجنب استخدام بيانات العرق أو الديانة أو الجنس، وفرض دراسة الانحياز لدى طلب الدعم المادي في المقترحات البحثية أو المشروعات الحكومية، ومنح شهادات اعتماد من مؤسسات حكومية أو جمعيات تؤكد وتثبت اتباع الشركات أو المنتجات لأفضل الممارسات والمعايير.
كما دعت لسن قوانين إلزامية لتكوين إطار تنظيمي ملائم لاستخدام أنظمة الذكاء الاصطناعي يُحتَكم إليه في حال وجود أي ممارسات إقصائية أو منحازة، وتعليم المُطوِّرين وتثقيفهم بأخلاقيات الذكاء الاصطناعي ليصبحوا قادرين على تمييز انحيازهم وآرائهم الشخصية ومنع وجودها في الأنظمة، مع مراعاة التمثيل العادل والمتساوي في فِرق المُطوِّرين للحد من الانحيازات الفردية.
وللتصدي لمخاطر الأنظمة الذاتية غير المتوقعة، ترى الدراسة ضرورة فرض تأمين إجباري على الشركات المُصنِّعة لمنتجات تتضمن أنظمة ذاتية، وفرض دراسة المخاطر عند طلب الدعم المادي في المقترحات البحثية أو المشروعات الحكومية، وتبني التقنيات تدريجياً لإتاحة الفرصة لاختبارها على نطاق مصغر، والاستفادة من خبرات المُصنِّعين والمُتخصِّصين بأمن الطيران، والاستفادة من المجالات العلمية الحساسة مثل الأمن السيبراني، والاختبارات المُكثَّفة للنظم الذاتية، ودراسة عواقب كل قرار ناتج عنها.

0
قم بتقييم هذا المحتوى

إضافة تعليق جديد

التحقق البصري
This question is for testing whether or not you are a human visitor and to prevent automated spam submissions.
Image CAPTCHA