أنت تقرأ الآن:

ريادة في وضع “المعايير”.. هل ينجح الاتحاد الأوروبي في إصدار قوانين تحكم الذكاء الاصطناعي؟

ريادة في وضع “المعايير”.. هل ينجح الاتحاد الأوروبي في إصدار قوانين تحكم الذكاء الاصطناعي؟

في منتصف الشهر الماضي، بدأت دول الاتحاد الأوروبي خطواتها الأولى في وضع تشريعات ولوائح تمكّنها من السيطرة على الذكاء الاصطناعي، لأنه يثير كثيرًا من الأسئلة الاجتماعية والأخلاقية والاقتصادية. فإذا كانت تطبيقات الذكاء الاصطناعي تملك القدرة على إنتاج كلمات الأغاني وتقديم المساعدة في كتابة أكواد البرمجة وغير ذلك في مختلف المجالات، فهذا أيضا قد خلق مخاوف بشأن نشر المعلومات المضللة والتحيز وانتهاك الخصوصية.

بسبب هذه المخاوف، صوَّت البرلمان الأوروبي موافقًا على تشريعات اقترحت للمرة الأولى عام 2021 بشأن تقنين تكونولوجيا الذكاء الاصطناعي لتتحول إلى قانون نافذ. أخذ الاتحاد الأوروبي على عاتقه تطوير استراتيجيات للسيطرة على التطور المتسارع للذكاء الاصطناعي مثل روبوت المحادثة تشات جي بي تي الذي يحمل فوائد يمكن الاستفادة منها للتطور البشري، لكنه أيضًا قد يشكّل مخاطر لا يمكن تخيلها في الوقت الحاضر.

يُقسِّم القانون المنتجات والخدمات التي تستخدم أنظمة الذكاء الاصطناعي إلى أربعة مستويات من المخاطر، يبدأ من الحد الأدنى إلى غير المقبول، مع الوضع في الاعتبار متطلبات أكثر صرامة وأعلى شفافية خصوصًا فيما يتعلق بمجالات التوظيف والتكنولوجيا الموجهة للأطفال.

بموجب القانون، يمكن للدول الأعضاء إجبار الشركات على سحب تطبيقاتها التي يُثبت مخاطرها، وفي حالات الانتهاكات القصوى، قد تُفرض غرامات تصل إلى 30 مليون يورو أو %6 من الإيرادات العالمية السنوية للشركة، والتي قد تصل في حالة شركات التكنولوجيا مثل جوجل و مايكروسوفت إلى المليارات.

السؤال هنا ما هي المخاطر المحتملة التي قد يحملها الذكاء الاصطناعي التي دفعت دول الاتحاد الأوروبي إلى اتخاذ خطوات يمكن وصفها بالجذرية؟ 

وضع الاتحاد الأوروبي قوانين صارمة في ما يخص استخدامات الذكاء الاصطناعي التي قد تضر بالصحة والسلامة، والحقوق والقيم الأساسية، على سبيل المثال: حظر استخدام الذكاء الاصطناعي الذي يحكم على الأشخاص بناء على سلوكهم أو ما يعرف بأنظمة التقييم الاجتماعي، كذلك منع استخدامه في الألعاب التفاعلية للأطفال التي تشجع على السلوك المؤذي عن طريق التلاعب اللاواعي بهم، واستبعاد أدوات الشرطة التي يمكنها التنبؤ بالأشخاص الذين من المحتمل أن يرتكبوا جرائم في المستقبل، والتضييق على استخدام التكنولوجيا التي تسمح بالتعرف على وجوه المواطنين من خلال قاعدة بيانات، ما قد يتحول إلى عملية مراقبة جماعية، وعدم تمكين الذكاء الاصطناعي من تقييم المواطنين خصوصًا في مجالات التوظيف والتعليم، حيث إنها تؤثر في مسار حياة الشخص لأنها قد تكون عُرضة للتحيز من خلال الخوارزميات. لكن يبدو أن هناك تعديلات واستثناءات قد مُرِّرت مثل السماح باستخدام الذكاء الاصطناعي في حالة البحث عن أطفال مفقودين أو منع تهديدات إرهابية.

ولكن، لماذا يسارع الاتحاد الأوروبي في اتخاذ كل هذه الإجراءات؟

لم يلحق الاتحاد الأوروبي بركاب الولايات المتحدة والصين باعتبارهما اللاعبين الأساسيين في تطوير الذكاء الاصطناعي، ولذلك كان عليه القيام بمجهودات ضخمة لتحديد اللوائح كي يتحول نموذجه إلى “معايير عالمية” تلتزم بها دول “ذات تفكير مماثل”، وباعتباره كذلك سوقًا مستهدفة لشركات التكنولوجيا، حيث يضم ما يقرب من 450 مليون مستهلك، وبالتالي يسهل على الشركات الامتثال لهذه القواعد بدلًا من تطوير منتجات مختلفة لمناطق مختلفة.

ومع ذلك، ما زالت القواعد الحالية تحتاج إلى مزيد من التعديلات للوصول إلى الصياغة النهائية. من المفترض أن تتفق الدول الأعضاء بشكل نهائي على القوانين بحلول نهاية العام الحالي، لتبدأ بعدها فترة انتقالية حوالي سنتين على الشركات التكيف خلالها وفق الاتفاق النهائي.

ومن ناحية أخرى، قد تصطدم هذه التشريعات بأرض الواقع، حيث قد لا تستطيع شركات الذكاء الاصطناعي الالتزام به. على سبيل المثال، يجب على هذه الشركات نشر جميع أعمال العلماء والموسيقيين والرسامين والمصورين والصحفيين التي استخدمت خلال فترة تدريب تطبيقات الذكاء الاصطناعي، وإثبات كل الخطوات التي اتبعوها، للمحافظة على حقوق النشر. وبنفس المنطق، لابد أن تلتزم فرنسا بمنع كاميرات التعرف المباشر للوجه لمراقبة جماهير الأوليمبياد التي تستضيفه العام المقبل.

من الواضح كذلك أن استثناءات عدم تطبيق هذه القوانين معتمدة على مبررات تبدو وجيهة، ومن المتوقع أن المشروع الطموح الذي يريد الاتحاد الأوروبي تنفيذه في نهاية هذا العام والانتهاء من كل تبعاته بعد ذلك بعامين لن يدخل حيز التنفيذ حتى نهاية عام 2026، وبالتالي عليه أن يجد اتفاقيات مؤقتة طوعية مع هذه الشركات.  

من الناحية العملية، فإن تطبيق القوانين ما زال يواجه تحديات صعبة في الوقت الحالي، وقد تتحول إلى  صراع مستمر بين رغبات الدول الأوروبية وطموح شركات الذكاء الاصطناعي، أو حتى انفجار خلافات داخل العائلة الأوروبية بسبب اختلاف التوجهات الداخلية لكل دولة، خصوصًا أن صراعًا دائرًا بين المعارضين لتكنولوجيا الذكاء الاصطناعي حفاظًا على الخصوصية، والمؤيدين لها حفاظًا على الأمن وضرورة اتخاذ “نهج أكثر واقعية”. وفي الوقت نفسه، قدّم رئيس الوزراء البريطاني، “ريشي سوناك” خطة لتحويل بلاده التي لا تنتمي حاليًّا للاتحاد الأوروبي إلى “الموطن الجغرافي” لتنظيم قوانين الذكاء الاصطناعي، ويرتب لعقد قمة عالمية حول الاستخدام الآمن لتطبيقاته. وبالتالي تحول تقنين تكنولوجيا الذكاء الاصطناعي إلى الصراع حول من يقود دفة وضع المعايير.

شارك هذا المقال

أضف تعليقك

لن يتم نشر عنوان بريدك الإلكتروني. الحقول المطلوبة محددة ب *

أدخل كلمات البحث الرئيسية واضغط على Enter