في خطوة غير مسبوقة، وافق الاتحاد الأوروبي على أول قانون عالمي ينظم استخدام تقنيات الذكاء الاصطناعي (AI). ينص هذا القانون على “قواعد شاملة” لاستخدام الذكاء الاصطناعي، بناءً على تقييم المخاطر المرتبطة بتطبيقاته في مجالات النقل الذاتي، الأجهزة الطبية، الخدمات المالية والتعليم.
وفقًا لتقرير نشرته CNBC، يتبنى القانون نهجًا تنظيميًا مبتكرًا يمنع استخدام الأنظمة المعروفة بـ “التصنيف الاجتماعي”، التي تقوم بتقييم المواطنين بناءً على تحليل بياناتهم. كما يحظر القانون استخدام النماذج التنبؤية لأغراض الشرطة وتقنيات التعرف على المشاعر في أماكن العمل والمدارس.
تشمل الأنظمة ذات المخاطر العالية، مثل السيارات الذاتية القيادة، والأجهزة الطبية، والخدمات المالية والتعليمية، والتي سيتم تقييمها لضمان عدم تهديدها لصحة المواطنين وسلامتهم وحقوقهم. بالإضافة إلى ذلك، يفرض القانون قيودًا صارمة على أنظمة الذكاء الاصطناعي التوليدية، مثل ChatGPT، حيث يتعين عليها الالتزام بقوانين حقوق النشر، وكشف المعلومات المتعلقة بتدريب النماذج، وإجراء اختبارات دورية للأمن السيبراني.
يأتي هذا التغيير في التشريعات بعد إطلاق شركة OpenAI لنظام ChatGPT في نوفمبر 2022، مما دفع المسؤولين الأوروبيين إلى إدراك أن القوانين القائمة تفتقر إلى التفاصيل الضرورية لتنظيم استخدام الذكاء الاصطناعي التوليدي في مواد محمية بحقوق النشر.
ومن المتوقع أن يدخل القانون حيز التنفيذ الكامل بعد 12 شهرًا، بينما ستحصل الأنظمة الحالية مثل ChatGPT وGemini وCopilot على فترة انتقالية مدتها 36 شهرًا للامتثال للمعايير الجديدة. وقد وصف ماثيو ميشيل، وزير الدولة البلجيكي للشؤون الرقمية، هذا القانون بأنه “مرحلة هامة للاتحاد الأوروبي”.
وسيتم تغريم الشركات التي تنتهك القانون بمبلغ يصل إلى 35 مليون يورو أو 7٪ من الإيرادات السنوية، مما سيؤثر بشكل رئيسي على عمالقة التكنولوجيا الأمريكيين مثل جوجل ومايكروسوفت وOpenAI. وعلقت ديسيسلافا سافوفا، رئيسة مجموعة السلع الاستهلاكية والتجزئة في الاتحاد الأوروبي، بقولها: “الآن يجب أن نركز على التنفيذ الفعال وضمان الامتثال لقانون الذكاء الاصطناعي”.
يهدف هذا القانون إلى تعزيز الثقة والشفافية والمساءلة في استخدام تقنيات الذكاء الاصطناعي، دون أن يعيق الابتكار في هذا المجال المتقدم.
البند | التفاصيل |
اسم القانون | قانون تنظيم الذكاء الاصطناعي |
موافقة | الاتحاد الأوروبي |
أهداف القانون | وضع قواعد شاملة لاستخدام تقنيات الذكاء الاصطناعي وتقييم المخاطر المرتبطة بتطبيقاته. |
الممنوعات | استخدام الأنظمة المعروفة بـ “التصنيف الاجتماعي”، النماذج التنبؤية لأغراض الشرطة، تقنيات التعرف على المشاعر في أماكن العمل والمدارس. |
الأنظمة ذات المخاطر العالية | السيارات الذاتية القيادة، الأجهزة الطبية، الخدمات المالية، والخدمات التعليمية. |
القيود على الأنظمة التوليدية | الالتزام بقوانين حقوق النشر، كشف المعلومات المتعلقة بتدريب النماذج، إجراء اختبارات دورية للأمن السيبراني. |
الانتقال الزمني | التنفيذ الكامل بعد 12 شهرًا، فترة انتقالية 36 شهرًا للأنظمة الحالية. |
العقوبات | غرامة تصل إلى 35 مليون يورو أو 7٪ من الإيرادات السنوية. |
تصريحات المسؤولين | “مرحلة هامة للاتحاد الأوروبي” – ماثيو ميشيل، التركيز على التنفيذ الفعال وضمان الامتثال – ديسيسلافا سافوفا. |
الهدف العام | تعزيز الثقة والشفافية والمساءلة في استخدام تقنيات الذكاء الاصطناعي دون عرقلة الابتكار في هذا المجال. |