يبقى الاتحاد الأوروبي صامدًا: قانون الذكاء الاصطناعي على الرغم من طباعة اللوبي في المسار!

EU bleibt beim Zeitplan für AI-Regulierung trotz Widerstand von großen Tech-Firmen. Kategorien basierend auf Risikoniveau.
يظل الاتحاد الأوروبي هو الجدول الزمني لتنظيم الذكاء الاصطناعي على الرغم من مقاومة شركات التكنولوجيا الكبيرة. الفئات القائمة على مستوى المخاطر. (Symbolbild/WOM87)

يبقى الاتحاد الأوروبي صامدًا: قانون الذكاء الاصطناعي على الرغم من طباعة اللوبي في المسار!

EU, Europa - ما الذي يحدث في عالم الذكاء الاصطناعي؟ لا يزال الاتحاد الأوروبي مصمماً على تطبيق تنظيمه من أجل الذكاء الاصطناعى كما هو مخطط له ، على الرغم من أنشطة اللوبي المكثفة لأكثر من 100 شركة تكنولوجيا. وفقًا لـ ، فإن الضغط على القواعد الجديدة ، على ما بعد ذلك ، فإن الضغط على اللاعبين الكبار مثل الأبجدية ، meta ، mistral ai و asml. لكن لا يمكن تأجيل لجنة الاتحاد الأوروبي والتمسك بجدولها الزمني. آلية "التوقف على مدار الساعة" ليست في الأفق ، كما يؤكد المتحدث باسم الاتحاد الأوروبي توماس ريجنييه.

يعتمد هذا التنظيم على نهج قائم على المخاطر يقسم تطبيقات الذكاء الاصطناعي إلى فئات مخاطر مختلفة. بمجرد تصنيفها ، يتم تعريف المتطلبات بوضوح: يتم حظر الأنظمة التي يتم تصنيفها على أنها "خطر غير مقبول" (خطر غير مقبول) تمامًا. ويشمل ذلك ، على سبيل المثال ، التلاعب المعرفي بالسلوك والتسجيل الاجتماعي. تهدف هذه التدابير إلى منع المجموعات الضعيفة.

فئات المخاطر من لائحة الذكاء الاصطناعى

التقسيم إلى "المخاطر العالية" و "المخاطر المحدودة" يجلب معه تنظيمًا متبايلاً لتطبيقات الذكاء الاصطناعي. تخضع الأنظمة عالية الخطورة للوائح الصارمة. ويشمل ذلك ، على سبيل المثال ، أنظمة القياس الحيوي واستخدام الذكاء الاصطناعي في المجالات الأساسية مثل التعليم وعالم العمل. يجب على الشركات المصنعة لـ Hoch-Risiko-KI تسجيل أنظمتها ومراقبتها على نطاق واسع من التطوير إلى الشركة. يتم تكييف القائمة الخاضعة للتنظيم بشكل مستمر بسبب المعرفة الجديدة.

مثل Europarl يجب أن يكون هناك مخاطر واحدة أيضًا ، يمكن أيضًا تقييم واحد. هذا يدل على النية الأعمق وراء قانون الذكاء الاصطناعى ، أي لإنشاء إطار منسق لأنظمة الذكاء الاصطناعى وفي الوقت نفسه التقاط مخاطر فاشلة. تتأثر التطبيقات المستخدمة في البنى التحتية الحرجة أو في الفروع الحساسة مثل إنفاذ القانون والوصول إلى الخدمات بشكل خاص

الشفافية والإشراف

إحدى الميزات الأساسية لقانون الذكاء الاصطناعي هي إدخال متطلبات الشفافية. لا تنخفض الذكاء الاصطناعى التوليدي ، مثل الأنظمة المعروفة ، عن الفئة المعرضة للخطر ، ولكن لا يزال يتعين عليه الامتثال لمتطلبات الكشف عن المحتوى الذي تم إنشاؤه من الذكاء الاصطناعي. كـ DetailsOrtEU, EuropaQuellen