UE rămâne ferm: AI Law, în ciuda imprimării în hol pe curs!

EU bleibt beim Zeitplan für AI-Regulierung trotz Widerstand von großen Tech-Firmen. Kategorien basierend auf Risikoniveau.
UE rămâne programul pentru reglementarea AI, în ciuda rezistenței marilor companii de tehnologie. Categorii pe baza nivelului de risc. (Symbolbild/WOM87)

UE rămâne ferm: AI Law, în ciuda imprimării în hol pe curs!

EU, Europa - Ce se întâmplă în lumea inteligenței artificiale? Uniunea Europeană rămâne hotărâtă să -și aplice regulamentul pentru AI, așa cum a fost planificat, în ciuda activităților intensive ale lobby -ului a peste 100 de companii de tehnologie. Conform it zilnic , presiunea unor jucători mari, cum ar fi alfabet, meta, mistral AI și ASML este notat care ar dori noii reguli care să fie postponed. Dar Comisia UE nu poate fi oprită și se lipește de programul său. Un mecanism „stop-the-clock” nu este la vedere, după cum subliniază purtătorul de cuvânt al UE, Thomas Regnier.

Această reglementare se bazează pe o abordare bazată pe riscuri care împarte aplicațiile AI în diferite categorii de risc. Odată clasificate, cerințele sunt clar definite: sistemele care sunt clasificate drept „risc inacceptabil” (risc inadmisibil) sunt complet interzise. Aceasta include, de exemplu, manipularea cognitivă a comportamentului și a notării sociale. Aceste măsuri sunt destinate să împiedice grupurile vulnerabile.

Categorii de risc de reglementare AI

Divizia în „risc ridicat” și „risc limitat” aduce cu sine o reglementare diferențiată pentru aplicațiile AI. Sistemele cu risc ridicat sunt supuse unor reglementări stricte. Aceasta include, de exemplu, sistemele biometrice și utilizarea AI în domenii esențiale precum educația și lumea muncii. Producătorii de Hoch-Risiko-Ki trebuie să-și înregistreze sistemele și să le monitorizeze pe larg de la dezvoltare la companie. Lista reglementată este adaptată continuu din cauza noilor cunoștințe.

ca Europarl care trebuie să fie un risc minim, de asemenea unul, de asemenea, o evaluare . Acest lucru arată intenția mai profundă în spatele actului AI, și anume pentru a crea un cadru armonizat pentru sistemele AI și, în același timp, să surprindă riscuri nerecunoscute. Aplicațiile care sunt utilizate în infrastructuri critice sau în sucursale sensibile, cum ar fi aplicarea legii și accesul la servicii sunt în special afectate

transparență și supraveghere

Una dintre caracteristicile esențiale ale actului AI este introducerea cerințelor de transparență. AI generativă, la fel ca sistemele cunoscute, nu se încadrează sub categoria cu risc ridicat, dar totuși trebuie să respecte cerințele pentru dezvăluirea conținutului generat de AI. Ca DetailsOrtEU, EuropaQuellen