UE pozostaje niezłomne: prawo AI pomimo lobby drukowania na kursie!

EU bleibt beim Zeitplan für AI-Regulierung trotz Widerstand von großen Tech-Firmen. Kategorien basierend auf Risikoniveau.
UE pozostaje harmonogramem regulacji AI pomimo oporu dużych firm technologicznych. Kategorie oparte na poziomie ryzyka. (Symbolbild/WOM87)

UE pozostaje niezłomne: prawo AI pomimo lobby drukowania na kursie!

EU, Europa - Co się dzieje w świecie sztucznej inteligencji? Unia Europejska pozostaje zdeterminowana, aby egzekwować swoje regulacje dla AI zgodnie z planem, pomimo intensywnych działań w lobbach ponad 100 firm technologicznych. Według codziennie presja dużych graczy, takich jak Alphabet, Meta, Mistral AI i Asml, jest zauważalna, że ​​nowe zasady byłyby postponowane. Ale Komisji UE nie można odłożyć i trzymać się jej harmonogramu. Nie ma w zasadzie mechanizmu „stop-clock”, jak podkreśla rzecznik UE Thomas Regnier.

Niniejsze rozporządzenie opiera się na podejściu opartym na ryzyku, które dzieli zastosowania AI na różne kategorie ryzyka. Po sklasyfikowaniu wymagania są jasno zdefiniowane: systemy, które są klasyfikowane jako „niedopuszczalne ryzyko” (niedopuszczalne ryzyko) są całkowicie zabronione. Obejmuje to na przykład manipulację poznawczą zachowania i punktacji społecznej. Środki te mają na celu zapobieganie obraniu grup wrażliwych.

Kategorie ryzyka regulacji AI

Podział na „wysokie ryzyko” i „ograniczone ryzyko” przynosi zróżnicowaną regulację dla zastosowań AI. Systemy wysokiego ryzyka podlegają ścisłym przepisom. Obejmuje to na przykład systemy biometryczne i wykorzystanie sztucznej inteligencji w podstawowych obszarach, takich jak edukacja i świat pracy. Producenci Hoch-Risiko-Ki muszą zarejestrować swoje systemy i szeroko monitorować je od rozwoju do firmy. Lista regulowana jest stale dostosowywana z powodu nowej wiedzy.

Like Europarl które muszą być minimalnym ryzykiem, a także jedna ocena może zostać poddana. To pokazuje głębszą intencję ustawy AI, a mianowicie stworzenie zharmonizowanej ramy dla systemów AI, a jednocześnie uchwycić nieokiełznane ryzyko. Szczególnie dotknięte są aplikacje wykorzystywane w infrastrukturze krytycznej lub w wrażliwych oddziałach, takie jak organy ścigania i dostęp do usług

Przejrzystość i nadzór

Jedną z podstawowych cech ustawy AI jest wprowadzenie wymagań dotyczących przejrzystości. Generatywne AI, podobnie jak znane systemy, nie spadają poniżej kategorii wysokiego ryzyka, ale nadal musi spełniać wymagania dotyczące ujawnienia zawartości generowanej przez AI. Jako DetailsOrtEU, EuropaQuellen