AmbergTechnologie

Gefährliche Täuschungen: Wie KI unsere Realität bedroht!

Die rasante Entwicklung der Künstlichen Intelligenz (KI) hat in den letzten Jahren sowohl neue Möglichkeiten als auch bedeutende Risiken mit sich gebracht. Ein aktuelles Forschungsprojekt der Ostbayerischen Technischen Hochschule (OTH) Amberg-Weiden in Zusammenarbeit mit dem Landesamt für Sicherheit in der Informationstechnik (LSI) zielt darauf ab, die Herausforderungen der Cybersicherheit durch KI zu adressieren. Am 16. Januar 2025 wurde das Projekt mit dem Titel „HeCKI – Herausforderungen für die Cybersicherheit durch KI“ offiziell gestartet.

Finanz- und Heimatminister Albert Füracker gab den Startschuss an der OTH in Amberg. Ziel des Forschungsprogramms ist es, neuartige Bedrohungen durch KI systematisch zu identifizieren und zu bewerten, um darauf basierende Bildungsangebote zu entwickeln. Prof. Dr. Clemens Bulitta, Präsident der OTH Amberg-Weiden, betonte die Bedeutung von digitaler Souveränität sowie IT-Sicherheit für die digitale Transformation. Füracker wies dabei insbesondere auf die Dringlichkeit des Projekts hin, insbesondere in Bezug auf gefälschte Videos und Stimmen, die mit KI-Techniken erzeugt werden können.

Die Gefahren von Deepfakes

Deepfakes, manipulierte Videos, die mittels KI-Technologien erstellt werden, stellen eine erhebliche Bedrohung dar. Sie können täuschend echte Inhalte produzieren, die es scheinbar ermöglichen, dass Personen Aussagen oder Handlungen ausführen, die sie nie getätigt haben. Die Techniken, die hierbei verwendet werden, umfassen Face-Swapping und Face-Reenactment. Prominente Beispiele sind manipulierte Videos von Barack Obama und Tom Cruise, die nicht authentisch sind.

Laut einer Analyse der Risiken von Deepfakes gibt es mehrere Vorteile und Gefahren. Die Technologie ist frei zugänglich, was zu einer raschen Verbreitung beitragen kann. Zu den Gefahren zählen die Verbreitung von Fake News, die Identitätsdiebstahl und Erpressung ermöglichen, sowie die mögliche Manipulation von Wahlergebnissen durch falsche Reden von Politikern. Die sozialen Netzwerke verstärken diese Problematik, indem sie die schnelle Verbreitung solcher Inhalte fördern.

Das Erkennen von Deepfake-Videos ist herausfordernd, jedoch möglich. Anzeichen für manipulierte Inhalte können unnatürliche Bewegungen, Beleuchtungsunstimmigkeiten und fehlende Synchronität zwischen Stimme und Lippenbewegungen sein. Tools zur Erkennung, wie der Deepware Scanner und der Microsoft Video Authenticator, sind entscheidend, um zwischen echten und gefälschten Inhalten zu unterscheiden.

Abschließend ist eine Aufklärung über Deepfakes und deren verantwortungsvoller Umgang essentiell zur Stärkung der Medienkompetenz und zur Minimierung der Risiken, die diese Technologie mit sich bringt. Mehr über die Risiken und Möglichkeiten im Zusammenhang mit KI-Technologien kann in dem umfassenden Bericht von [Neumarkt Aktuell](https://www.neumarktaktuell.de/news/gefaehrliche-taeuschungen-und-deepfakes-neues-forschungsprojekt-der-oth-amberg-weiden-64112/16-01-2025) und [Gründer.de](https://www.gruender.de/kuenstliche-intelligenz/deepfake-ki-gefahren-erkennung/) nachgelesen werden.