
In Deutschland stehen Wahlen bevor, und es kursieren zahlreiche Falschbehauptungen über Politiker und Parteien in sozialen Netzwerken. Dies zeigt sich unter anderem in einem Vorfall, bei dem der Grünen-Politiker Konstantin von Notz auf der Plattform X die Echtheit eines AfD-Wahlplakats in Frage stellte. Das Plakat, das ein Flugzeug mit blitzartigen Symbolen vor den Turbinen zeigt, wurde von vielen als problematisch eingestuft, da die Symbole als Siegrunen der SS identifiziert wurden. Laut den Informationen von tagesschau.de ist das AfD-Plakat jedoch echt, die Symbole wurden nicht absichtlich hinzugefügt. Die Illustration stammt von der Bildagentur Getty Images, die das Bild als „Passagierflugzeug startet von Start- und Landebahn – Vektor Illustration“ beschreibt. Auf Anfragen zu den Symbolen reagierte die AfD nicht.
Des Weiteren wurde ein KI-generiertes Video der AfD Brandenburg veröffentlicht, in dem der SPD-Gesundheitsminister Karl Lauterbach von Polizisten abgeführt wird. Lauterbach selbst kritisierte das Video als hasserfüllt und diffamierend gegenüber politischen Gegnern. Ein weiteres Beispiel für irreführende Darstellungen ist ein Bild einer Kindergartengruppe, das von der AfD Mayen-Koblenz mit dem Hinweis auf Polizeischutz geteilt wurde. Die Polizei Unterfranken stellte jedoch klar, dass es sich um einen Besuch der Kindergartengruppe auf der Polizeidienststelle handelte und nicht um eine spezifische Schutzmaßnahme. Zudem kursierte eine falsche Grafik, die behauptete, Bundespräsident Frank-Walter Steinmeier habe gesagt, die Wahl könne annulliert werden, wenn rechte Parteien gewinnen. Tatsächlich äußerte Steinmeier in seiner Rede zur Auflösung des Bundestags keine solche Andeutung.
KI-generierte Bilder zur Propaganda
Ein weiterer Aspekt, der im Zusammenhang mit der AfD beobachtet wurde, ist die gezielte Nutzung von KI-generierten Bildern zur Schürung von Fremdenhass. Laut watson.ch verbreiten AfD-Politiker erfundene Szenen, um fremdenfeindliche Klischees zu propagieren. Insbesondere AfD-Fraktionsvize Norbert Kleinwächter hat KI-generierte Bilder veröffentlicht, die wütende Migranten zeigen. Er bezeichnete diese Bilder als Karikaturen und äußerte Dankbarkeit für die Technologie, die es ermöglicht, politische Meinungen zu illustrieren und stereotype Darstellungen zu bedienen.
In einer weiteren bemerkenswerten Entwicklung erstellt der AfD-Bundestagsabgeordnete Roger Beckamp gezielt Fake-Bilder zu Straftaten, die oft nicht als KI-Bilder gekennzeichnet sind. Die fortschrittlichen KI-Bildgeneratoren, wie Midjourney, ermöglichen die Erstellung fotorealistischer Bilder aus kurzen Beschreibungen. Die AfD nutzt dabei auch freie Bilddatenbanken, ohne zu überprüfen, ob diese KI-generierte Inhalte enthalten. Bilddatenbanken wie Shutterstock bieten mittlerweile ebenfalls KI-generierte Fotos an, was die Erkennung dieser Bilder in sozialen Medien erschwert.