Wie schützen wir demokratische Wahlen vor KI-gestützter Manipulation?

Im Superwahljahr 2024 erfahren Deepfakes und Co. große Aufmerksamkeit. Die Sorge: Die mithilfe von generativer Künstlicher Intelligenz (KI) erstellten falschen Bilder, Filme und Audios könnten die individuelle Wahlentscheidung beeinflussen. Ihr tatsächlicher Einfluss auf den Ausgang von Wahlen ist zwar bislang nicht erwiesen. Expertinnen und Experten der Plattform Lernende Systeme fordern dennoch, der Einflussnahme auf politische Prozesse und Meinungsbildung durch KI vorzubeugen. Denn allein der Versuch der Desinformation untergrabe das Vertrauen in demokratische Institutionen. Ein aktuelles Whitepaper beleuchtet anhand konkreter und möglicher Beispiele die Bedeutung generativer KI für Wahlen und Demokratie. Empfohlen werden etwa Herkunftsnachweise für KI-generierte Inhalte sowie die Stärkung von KI-bezogenen Medienkompetenzen.

Im laufenden Jahr ist mehr als die Hälfte der Weltbevölkerung in über 40 Ländern aufgerufen, ihre Stimme abzugeben – neben der US-Präsidentschaftswahl im November stehen beispielsweise in Deutschland im September noch Landtagswahlen in drei Bundesländern an. Versuche, mit Fake News auf die Meinungsbildung in der Bevölkerung einzuwirken, sind dabei kein neues Phänomen. Mithilfe von generativer KI erreichen die Möglichkeiten zur Einflussnahme jedoch neue Dimensionen. KI-Tools ermöglichen es einer viel größeren Zahl an Menschen, gefälschte oder manipulative Materialien in rasant steigender Qualität zu erstellen. Die Autorinnen und Autoren des Whitepapers KI im Superwahljahr« verweisen auf ein »allmählich entstehendes Ökosystem der Desinformation«, in dem Online-Plattformen eine bedeutende Rolle bei der Verbreitung der künstlich erstellten Des- oder Missinformation spielten.

»Generative KI kann täuschend echt Fotos, Videos und Stimmen von realen Personen künstlich erzeugen und manipulieren. Politikerinnen und Politikern können auf diese Weise Aussagen in den Mund gelegt werden, die sie nie gesagt haben. Kürzlich hat zum Beispiel in den USA ein mit KI gefakter Joe Biden bei potenziellen Wählern angerufen und Ratschläge zum Wahlverhalten gegeben«, veranschaulicht Jessica Heesen, Mitautorin des Whitepapers und Leiterin des Forschungsschwerpunkts Medienethik, Technikphilosophie und KI an der Eberhard Karls Universität Tübingen.

Neben böswilligen Manipulationsversuchen kann generative KI auch unabsichtlich auf die politische Meinungsbildung einwirken. Fehlinformationen etwa, die Sprachmodelle aktuell noch durch deren technische Limitationen produzieren, können Einfluss auf demokratische Wahlen haben: Recherchen haben im Vorfeld von deutschen Landtagswahlen ergeben, dass ChatGPT und Co. mitunter falsche Informationen zu Kandidatinnen und Kandidaten, Wahlprogrammen oder Rahmenbedingungen der Wahl abgeben.

Ob und zu welchem Grad der Ausgang von Wahlen tatsächlich mithilfe von generativer KI manipuliert werden kann, kann derzeit aufgrund unzureichender Daten noch nicht beantwortet werden. Doch KI-basierte Desinformation müsse nicht zwangsläufig einen messbaren Einfluss auf Wahlergebnisse haben, um ins Blickfeld politischer Akteure zu rücken. Allein der Versuch der Einflussnahme gehe nicht mit demokratischen und journalistischen Standards konform und trage nicht dazu bei, die gesellschaftliche Spaltung der letzten Jahre zu überwinden, heißt es im Whitepaper.

»Insgesamt kann durch KI ein generelles Misstrauen gegenüber Bildern und der Medienberichterstattung entstehen. Dieses Klima des Misstrauens ist schädlich für Demokratie und Meinungsbildung. Darüber hinaus können beispielsweise Populisten davon profitieren und sogar bei wahrer Berichterstattung behaupten, sie wäre falsch und ein Deepfake. Hier spricht man von einer ‚Lügnerdividende‘«, so Heesen, Co-Leiterin der Arbeitsgruppe IT-Sicherheit und Privacy, Recht und Ethik der Plattform Lernende Systeme.

Die Autorinnen und Autoren empfehlen deshalb, dass politische und zivilgesellschaftliche Akteure die Möglichkeiten der Einflussnahme sorgfältig beobachten und ihnen präventiv entgegenwirken. So sollten dabei sowohl technische Maßnahmen ergriffen werden, etwa mit Wasserzeichen, die einen KI-generierten Inhalt transparent und nachverfolgbar kennzeichnen, als auch gesellschaftliche Anstrengungen unternommen werden, beispielsweise die Medien- und KI-Kompetenzen in der Bevölkerung zu steigern.

Logo: Schriftzug "BLOG" mit stilisiertem Steinbock auf dem plattgedrückten Buchstaben O