Neulich erreichte mich ein besorgniserregender Brief: Ein politisch interessierter Bürger schrieb mir, er habe im Internet gelesen, Ukrainerinnen und Ukrainer könnten in Deutschland früher in Rente gehen – Frauen mit 57,5 und Männer mit 60 Jahren. Für deutsche Staatsbürgerinnen und Staatsbürger werde dahingegen ein Rentenalter von 70 Jahren diskutiert, beklagte er sich. Zwischen den Zeilen schwebte der Wunsch, ich möge das ändern. Doch niemand kann in dieser Sache etwas ändern – denn es ist nicht wahr.
Die Deutsche Rentenversicherung hält auf ihrer Website fest: »Immer wieder wird in sozialen Netzwerken fälschlicherweise behauptet, dass geflüchtete Menschen aus der Ukraine in Deutschland bereits mit Mitte 50 in Rente gehen könnten. Dies trifft nicht zu.« Für geflüchtete Menschen aus der Ukraine gelten dieselben Regelungen wie für deutsche Staatsbürger. Das ist die gute Nachricht für jenen Briefschreiber. Die schlechte ist: Er ist auf Fake News hereingefallen. Das ist es, was Sorge bereiten muss. Desinformationen wie diese haben das Potenzial, unseren gesellschaftlichen Zusammenhalt zu schwächen – und das nicht nur in Deutschland.
Fast die Hälfte der Weltbevölkerung ist in diesem Jahr bereits zur Wahl aufgerufen gewesen oder hat noch die Möglichkeit zu wählen. In Indien, Großbritannien, Frankreich beispielsweise haben die Menschen schon gewählt. Auch für das Europaparlament haben wir bereits unsere Stimmen abgegeben. In Deutschland stehen Landtagswahlen in Sachsen, Thüringen und Brandenburg an. Und auch die Präsidentschaftswahlen in den USA sind für uns von großem Interesse. 2024 ist ein echtes Superwahljahr.
Auf welcher Grundlage treffen die Menschen ihre Wahlentscheidung? Wie und wo informieren sie sich, wem vertrauen sie? Das Internet und die sozialen Medien sind dabei – neben vielen wichtigen Informationen – auch immer wieder eine Quelle für Desinformationen. Und die Mittel der Desinformation befinden sich in einem schnellen Wandel. Es geht nicht mehr nur um Fake News oder manipulierte Bilder. Die Künstliche Intelligenz (KI) eröffnet ganz neue Möglichkeiten. Noch nie war es so einfach, sogenannte Deep-Fakes – also authentisch wirkende Videos oder Audiodateien etwa von Politikerinnen und Politikern – zu erstellen. Völlig automatisiert werden diese Fälschungen dann in unvorstellbarer Menge und unglaublicher Geschwindigkeit über die sozialen Netzwerke verbreitet.
Während sich die Werkzeuge der Desinformation stetig weiterentwickeln, ist deren Ziel dasselbe geblieben: Unsicherheit soll sich breit machen. Meist durch Themen, die in einer Gesellschaft emotional debattiert werden. Wer bei seinen Gefühlen gepackt wird, denkt weniger nach – und schaltet schneller um auf Hass oder gar Gewalt.
Kaum verwunderlich also, dass der anfangs erwähnte Briefschreiber gerade auf diese Fake News hereingefallen war: Es ging um scheinbare rentenrechtliche Ungerechtigkeiten. Die finanzielle Absicherung im Alter ist ein Thema, das viele Menschen besorgt. Kein Zufall ist auch, dass die Fake News sich gegen Menschen richten, die aus der Ukraine zu uns geflohen sind. Dahinter steckt offensichtlich die Absicht, in Deutschland Ressentiments gegen Ukrainerinnen und Ukrainer zu schüren und unsere Unterstützung für ihren Verteidigungskrieg gegen Russland zu schwächen.
Das gibt einen Hinweis darauf, wer ein Interesse daran haben könnte, solche falschen Nachrichten bewusst zu verbreiten. Häufig sind es Hackergruppen, die im Auftrag ausländischer Staaten handeln. Sie wollen westliche Gesellschaften erschüttern, Angst und Zwietracht säen und die Bürgerinnen und Bürger am Staat und seinen Institutionen zweifeln lassen.
Vielen ist diese Bedrohung durch Desinformation bereits bewusst. Laut einer aktuellen Studie der Bertelsmann-Stiftung meinen 84 Prozent der Menschen in Deutschland, dass absichtlich verbreitete Falschinformationen im Internet ein »großes oder sogar sehr großes Problem für unsere Gesellschaft« bedeuten. 81 Prozent der Menschen sehen darin eine Gefahr für die Demokratie und den Zusammenhalt der Gesellschaft. Auch die Experten des Weltwirtschaftsforums schätzen in ihrem Bericht über globale Risiken Fehl- und Desinformationen als das größte kurzfristige Risiko ein. Sie sehen einen Zusammenhang zwischen Desinformation und gesellschaftlichen Unruhen bei Wahlen.
Tatsächlich haben Nicht-Regierungsorganisationen beispielsweise den Einsatz von russischen Hackergruppen bei Wahlen in ganz Europa festgestellt. Noch hält sich ihr Einfluss in Grenzen: »Die Schlacht gegen Desinformation wurde gewonnen«, urteilte das European Digital Media Observatory (EDMO) über die Europawahl in diesem Jahr.
Doch der Kampf gegen Desinformation geht weiter. Das zeigt ein Beispiel aus der Slowakei. Kurz vor den dortigen Wahlen im Oktober 2023 tauchten auf Facebook Audiodateien auf. Darauf zu hören war scheinbar der liberale Kandidat Michal Šimečka im Gespräch mit einer Journalistin. Sie unterhielten sich angeblich darüber, wie die Wahlen gefälscht werden könnten. Es war das Werk einer KI, die im Auftrag von Unbekannten die Stimmen imitierte. Diese Fälschung verbreitete sich rasend schnell, auch weil in der Slowakei 48 Stunden vor dem Beginn einer Wahl Wahlkampfstille gilt und eine Richtigstellung somit kaum möglich war. Am Ende gewann der Konkurrent von Šimečka, der prorussische Kandidat, die Wahl.
Nun sind manche sicher versucht, Künstliche Intelligenz zu verteufeln. KI an sich ist aber nicht böse oder manipulativ. »Jede Technologie kann missbraucht werden«, bringt es Mozilla-Chef Mark Surman auf den Punkt. Wie bei jedem Werkzeug ist die entscheidende Frage, welche Absichten diejenigen haben, die es verwenden. Bereits jetzt wird KI auch dafür eingesetzt, Desinformationen zu entlarven.
Künstliche Intelligenz unterstützt Menschen, Informationen einzuschätzen. Sie ist in der Lage, große Datenmengen in kürzester Zeit zu verarbeiten und zu analysieren – sie kann etwa Unregelmäßigkeiten in Mustern erkennen oder die Metadaten von Aufnahmen auswerten. Am Forschungszentrum Informatik in Karlsruhe zum Beispiel wird das Projekt »DeFaktS« entwickelt. Dabei lernt eine KI, charakteristische Aspekte und Stilmittel von Fake News und Desinformation zu erkennen. Am Ende des Projekts soll die KI in eine App integriert werden, die Userinnen und User vor Fake News in sozialen Medien oder Messenger-Diensten wie Whatsapp oder Telegram warnt.
Desinformation, Fake News und Verschwörungstheorien werden sich nicht verhindern lassen – auch nicht mithilfe von KI. Wir müssen uns also dagegen wappnen. Zum einen, indem wir neue Regeln einführen. Auf EU-Ebene sind die Anfänge gemacht: mit dem Gesetz über digitale Dienste, das große Plattformen und Suchmaschinen verpflichtet, gegen illegale Inhalte vorzugehen und Grundrechte zu schützen. Und mit dem AI-Act, dem weltweit ersten Gesetz zur Regulierung von künstlicher Intelligenz. Es schreibt vor, dass KI-Anwendungen etwa nicht zur Manipulation von Bürgerinnen und Bürgern missbraucht werden dürfen. Zudem verpflichtet es, künstlich erzeugte Inhalte wie Audiodateien, Videos oder Bilder transparent zu kennzeichnen.
Zum anderen müssen wir die Kultur unserer politischen Debatten noch stärker in den Blick nehmen. Wissenschaft und Qualitätsjournalismus haben klare Standards. Dazu gehört es etwa, Quellen für Informationen transparent zu benennen. Das ist wichtig für das Gespräch im Freundeskreis genauso wie für die Debatte im Parlament: Werden diese Kriterien nicht eingehalten, müssen wir das thematisieren.
Hin und wieder werde ich in Briefen gebeten, eine Art Faktencheck für Bundestagsreden einzuführen – vielleicht per KI. Doch KI allein wäre nicht in der Lage, diese Aufgabe zu übernehmen. Wir Parlamentarierinnen und Parlamentarier müssen in der Debatte dagegenhalten können und dann auch wirklich dagegenhalten, wenn Desinformationen verbreitet werden. Die Rolle der Medien ist es, Reden im Nachhinein auf Fehler und Desinformationen abzuklopfen.
Selbst das beste Gesetz kann aber nicht ersetzen, dass wir unseren eigenen Verstand nutzen. Jede und jeder von uns ist Multiplikator – vor allem im Netz. Bevor wir eine Nachricht teilen, müssen wir kontrollieren: Ist diese Nachricht wirklich glaubwürdig? Dafür ist digitale Allgemeinbildung wichtig.
Nur wer um die Gefahr von Desinformation weiß, wer echte Nachrichten erkennt und im Zweifel Nachrichten überprüfen kann – etwa per Quellen-Check – ist gegen Desinformation gewappnet. Deshalb ist klar: Wir alle müssen uns innerlich rüsten. KI birgt Gefahren, kann aber auch eine Chance sein im Kampf gegen Desinformationen. Wir müssen auf verschiedenen Ebenen ansetzen, um das Vertrauen von Wählerinnen und Wählern zu erhalten und die Integrität von Wahlprozessen zu schützen.