Nutzen Sie diesen Button, um zwischen Hell- und Dunkelmodus zu wechseln.

KI-generierte Desinformationen: Die Suche nach der Wahrheit

Künstliche Intelligenz (KI) hat in den letzten Monaten in vielen Bereichen große Fortschritte gemacht – von der Automatisierung industrieller Prozesse bis hin zur Entwicklung von Sprachassistenten wie ChatGPT. KI-Modelle können heute detailgetreue Bilder generieren oder Texte schreiben, die von menschlichen Werken kaum zu unterscheiden sind. Mit diesen Errungenschaften gehen jedoch auch Risiken einher, insbesondere im Hinblick auf die Verbreitung von Fake News. Denn ein manipulierter Text kann sich viel schneller verbreiten, als er in den meisten Fällen faktengeprüft werden kann.

In diesem Blogbeitrag untersuchen wir die Rolle von KI-generierten Desinformationen und erklären, wie Sie sich vor Fake News (mit oder ohne KI-Beteiligung) schützen können.

KI-generierte Desinformation auf dem Vormarsch

Künstliche Intelligenz verändert unsere Informationslandschaft und hat enorme Auswirklungen auf unser tägliches Leben. Die Fähigkeit der KI, riesige Datensätze schnell zu analysieren und Sprache zu erlernen, ist bemerkenswert. Jedoch sind wir auf die Integrität derjenigen angewiesen, die KI entwickeln und anleiten. So warnt Andreas Dengel, Geschäftsführender Direktor des Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) auch vor den Gefahren der KI: „Es ist zum Teil sehr gefährlich, wie und wo künstliche Intelligenz verwendet wird“1. Nach Ansicht des Experten hat die Verwendung von KI-generierten Inhalten zu Desinformationszwecken jüngst zugenommen.

Wie man sich vor KI-generierten Fake News schützen kann

Im Wettlauf um die rasche Verbreitung von Informationen können Nachrichten nicht immer auf ihre faktische Richtigkeit überprüft werden. Je verbreiteter die Informationen dann sind, desto vertrauenswürdiger wirken diese. Schließlich werden sie sogar von lokalen Nachrichtenagenturen und Radiosendern aufgegriffen und weiter verbreitet. Trotz der Zusicherungen seitens der Sender, Informationen vor Veröffentlichung zu verifizieren, verbreiten sich immer wieder Fehlinformationen.

Besonders problematisch ist, dass kriminelle Organisationen absichtlich bösartigen Code in Artikel einbetten können, um diesen für Cyberkriminalität zu missbrauchen. KI kann dazu verwendet werden, gefälschte Profile mit falschen Informationen zu erstellen. Diese können Einfluss auf die Finanzmärkte, die Außenpolitik sowie auf soziale Bewegungen nehmen. Diese Vorgehensweise führt zu einer Verwirrung, da die Sprache der wichtigsten Nachrichtenquellen imitiert und Datensätze implementiert werden. Diese basieren jedoch auf maschinell erlernten Algorithmen. Die Nachahmung macht es schwierig, die Quelle der Fehlinformationen von denjenigen zu unterscheiden, die sie schnell und unwissentlich weiterverbreitet haben.

Beispiele: KI-generierte Fehlinformationen

Jeder von uns hat zweifellos schon einmal eine Internetrecherche durchgeführt und dabei seitenweise Ergebnisse verschiedenster Quellen erhalten – einige davon von namhaften Unternehmen und viele von unbekannten Websites und Autoren. Ob man nun nach Informationen zu Finanzen oder zum politischen Geschehen sucht, die Glaubwürdigkeit der Artikel ist von höchster Bedeutung.

Wenn KI Fehler macht

In letzter Zeit haben zahlreiche Finanzpublikationen künstliche Intelligenz eingesetzt, um Artikel über die Funktionsweise von Finanzdienstleistungen zu verfassen. Ein KI-generierter Artikel von CNET erläutert die Zinssätze von hochverzinslichen Sparkonten und Autokrediten.2 Dieser enthält jedoch fälschlicherweise die implizite Aussage, dass man damit das Doppelte seiner Hauptinvestition verdienen würde. Eigentlich sollte er darauf hinzuweisen, dass sich der Kontostand am Jahresende aus der Hauptinvestition und den erworbenen Zinsen zusammensetzt. Es fehlt die Nuancierung und Spezifizität der Sprache, um richtig darzustellen, wie Investitionserträge und Darlehenszinsen anfallen.

Fehlinformation wie diese führen dazu, dass Kunden falsche Kreditentscheidungen treffen und schlussendlich von ihrer Investition massiv enttäuscht werden. Sie stellen die Kompetenz des Unternehmens in Frage und wechseln im schlimmsten Fall das Finanzinstitut.

Wenn KI absichtlich in die Irre führt

Mit KI-Systemen lassen sich außerdem gezielt Falschinformationen erzeugen oder bestehende Inhalte verfälschen, um die öffentliche Meinung zu beeinflussen. Im Jahr 2019 hat die Associated Press gefälschte LinkedIn-Profile von vermeintlich seriösen Journalisten, Analysten und Beratern überprüft. Diese Profile enthielten KI-generierte Fotos und Biografien, welche ihre Authentizität und Glaubwürdigkeit erhöhten. Diese wurden jedoch von Personen mit kriminellen Absichten betrieben.3

Manipulierte Texte und Bilder haben eine enorme Macht, um die öffentliche Meinung und Entscheidungsprozesse zu beeinflussen. Artikel, die massenweise mit Fehlinformationen versehen sind, können Fakten aushebeln und Menschen dazu veranlassen, Entscheidungen zu treffen, die nicht ihren besten Interessen und Bedürfnissen entsprechen.

Die Notwendigkeit der Überprüfung

KI ist nicht in der Lage, komplexe Urteile über den Wahrheitsgehalt der von ihr generierten Aussagen und Artikel zu treffen. Die Trainingsdaten, die zur Schulung der KI verwendet werden, sind manchmal ungenau – sei es aufgrund absichtlicher oder unabsichtlicher Falschmarkierungen. Auch ein zu kleiner Datensatz, kann zu Fehlern führen, da KI-Systeme eine ausreichend große Datenmenge benötigen.

KI schafft das Problem nicht, aber sie vergrößert bestehende Probleme und Vorurteile. L. Song Richardson von der UC Irvine School of Law schreibt, dass die Probleme, die wir in den gegenwärtigen Algorithmen erkennen können, in der realen Welt keineswegs fremd sind, zum Beispiel die fehlende Verantwortlichkeit für bestehende rassistische und geschlechtsspezifische Vorurteile in der Beschäftigung.

Herausforderungen bei der Überprüfung

Eine umfassende Überprüfung von Fakten kann dazu beitragen, die Desinformationslandschaft positiv zu beeinflussen. Allerdings stellt die Überprüfung in dem Umfang eine große Herausforderung dar, denn:

  • Die Menge der Informationen ist enorm
  • Die Menge der prüfenden Artikel nimmt stetig zu
  • Die Verbreitung dieser Artikel ist schnelllebig
  • KI's können auf Knopfdruck natürlich klingende Artikel erstellen, wodurch die Generierung von Fehlinformationen im Wesentlichen automatisiert wird
  • Deepfakes können die Erkennung von Fehlinformationen erschweren

Tools für die Überprüfung

Angesichts der zunehmenden Informationsflut, ist es wichtig, Informationen kritisch zu bewerten, ihre Glaubwürdigkeit und Richtigkeit einzuschätzen und verantwortungsvoll mit ihnen umzugehen. Internetrecherchen sind dabei meist zeitaufwändig und Informationen oft trotzdem nicht verlässlich verifizierbar. Aus diesem Grund ist eine spezialisierte Rechercheplattform, welche globale Nachrichtendaten aus einer Vielzahl von Quellen aggregieren, ein wichtiges Instrument zur Überprüfung von Fakten.

Mit spezialisierten Rechercheplattformen wie Nexis® lassen sich außerdem automatische Alerts einrichten, um populäre Themen im Blick zu behalten. Auch bieten sie Visualisierungen von Trends, verwandten Themen und Top-Quellen. So sparen Nutzer Zeit bei der manuellen Recherche und können sich auf die Richtigkeit der Informationen verlassen.

Nächste Schritte:

  1. Überzeugen Sie sich von den Vorteilen von Nexis und vereinbaren Sie noch heute eine kostenfreie Demo.
  2. Laden Sie jetzt unsere Recherche-Checkliste herunter, um die Qualität Ihrer Recherchen zu verbessern.

KI-generierte Desinformation auf dem Vormarsch, tagesschau.de, 31.03.2023
What Is Compound Interest?, archive.is, 12.01.2023

Experts: Spy used AI-generated face to connect with targets, apnews.com, 13.06.2019

Kontaktieren Sie uns

Email: kontakt@lexisnexis.de
Telefon: +49 211 417435-40