Fake News im Netz automatisch erkennen

Textforensikerin Inna Vogel stellt ihre Forschung vor

Nicht erst seit Corona sind Falschnachrichten ein heiß diskutiertes Thema. Wie sie sich im Internet automatisiert finden und bewerten lassen, erforscht Inna Vogel am Fraunhofer SIT in Darmstadt.

Sie liest Fake News und treibt sich auf zwielichtigen Seiten im Darknet herum. Alles im Namen der Forschung. Denn Inna Vogel arbeitet in der Abteilung Media Security & IT-Forensik am Fraunhofer SIT gleich in mehreren Projekten daran, organisierter Kriminali-tät in Darknet-Foren und Falschinformationen im Netz den Garaus zu machen. Vor allem Fake News sind ihr Herzensthema.

Der jährliche weltweite Schaden durch Falschnachrichten wurde bereits vor der Corona-Pandemie auf mindestens 78 Milliarden US-Dollar geschätzt. Etwa die Hälfte davon ist laut Statista auf Börsenverluste und Volatilität zurückzuführen. »Seit dem Ukraine-Krieg hat die Verbreitung noch einmal deutlich zugenommen«, weiß die Expertin. Entsprechend groß ist das Interesse der Politik und der Wirtschaft, Wege zu finden, Fake News im Web aufzuspüren und aufzuklären. Doch in der täglichen Informationsflut könnten selbst Heerschaaren von Faktencheckern nur einen Bruchteil davon entdecken. Gefragt sind also automatisierte Methoden.

Dreistufig zur automatischen Erkennung

Die Computerlinguistin entwickelt dafür ein dreistufiges Verfahren: Die erste Stufe besteht darin, überprüfungswürdige, also relevante Inhalte überhaupt zu erkennen. Dabei hilft das sogenannte Natural Language Processing (NLP), ein Zweig des Maschi-nellen Lernens (ML), der Computern beibringt, menschliche Sprache zu verstehen und zu interpretieren. »Überprüfungswürdige Inhalte sind nicht nur Zahlen, Daten, Fakten. Es geht auch um Tatsachenbehauptungen von öffentlichem Interesse, die einen poten-ziellen Schaden für die Allgemeinheit darstellen können«, erklärt Inna Vogel.

Auf der zweiten Stufe geht es darum, glaubwürdige Quellen zur Stützung oder Ent-kräftung der Aussage zu finden, um auf der dritten Stufe den Nutzern eine alternative Erklärung oder Einordnung anzubieten. Denn die Forscherin ist überzeugt: »Es macht keinen Sinn, die Menschen zwar zu warnen, dass diese Nachricht sehr wahrscheinlich falsch ist, sie dann aber damit allein zu lassen. In meinen Augen ist es wichtig, ihnen weitere Informationen oder mehr Kontext an die Hand zu geben, damit sie sich selbst ein nachvollziehbares Bild machen können.«

Am Ende sitzt immer ein Mensch

Die große Schwierigkeit dabei ist, dass die eingesetzten ML-Algorithmen zunächst erkennen müssen, welche Texte sich überhaupt auf den gleichen Inhalt beziehen und dann automatisch prüfen, ob sie die ursprüngliche Aussage bestätigen oder entkräften. Dazu müssen sie etwa auch Synonyme oder alternative Formulierungen zuverlässig erkennen. Ganz von allein funktioniert das noch nicht, sagt die Expertin: »ML-Verfahren können noch nicht logische Zusammenhänge in Texten erkennen. Man kann ihnen nur beibringen, was man selbst verstanden hat.«

Und wie wird letztlich entschieden, was falsch und was richtig ist? »Da wir beim SIT zwar die technische, aber nicht die journalistische Kompetenz haben, final zu bewerten, welche News wahr oder unwahr ist, arbeiten wir mit diversen Factchecking-Seiten«, erklärt Inna Vogel. So sei zum Beispiel das Factcheck-Tool von Google, das sämtliche Faktenchecker-Seiten bündelt, eine gute Quelle, um den Wahrheitsgehalt einer Nachricht zu bewerten. Denn letztlich ist es immer noch ein Mensch, der anhand von Polizei-, Zeitungsberichten oder Studien recherchieren muss, ob eine Nachricht stimmt oder nicht.

Mehr Infos: DisCo - Disinformation and Corona