Brunswick (USA) – Algorithmen bestimmen mehr und mehr unseren Alltag. Ganz besonders im Rahmen unserer täglichen Mediennutzung. Ein besonders einflussreicher Bereich ist die Auswahl an Nachrichten und Nachrichtenquellen und deren Bewertung als „glaubwürdig“ oder „Fake-News“, die wir von Suchmaschinen, Portalen und in den sozialen Medien angezeigt und vorgeschlagen bekommen – oder eben auch nicht. Eine aktuelle Studie hat nun grundlegende Fehler in den derzeit wirkenden Bewertungsmechanismen ausfindig gemacht.
Wie das Team um Professor Vivek K. Singh von der Rutgers University aktuell im Fachjournal „OSFHome“ (DOI: 10.17605/OSF.IO/QWNSF) berichtet, basieren die meisten dieser Bewertungs-Algorithmen auf dem sogenannte „credibility score“, also der Einschätzung der Glaubwürdigkeit der Quelle eines Artikels und weniger auf einer tatsächlichen Bewertung oder Einschätzung der Glaubwürdigkeit des Inhalts eines jeden individuellen Artikels.
„Tatsächlich ist es aber nicht so, dass alle Nachrichtenartikel auch wirklich akkurat und richtig sind, nur weil sie von allgemein als glaubwürdig eingestuften Quellen (etwa der The New York Times usw.) veröffentlicht werden. Ebenso wenig korrekt ist das Gegenteil: Nur weil eine Quelle als weniger bis gar nicht glaubwürdig eingestuft wird, bedeutet das nicht, dass auch alle ihre Nachrichtenmeldungen per se ‘Fake-News’ sind.”
Singh, Kollegen und Kolleginnen bewerteten die Glaubwürdigkeit und die politische Ausrichtung von 1.000 Nachrichtenartikeln und nutzten diese „Etiketten“ auf Artikelebene, um Algorithmen zur Erkennung von Fehlinformationen zu entwickeln. Anschließend bewerteten sie, wie sich die Kennzeichnungsmethode (Quellenebene versus Artikelebene) auf die Leistung von Algorithmen zur Erkennung von Fehlinformationen auswirkt. Ihr Ziel bestand darin, die Auswirkungen der Kennzeichnung auf Artikelebene auf den Prozess zu untersuchen und festzustellen, ob die Verzerrung, die bei der Anwendung des Ansatzes des maschinellen Lernens auf Quellenebene besteht, immer noch besteht, wenn derselbe Ansatz des maschinellen Lernens auf einzelne Artikel angewendet wird, um so herauszufinden, ob so die Voreingenommenheit beim Umgang mit individuell gekennzeichneten Artikeln verringert wird.
www.grenzwissenschaft-aktuell.de
+ HIER können Sie den täglichen und kostenlosen GreWi-Newsletter bestellen +
Die Analyse der Forschenden zeigt, dass die Bezeichnung von Artikeln als Fake News oder Desinformation auf der Grundlage ihrer Quelle also keine wirklich gute Idee ist: „Ebenso könnte man eine Münze werfen, um damit den Wahrheitsgehalt einer Nachrichtenmeldung zu bestimmen“, fügt Prof. Lauren Feldman hinzu. Tatsächlich zeigen die Kommunikations- und Medienwissenschaftler in ihrer Studie, dass die bisherige Methode zur Algorithmus-bestimmten Bewertung von Nachrichten, deren tatsächliche Inhaltsqualität nur zu 51 Prozent zutreffend ist. „Zugleich hat aber genau dieser Prozess wichtige Auswirkungen nicht nur auf unseren täglichen Nachrichten-Konsum, sondern auch für eine saubere Detektion und Markierung tatsächlicher Fake-News, sowie für die Fairness gegenüber einem breiten politischen Spektrum.“
Um dem Problem zu begegnen, schlagen die Forschenden um Singh einen neuen Datensatz journalistisch hochwertiger, individuell gekennzeichneter Artikel sowie einen Ansatz zur Erkennung von Fehlinformationen und zur Prüfung der Fairness vor. Die Ergebnisse der Studie unterstreichen zudem den Bedarf an differenzierteren und zuverlässigeren Methoden zur Erkennung von Falschinformationen in Online-Nachrichten und stellen wertvolle Ressourcen für zukünftige Forschungen in diesem Bereich bereit.
Laut Singh, Kolleginnen und Kollegen funktionieren jene Algorithmen, die zur Erkennung von Fehlinformationen in Online-Artikeln verwendet werden, so, wie sie es tun, „hauptsächlich, weil es einen Mangel an feinabgestimmten Kennzeichnungen gibt, die auf der Ebene der Nachrichtenartikel definiert sind.“ Zwar sei eine Kennzeichnung jedes einzelnen Nachrichtenartikels angesichts des gewaltigen Umfangs und Angebots vermutlich nicht machbar“, doch gebe es gleichzeitig Gründe, die Gültigkeit von auf Quellenebene gekennzeichneten Datensätzen infrage zu stellen. „Die Validierung von Online-Nachrichten und die Verhinderung der Verbreitung von Falschinformationen sind von entscheidender Bedeutung für die Gewährleistung vertrauenswürdiger Online-Umgebungen und den Schutz der Demokratie“, so die Autoren fügten abschließend hinzu, dass ihre Arbeit „darauf abzielt, das Vertrauen der Öffentlichkeit in Praktiken zur Erkennung von Fehlinformationen und deren anschließende Korrekturen zu stärken, indem die Gültigkeit und Fairness dieser Informationen sichergestellt wird.“ Der in der Studie vorgeschlagene Datensatz und die konzeptionellen Ergebnisse zielen zugleich darauf ab, „den Weg für zuverlässigere und fairere Algorithmen zur Erkennung von Fehlinformationen zu ebnen.“
WEITERE MELDUNGEN ZUM THEMA
Studie: Das Entlarven falscher Überzeugungen erfordert die Bekämpfung von Glaubenssystemen 25. April 2023
‚GreWi-Buch des Jahres‘: „Der Kampf um die Wahrheit“ 10. Juli 2021
Warum und wie wir an unseren Weltbildern festhalten 5. September 2018
Alternative Fakten: Psychologische Grundlagen einer postfaktischen Diskussionskultur 12. September 2017
Recherchequelle: Rutgers University
© grenzwissenschaft-aktuell.de