Skip to main content

Ein Beispiel dafür, wie Medien Mythen kolportieren und so Unternehmen und Öffentlichkeit zu falschem Denken und falschen Handlungen verleiten, liefert heute die „Frankfurter Allgemeine Zeitung“ in ihrem Newsletter „D:Economy“, dem „Briefing für die digitale Wirtschaft“.


Sie behauptet, Künstliche Intelligenz haben einen „Wissensdurst“. Und dann kommt der Vorschlag, man möge ChatGPTvergleichen mit einem Wunderkind.

Beides ist brutaler Unfug.

Denn ein Wunderkind memoriert ja nicht nur Fakten, es stellt dann auch irgendwann Zusammenhänge her. Ansonsten wäre es kein Wunderkind, sondern ein Gedächtniswunder und somit allerhöchstens eine Zirkusattraktion, nachdem „Wetten, dass…?“ ja nun mal eingestellt ist.

Doch es ist ja noch viel falscher. ChatGPT und andere Large Language Models (LLM) erinnern sich nicht an Fakten. Sie lernen kein Jahreszahlen auswendig, keine Hauptstädte oder Begriffsdefinitionen. ChatGPT weiß nicht mal, was Wissen ist.

Stattdessen analysieren LLM semantische Zusammenhänge. Wenn sehr viele Menschen in den Daten, mit denen das Modell trainiert wird, den Satz schreiben „Die dümmsten Redakteure arbeiten bei der FAZ“, wird ChatGPT die Frage nach den dümmsten Redakteuren genau so beantworten, einfach weil nach der Aneinanderreihung der Buchstaben „Die dümmsten Redakteure arbeiten“ mit der höchsten Wahrscheinlichkeit „FAZ“ folgt und in Sachen Pronomen mit überwältigender Wahrscheinlichkeit die FAZ als weiblich eingeordnet wird.

Aus diesem Grund brauchen die Modelle immer mehr Trainingsdaten: Die Semantik ist analysierbar, das Modell muss sie aber in Kontext setzen. Durst oder Hunger verspürt es dabei keinen, es kann auch ohne diese Daten weiterlaufen – nur eben mit schlechteren Ergebnissen, was es aber nicht weiß.

Aber im deutschen Journalismus muss halt alles vermenschlicht und somit ChatGPT zum Wunderkind verklärt werden. So wird die Tech-Phobie der deutschen (und erst recht zu vieler deutscher Journalist*innen) ganz wunderbar geschürt. Denn wenn eine Technik wie ein Mensch agiert, Hunger und Durst hat, oder wie ein Kind ist, kann sie eben auch irrational werden, sie kann sich Befehlen wiedersetzen, sie kann gefährlich sein.

Dass so ein Text Teil des „Briefings für die digitale Wirtschaft“ ist, das mit seiner Ausrichtung nicht nur Fachleute ansprechen will, sondern sogar teuer bezahlt werden muss, zeigt wieder einmal, auf welch miesem Niveau sich die Berichterstattung über Technik selbst bei renommierten Organen bewegt.


Keine Kommentare vorhanden


Du hast eine Frage oder eine Meinung zum Artikel? Teile sie mit uns!

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

*
*