Ein Anfang: Öffentlich-Rechtliche geben sich KI-Kodex

Die öffentlich-rechtlichen Rundfunkanstalten ARD, ZDF, Deutschlandradio und Deutsche Welle haben sich einen KI-Kodex gegeben. "Mit ihrem sechs Punkte umfassenden KI-Kodex bringen die Partner die neuen Möglichkeiten, die Künstliche Intelligenz bietet, in Einklang mit dem öffentlich-rechtlichen Auftrag und den gemeinsamen Werten", heißt es in einer Pressemitteilung.

Die sechs Grundsätze sind: Mehrwert, Vielfalt bei verantwortungsvoller Personalisierung, Redaktionelle Kontrolle & Transparenz, KI- und Datenkompetenz, Austausch und Partnerschaften und Nachhaltigkeit.

Der gesamte Kodex ist auf den Seiten der ARD als PDF hinterlegt.

In der Pressemitteilung heißt es weiter:

"Wesentlich ist der 'Human in the Loop'-Ansatz: Die publizistische Verantwortung bleibt beim Menschen. Um das Vertrauen des Publikums zu sichern, verpflichten sich die Sender darüber hinaus zu Transparenz und einer klaren Kennzeichnung KI-generierter Inhalte."

Was sind denn bitte "Mehrwerte"?

Eine erste Bewertung (Achtung, Meinung!): Grundsätzlich geht das in die richtige Richtung. Aber der erste Eindruck ist: sehr oberflächlich und allgemein gehalten. Das liegt sicherlich auch daran, dass das Thema Künstliche Intelligenz nach wie vor einer hohen Dynamik unterliegt.

Was sind denn bitte "Mehrwerte" bei der Erfüllung des öffentlich-rechtlichen Auftrags? Gefühlt ist das alles und nichts. Der öffentlich-rechtliche Auftrag ist ja bekanntlich sehr weit gefasst und beinhaltet zum Beispiel auch Unterhaltung. Die Betonung der "journalistischen und administrativen Prozesse", die im Kodex ebenfalls enthalten ist, hätte wesentlich stärker sein dürfen.

Stark ist der zweite Punkt:

"Wir sind uns diskriminierender Stereotypen in Trainingsdaten bewusst und gehen damit aktiv um. Personalisierung nutzen wir, um Vielfalt und den Informations- und Unterhaltungswert unserer Angebote zu stärken. Filterblasen-Effekten begegnen wir aktiv."

Aber auch hier stellt sich sofort die Frage, wie das im redaktionellen Alltag aussehen kann. Dürfen Tools wie ChatGPT oder Grok also für die Recherche eingesetzt werden oder nicht?

Im Grunde ist doch die dahinterliegende Aussage: Wir glauben den Maschinen nix, aber wir verwenden sie als Instrument. Das ist auf jeden Fall richtig und hätte klarer benannt werden dürfen.

Kennzeichnungspflicht - aber wie?

Spannend ist auch der dritte Punkt: "Redaktionelle Kontrolle & Transparenz": Es gibt ja schon Stimmen, die die Kennzeichnung verlangen, sobald KI auch nur am Entstehungsprozess eines Beitrags beteiligt war. Das halte ich für nicht praktikabel.

Faktisch beginnen doch heutzutage die meisten Recherchen mit der Eingabe von Begriffen in eine Suchmaschine wie Google, die ja inzwischen auf KI-Ergebnisse setzt. Wäre das schon kennzeichnungspflichtig? Gleiches gilt für die Rechtschreibkorrektur, für die KIs überaus praktisch sind. Muss das angezeigt werden?

Und die verarbeitende Software wird ebenfalls schon KI-Elemente enthalten oder sehr zeitnah einsetzen. Alles andere wäre unklug und Ressourcenverschwendung.

Wichtiger ist hier die redaktionelle Kontrolle durch Menschen, die im Kodex ebenfalls betont ist. "Das Vertrauen in unsere journalistischen Inhalte ist unser höchstes Gut."

Der erste Satz von Punkt 3 hätte gern die Überschrift des Papiers sein dürfen.

Fehler sind menschlich – und werden bleiben

Auch hier würde ich im Übrigen unterstellen, dass wir in naher Zukunft mehr und mehr journalistische Beiträge (nicht nur bei den Öffentlich-Rechtlichen) finden werden, die auf Basis von KI-Ergebnissen erstellt worden sind und schlicht Unsinn erzählen. Einfach, weil Menschen Fehler machen und in Redaktionen nach wie vor Menschen arbeiten (das wird auch so bleiben).

Der Kodex mag ein Anfang sein, gefühlt ist er aber eher ein politisches Papier, das wie ein vages Leitbild daherkommt. Oder, wie ChatGPT das Papier bewertet:

"Er schafft Deutungsrahmen, aber keine Verbindlichkeit. Er wirkt wie der kleinste gemeinsame Nenner zwischen Innovationsdruck und politischer Vorsicht."

Dem ist nichts hinzuzufügen.

Transparenzhinweis: Für diesen Beitrag habe ich den Kodex in ChatGPT gegeben und um eine Einschätzung gebeten. Die Ergebnisse haben mich bei meiner Meinungsbildung unterstützt (weil bestätigt!), ich habe sie aber nicht 1:1 übernommen. Außerdem habe ich ChatGPT um Hinweise zur Rechtschreib- und Stilkorrektur gebeten. Von den Stilhinweisen habe ich nur einen kleinen Teil übernommen. Ferner hat ChatGPT mir Vorschläge für die Überschrift gemacht (alle mies, aber inspirierend) und die Schlagwörter generiert. Das Tool ist schon fett und erleichtert die Arbeit ungemein ;-)


Hinweis auf unsere STAWOWY-Seminare: In unseren KI-Seminaren befassen wir uns mit verschiedenen Tools, nehmen aber auch die aktuellen gesellschaftlichen Entwicklungen und Risiken in den Blick.

Der nächste Termin für unsere "KI-Praxiswerkstatt" ist am 26.03.2026 in Dresden.

Der Aufbau-Workshop "Praxiswerkstatt KI-Workflow" findet am 10.06. in Dresden statt.

Die Seminare sind auf jeweils 10 Teilnehmende begrenzt!

Alle Infos zu den STAWOWY-Seminaren finden Sie hier!

"

Noch keine Kommentare.

Kommentar hinterlassen

Deine E-Mail-Adresse wird nicht veröffentlicht.