epd Die bisherigen Ansätze zur Regulierung von KI-Inhalten nehmen journalistische Beiträge aus. Auch die KI-Verordnung der EU (AI-Act), die zurzeit final verhandelt wird, beinhaltet in der aktuellen Fassung eine Bereichsausnahme für Medien. Diese müssten somit nicht einmal komplett per KI erstellte Publikationen entsprechend kennzeichnen. Selbstkontrollorgane wie der Deutsche Presserat ringen noch um eine Position zu dem Thema (epd 30, 38/23). Angesichts der schnellen Verbreitung von Deep Fakes, die mittels KI erzeugt wurden, und der damit verbunden Gefahren für Rechtsstaat und Demokratie seien aber gesetzgeberische Maßnahmen dringend erforderlich, argumentieren die Juristen Dominik Höch und Jonas Kahl in ihrem Gastbeitrag. Sie weisen auch darauf hin, dass sich eine Kennzeichnungspflicht für mediale KI-Inhalte indirekt bereits aus dem deutschen Wettbewerbsrecht ergeben könnte. Höch ist Fachanwalt für Urheber- und Medienrecht und Partner bei Höch Rechtsanwälte in Potsdam, Kahl ist Fachanwalt für Urheber- und Medienrecht und Partner bei Spirit Legal Rechtsanwälte in Leipzig.
epd Anwendungen, die mit Künstlicher Intelligenz (KI) arbeiten, dringen immer mehr in unseren Alltag ein: seien es Bots der Bank oder der Fluggesellschaft, mit denen wir chatten; seien es intelligente Preisschilder im Supermarkt, die sich je nach Tageszeit und Nachfrage anpassen. Gemein ist all diesen neuen Elementen in unserem Alltag, dass nicht ein Mensch in Kommunikation mit uns tritt, sondern eben ein Computer, der programmiert wurde und der in der Lage ist, verschiedenste Reaktionen und Aktionen selbstständig aufgrund seines erlernten Wissens auszuführen.
Diese Entwicklung macht auch vor dem Journalismus nicht halt. KI ist dort schon längst angekommen. Natürlich schreiben in vielen Redaktionen schon Anwendungen der Künstlichen Intelligenz kurze Nachrichten, Polizeimeldungen oder Sportergebnisse. Und bei großen, investigativen Recherchen hilft die KI dabei, aus Millionen Datensätzen zugängliche Informationen, Grafiken oder Tabellen „runterzubrechen“.
Gerade erst auf den Schirm gerät ein weiterer Aspekt journalistischer Arbeit: das Schreiben von längeren Artikeln oder ganzen Heften. Kann KI das auch leisten, soll sie das leisten? Und wenn ja, unter welchen Bedingungen? Braucht es Regeln, gerade auch Transparenzregeln? Also, muss der Betreiber oder Nutzer einer KI offenlegen, dass ein Text (jedenfalls auch) von einer KI stammt?
Die juristische Relevanz dieser Fragen wird bestätigt durch die derzeitige Praxis, mit der Offenlegung der redaktionellen Prozesse ganz unterschiedlich umzugehen. Die Zeitschrift „Lisa - Kochen und Backen“ hat im Frühjahr 2023 ein ganzes Heft mit insgesamt 99 Kochrezepten von einer KI schreiben lassen; die Redaktion soll ein bisschen nachgeholfen haben, aber im Kern soll es sich um KI-Inhalte handeln. Sogar die Fotos waren automatisch generiert. Offengelegt wurde das gegenüber den Käufern des Heftes nicht - es kam erst später heraus.
Lebenshilfe mit KI
Eines der größten journalistischen Portale in Deutschland, „bild.de“, geht einen anderen Weg der Transparenz: Unter „Hey_“ werden dort Lebenshilfe, praktische Tipps und Unterhaltendes angeboten, das von einer Künstlichen Intelligenz „ausgeworfen“ wird. Die „Bild“-Leute halten damit nicht hinter dem Berg, sondern schreiben klar und deutlich: „Sie chatten jetzt mit 'Hey_', Ihrem Helfer mit KI. Wir stecken noch in der Testphase. Die Antworten sind nicht von 'Bild'. Bitte bedenken Sie, dass eine KI auch mal danebenliegen kann.“
Was ist nun der richtige Weg? Und vor allem: Gibt es rechtliche Vorgaben für eine Kennzeichnungspflicht von KI-Inhalten? Bei einer juristischen Recherche findet man schnell raus: So richtig geregelt sind sie noch nicht. Im Gegenteil - die bisherigen Vorgaben bei der Regulierung von KI-Inhalten nehmen journalistische Beiträge aus. Das verwundert nicht. Bei vielen Regulierungen in der Vergangenheit ist der Gesetzgeber davon ausgegangen, Journalismus ausnehmen zu müssen, weil sonst die Presse-, Rundfunk- und Meinungsfreiheit über Gebühr strapaziert würde und nicht mehr voll ausgelebt werden könnte.
Sowohl nationale als auch europarechtliche Regelungen sehen daher Ausnahmen zugunsten journalistischer Zwecke vor. Die in Deutschland geltenden Pressegesetze kennen ebenso wie der Medienstaatsvertrag ein Medienprivileg. Auch die Datenschutz-Grundverordnung (DSGVO) der EU nimmt Medienmacher in weiteren Teilen bewusst von der strengen Regelung der Datenerhebung und -verarbeitung aus. Ebenfalls sind Informationspflichten gegenüber den Bürgern, wie sie sonst im Datenschutzrecht vorgesehen sind, nur eingeschränkt auf Medien anwendbar.
Mit diesem Ansatz scheinen auch die derzeitigen Bestrebungen, KI-Inhalte zu regulieren, aufzuwarten. Die Europäische Kommission legte bereits 2021 mit dem „AI-Act“ einen Entwurf vor, der vorsah, insbesondere Anbietern von KI-Systemen erhebliche Pflichten aufgeben - auch mit Blick auf die Transparenz, allerdings nicht für den Journalismus. Der AI-Act ist zwar noch nicht in Kraft, befindet sich aber auf der Zielgeraden - und sieht vor, den journalistischen Bereich auszunehmen.
Dabei sollen in der derzeitigen Version grundsätzlich strenge Bedingungen herrschen: Anbieter müssen dafür sorgen, dass „natürlichen Personen mitgeteilt wird, dass sie es mit einem KI-System zu tun haben, es sei denn, dies ist aufgrund der Umstände und des Kontextes der Nutzung offensichtlich“ (Art. 52 Abs. 1 AI-Act). Auch die Nutzer solcher Systeme sollen Pflichten treffen: Bei einer Manipulation von Bildern, Videos oder Toninhalten, so dass sogenannte Deep Fakes entstehen, müssen sie „offenlegen“, dass die Inhalte künstlich erzeugt oder manipuliert werden. Nur soll das alles eben für Medienhäuser nicht gelten (Art. 52 Abs. 3 AI-Act).
Verletzung des Persönlichkeitsrechts
Ob das ausreicht? Täuschend echt aussehende durch KI geschaffene Inhalte können sich über Massenmedien rasend schnell verbreiten und schon daher eine erhebliche Gefahr für die Rechte Betroffener darstellen. Am deutlichsten wird das bei Bildern, die Personen zeigen: Erinnert sei nur an die Darstellung des Papstes, der angeblich im Winter einen Designer-Daunenmantel getragen haben soll. Das Bild war natürlich eine Fälschung. Solche gefakten Bilder stellen sich als Verletzung des Rechts am eigenen Bild dar. Jeder darf grundsätzlich selbst bestimmen, ob und in welchem Zusammenhang Bildnisse von ihm veröffentlicht werden.
Die dazu in Betracht kommenden gesetzlichen Ausnahmen werden selten vorliegen; so wird nach einer Einwilligung des Betroffenen in den wenigsten Fällen gefragt worden sein. Auch ein Bild aus dem Bereich der Zeitgeschichte dürfte in aller Regel auch bei prominenten Personen nicht in Betracht kommen - jedenfalls solange nicht offengelegt wird, dass es sich um einen KI-Inhalt handelt.
Bei durch KI erstellter Wortberichterstattung dürfte das größte Problem sein, dass eine KI nicht genau genug ist oder nicht genau genug von Menschen überwacht wird, so dass es zu unwahren Behauptungen oder falschen Eindrücken kommen kann. Betrifft dies Personen, kann deren allgemeines Persönlichkeitsrecht verletzt sein. Eine Pflicht, die so erstellten Inhalte kenntlich zu machen, dürfte das Risiko von Rechtsverletzungen zumindest abmildern, da die Leser einer computergenerierten Behauptung weniger Vertrauen entgegenbringen als einem von Menschen erstellten Text.
Nicht zu übersehen sind aber auch die Gefahren für die verfassungsrechtlich verbrieften Prinzipien, die nicht an Personen geknüpft sind: namentlich die Risiken für Demokratie und Rechtsstaat. KI-erschaffene, nichtreale Bilder haben das Potenzial, durch Fehlinformationen auf die Meinungsbildung in der Bevölkerung negativ einzuwirken und Spannungen hervorzurufen oder zu verstärken. So zeigten etwa KI-generierte Bilder Donald Trump im März 2023 angeblich beim Widerstand gegen seine Festnahme - eine solche gab es tatsächlich aber nicht. Würden derlei Bilder nicht zweifellos als Deep Fakes erkennbar sein, könnte dies das Vertrauen in den Rechtsstaat erschüttern, wenn nicht sogar Gewaltpotenziale politischer Gruppierungen entfalten.
Gefahr der Ermüdung
Noch berichten seriöse Medien und Leitfiguren aus den sozialen Medien bei solchen Phänomenen sehr schnell darüber und weisen auf die fehlende Echtheit der Inhalte hin. Nicht auszuschließen ist aber, dass - je häufiger solche Fakes auftauchen - diese Akteure dem nicht mehr nachkommen können und darüber hinaus eine Ermüdung eintritt: Jedem zur Verfügung stehende KI-Systeme werden es ermöglichen, Fakes schnell und realitätsnah zu produzieren und sie zudem zielgruppenspezifisch auszuspielen. Ein solches Mikromanagement macht ein informatives Entgegentreten gleichermaßen aufwendig. Ob die Selbstreinigungskräfte des Markts der Meinungen dem standhalten können, ist fraglich - dann laufen solche Behauptungen in Wort und Bild unkorrigiert als „Wahrheiten“ durch.
Diesen Risiken steht ein erhebliches Vollzugsdefizit entgegen, wenn man sich gegen rechtswidrige KI-Inhalte wehren will. Die bisherigen Fälle von Skandalisierungen durch solche Fotos und anderes zeigen, dass die „Welle“ der Verbreitung blitzschnell sein kann. Rechtliche Schritte, wie vergleichbar schnell zu erlangende einstweilige Verfügungen, brauchen aber selbst im besten Fall ein paar Tage Zeit, vorausgesetzt, das veröffentlichende Medium ist unter der deutschen Jurisdiktion greifbar. Schon bei herkömmlichen rechtsverletzenden Veröffentlichungen im Netz ohne KI-Bezug ist dies, das zeigt die Erfahrung, aber oft nicht der Fall. In vielen Fällen hat man es aber - schon beim herkömmlichen Veröffentlichen im Netz ohne KI-Bezug - mit Akteuren zu tun, deren Anschriften (angeblich) etwa in den USA, in Thailand oder auf den Seychellen sind.
Denkbar ist auch, dass der Betroffene überhaupt erst mühsam darlegen muss, dass es sich um Bilder oder Texte handelt („ChatGPT, schreibe einen Text im Stil von Autor XY“), die nicht ihn zeigen oder von ihm stammen. Auch diese faktische Rechtslage gibt einen Hinweis darauf, wie sinnvoll zur Wahrung der Rechte eine Kennzeichnungspflicht für KI-Inhalte in Medien sein dürfte.
Transparenzgebot im Wettbewerbsrecht
Eine durchsetzbare Kennzeichnungspflicht für KI-Inhalte in Medien dürfte angesichts dieser Ausgangslage durchaus sinnvoll sein, um Risiken abzuschwächen und dem Einzelnen zu ermöglichen, seine Rechte besser durchzusetzen. Partiell lässt sich eine solche Pflicht rechtlich sogar nach der bestehenden Rechtslage herleiten. Das Wettbewerbsrecht kennt im Gesetz gegen den unlauteren Wettbewerb (UWG) das Verbot des Irreführens durch Unterlassen (§ 5 a Abs. 1 UWG). Konkret lautet die Norm: "Unlauter handelt auch, wer einen Verbraucher oder sonstigen Marktteilnehmer irreführt, indem er ihm eine wesentliche Information vorenthält,
1. die der Verbraucher oder der sonstige Marktteilnehmer nach den jeweiligen Umständen benötigt, um eine informierte geschäftliche Entscheidung zu treffen, und
2. deren Vorenthalten dazu geeignet ist, den Verbraucher oder den sonstigen Marktteilnehmer zu einer geschäftlichen Entscheidung zu veranlassen, die er andernfalls nicht getroffen hätte."
Die Norm enthält also ein Transparenzgebot und ist daher geeignet, eine wettbewerbsbezogene Kennzeichnungspflicht zu begründen, wenn eben „wesentliche Informationen“ weggelassen werden. Daran schließt sich die hochspannende Frage an, ob der Umstand einer teilweisen oder vollständigen Erstellung eines redaktionellen Inhalts durch KI eine solche wesentliche Information darstellt?
Dafür sind die insoweit berührten Interessen gegeneinander abzuwägen. Der Bereitsteller der Information (also das Medium) hat grundsätzlich Interesse daran, den Inhalt ohne Hinweis auf die KI-Generierung zu gewähren. Das Interesse des Verbrauchers liegt demgegenüber darin, eine informierte Entscheidung treffen zu können (also zum Beispiel das Medium überhaupt zu erwerben).
Monetärer Zweck
Vieles spricht dafür, dass im Fall der Wortberichterstattung zumindest die Autorenschaft des Artikels durch eine natürliche Person eine solche wesentliche Information darstellt. So liegen bei KI-erstellten Inhalten die typischen Charakteristika redaktioneller Unabhängigkeit nicht vor: namentlich insbesondere eine redaktionelle Vorauswahl und Kontrolle von Informationsinhalten. Gerade darin liegt aber ein geldwerter Vorteil für den Verbraucher. Das oben aufgegriffene KI-erstellte Kochbuch dürfte bei Lesern etwa berechtigte Fragen danach aufwerfen, ob eine KI guten Geschmack antizipieren kann, wenn sie sich des KI-Einflusses bewusst sind. Eine Prise Misstrauen kocht dann mit.
Weiter ist zu berücksichtigen, dass bei herkömmlichen Presseerzeugnissen der redaktionelle Zweck überwiegt. Bei KI-Inhalten ist aber zweifelhaft, ob diese überhaupt noch als redaktionelle Beiträge einzuordnen sind. Stattdessen scheint ein geschäftlicher, monetärer Zweck zu überwiegen, denn das veröffentlichende Medium wird durch diese Inhalte redaktionelle Aufwendungen ersparen und Werbeeinnahmen durch generierte Klicks erzielen.
Jedenfalls haben die Leserin und der Nutzer völlig andere Erwartungshaltungen an einen Artikel, dessen Autorenschaft einem Menschen zugeordnet ist, als an einen künstlich erzeugten Inhalt. Derzeit dürften Leser auch noch erwarten, dass die von ihnen rezipierten Medien Inhalte verbreiten, denen menschlich kontrollierte Auswahlentscheidungen über Themen und konkreten Inhalt - geleitet von publizistischen Zielen und Maßstäben - zugrunde liegen. Von Künstlicher Intelligenz dürften sie (jedenfalls im Moment zu Recht) eher Desinformation und Beliebigkeit erwarten. Insgesamt liegt es also nahe, eine wesentliche, kennzeichnungsbedürftige Information anzunehmen. Die Folge wäre, dass solche nicht gekennzeichneten Inhalte sich jedenfalls als wettbewerbswidrig darstellen können und daher von Konkurrenten rechtlich (auf Unterlassung) angegriffen werden könnten. Ob dieser Weg auch von den Gerichten beschritten wird, ist derzeit noch offen.
Ohnehin bedarf es aber angesichts der aufgezeigten Risiken, auch abseits der wettbewerbsbezogenen Regelungen, weiterer gesetzgeberischer Maßnahmen zur Kennzeichnung von KI-Inhalten, um den demokratischen und rechtsstaatlichen Risiken zu begegnen und dem Einzelnen zu ermöglichen, seine Rechte zu wahren. Bei Bildern könnte dies beispielsweise durch ein Wasserzeichen, das auf die KI-Generierung hinweist, geschehen, auf das dann wiederum soziale Netzwerke wie Facebook oder auch Redaktionen durch einen gut sichtbaren Hinweis verweisen müssten. Bei Texten ist denkbar, dass in der üblichen Autorenzeile auf die - jedenfalls - Mitwirkung von KI hingewiesen wird.
Aus epd medien 44/23 vom 03. November 2023