Close
Wonach suchen Sie?
Site search
16. April 2024 Teil 14: Urheberrecht und KI: Schutzmassnahmen in der Praxis

Nebst Sorgen betreffend Daten- und Geheimnisschutz ist die Furcht einer Verletzung von Urheberrechten für viele das zweite grosse Hindernis beim Einsatz von künstlicher Intelligenz. In der Praxis ist das Risiko jedenfalls für jene, die auf bereits vorgefertigte KI-Modelle zurückgreifen jedoch nicht sehr hoch – wenn einige Regeln berücksichtigt werden. Darauf gehen wir in diesem Teil Nr. 14 unserer KI-Blog-Serie ein.

Zunächst einmal ein kurzer Überblick, wo sich in Bezug auf Rechte Dritter an Inhalten überhaupt ein Problem stellt, wenn insbesondere generative künstliche Intelligenz benutzt wird. Dabei geht es nicht nur um das Urheberrecht, sondern auch das Lauterkeitsrecht und Spezialgesetze sind hier zu beachten. Es kann je nach Rechtsordnung zum Beispiel die Übernahme von marktreifen Arbeitsergebnissen anderer ohne angemessenen eigenen Aufwand (Art. 5 des Schweizer Gesetzes gegen den Unlauteren Wettbewerb) oder die Übernahme ganzer fremder Datenbanken oder grosser Teile davon untersagen, selbst wenn sie nicht urheberrechtlich geschützt sind (EU-Richtlinie über den rechtlichen Schutz von Datenbanken). In Teil Nr. 10 unserer KI-Blog-Serie haben wir dabei eingehend die Verantwortlichkeit von KI-Anbietern und -Nutzern erörtert, wenn es um Drittrechte an Inhalten geht.

Sieben Herausforderungen

Geht es um das Urheberrecht und vergleichbare Themen, stellen sich für den Anwender von KI-Systemen mit vorgefertigten KI-Modellen Herausforderungen in drei Bereichen:

  • Modell: Das verwendete KI-Modell "enthält" rechtlich geschützte Inhalte Dritter, weil es mit solchen trainiert worden ist, ohne dass hierfür eine hinreichende rechtliche Grundlage bestand. Es gibt derzeit mehrere Gerichtsverfahren, die dieses Thema klären sollen. Der Verwender wird in der Regel nicht oder nicht genau wissen, wie das von ihm benutzte KI-Modell trainiert worden ist, d.h. er kann diesbezüglich wenig tun und erhält wenig Hinweise auch bezüglich der Auswahl seines Modells.
  • Input: Der Input, mit welchem ein KI-System gefüttert wird, enthält rechtlich geschützte Inhalte Dritter, für deren geplante Verwendung keine hinreichende rechtliche Grundlage besteht. Diese Verwendung kann einerseits in der Generierung von Output bestehen -(der Input ist dann also der "Prompt") und andererseits dem Training bzw. Finetuning des KI-Modells (der Input wird benutzt, um die Parameter des KI-Modells anzupassen, damit später damit generierte Outputs "besser" werden). 
  • Output: Der Output, den das KI-System generiert, enthält rechtlich geschützte Inhalte Dritter. Dafür kann es primär vier Gründe geben: Erstens kann es sein, dass das KI-System solche Inhalte generiert, weil sein Modell diese aufgrund seines Trainings kennt, auch wenn der Anwender das gar nicht will. Dieser Fall wird je nach KI-Technik in der Praxis nur dann vorkommen, wenn der betreffende Inhalt dem Modell im Training oft vorgelegt worden ist und dadurch die Wahrscheinlichkeit hoch ist, dass das Modell diesen Inhalt als korrekte Antwort auf den passenden Prompt erachtet (dazu nachstehend noch mehr). Zweitens kann ein solcher Output basierend auf dem Input des Anwenders generiert werden, sei es, weil der betreffende Inhalt dem KI-System mit dem Prompt übergeben worden ist, sei es, weil der Prompt eine Instruktion enthält, das Drittwerk "nachzubauen". Drittens kann ein KI-System tatsächlich einen Inhalt generieren, der in den relevanten Teilen einem bereits existierenden Werk entspricht, dies aber ein Zufallsergebnis ist (auch dazu nachstehend mehr). Viertens kann es sein, dass der Anbieter eines KI-Systems (bzw. der Dienstleister, der es als Service anbietet) den Output als sein eigenes Werk beansprucht; dafür wird er sich zwar normalerweise nicht auf das Urheberrecht stützen können, falls das Werk ausschliesslich maschinengeneriert ist, aber er kann sich die Rechte daran im Verhältnis zum Anwender vertraglich sichern und allenfalls über weitere Gesetze wie das Lauterkeitsrecht.

Hier die sieben Herausforderungen in einer grafischen Übersicht:

Diese Darstellung der Herausforderungen berücksichtigt noch nicht, dass selbst dort, wo keine Erlaubnis des Rechteinhabers zur Verwendung eines Inhalts vorliegt, eine solche Verwendung vom Gesetzgeber erlaubt sein kann (z.B. Zitatrecht, betrieblicher Eigengebrauch, Verwendung für Wissenschaft und Forschung). Ob eine solche "Schrankenbestimmung" greift, ist im Einzelfall zu prüfen. Diese Fälle werden in diesem Beitrag nicht näher erläutert. Auf das Training bzw. den Aufbau von KI-Modellen gehen wir an dieser Stelle nicht ein. Auf einige Fragen hierzu werden wir in einem separaten Beitrag eingehen. Ebenso gehen wir hier nicht auf Patent- und Markenrechte ein, die natürlich ebenfalls verletzt sein können.

Das Urheberrecht gilt nicht unbeschränkt

Um all diese sieben Herausforderungen muss sich ein Anwender kümmern, um generative KI ohne Sorge vor Urheber- und gewerblichen Schutzrechten Dritter nutzen zu können. Bevor wir auf die Massnahmen eingehen, die zu diesem Zweck in der Praxis getroffen werden können, machen wir einige Vorbemerkungen, die uns zum rechtlichen Verständnis unserer Empfehlungen wichtig erscheinen. Sie geben die persönliche Auffassung des Autors wieder, sind nicht unumstritten, hängen vom jeweiligen nationalen Recht ab und richten sich in erster Linie an jene Leserinnen und Leser, die sich für das Thema insbesondere des Urheberrechtsschutzes bei der Verwendung von generativer KI vertiefter interessieren (wer das nicht tut, sollte direkt zum Titel "Empfehlungen für die Praxis" springen):

  • Erstens ist stets zu bedenken, dass das Urheberrecht jedenfalls in unserem Rechtskreis nur für geistige Schöpfungen gewährt wird, d.h. das Werk muss sich ein Mensch ausgedacht haben. Mit gewissen Ausnahmen, z.B. für Fotos (siehe nachfolgend dritter Punkt), muss das Werk auch einen individuellen Charakter aufweisen (dazu sogleich). Eine Schöpfung nur einer in diesem Punkt autonom handelnden Maschine ist nicht urheberrechtlich geschützt. Das heisst jedoch nicht, dass der Output von generativer KI per se nicht urheberrechtlich geschützt ist. Soweit der Output einer solchen KI Elemente wiedergibt, die eine geistige Schöpfung sind und sie auch sonst die Vorgaben des Urheberrechtsschutzes erfüllen, sind sie trotzdem geschützt. Beispiel: Ein Anwender denkt sich eine ausgefallene, kreative Bildkomposition aus, verfasst einen entsprechenden Prompt und der Computer generiert daraus ein Bild. Soweit dieses die originäre und originelle Komposition wiedergibt, ist der KI-Output in Bezug auf eben diese Komposition geschützt. Die generative KI ist hier nur das Werkzeug zur Darstellung eines (in Form des Prompts) bereits bestehenden Werks. Ist der Prompt hingegen banal oder gibt er die individuellen Elemente des Outputs nicht vor, ist das darauf basierende Bild nicht urheberrechtlich geschützt, weil es keine geistige Schöpfung eines Menschen, sondern einer in diesem Punkt autonom handelnden Maschine darstellt.
  • Zweitens sind die Urheberrechte eines Rechteinhabers in aller Regel nur dann verletzt, wenn ein zweites Werk nach wie vor charakteristische Elemente des (konkreten) Werks des Rechteinhabers aufweist; keine Verletzung liegt vor, wenn ein urheberrechtlich geschütztes Werk allenfalls als Vorlage oder zur Inspiration benutzt wurde, dessen individueller Charakter im zweiten Werk aber nicht mehr erkennbar oder im Vergleich zur Individualität des Outputs der KI verblasst ist, wobei auch Umstände wie der Gestaltungsspielraum und der innere Abstand zwischen dem ersten und zweiten Werk zu berücksichtigen sind. In der Praxis kommt es letztlich auf den Gesamteindruck desjenigen an, der das erste Werk kennt: Es müssen die schöpferischen Eigentümlichkeiten des ersten Werks mit denen des zweiten Werks verglichen und beurteilt werden, wie sehr sie übereinstimmen. Begrifflich wird allerdings vorausgesetzt, dass das Erstwerk für die Erstellung des Zweitwerks "verwendet" worden ist (auch wenn dazu kein Werkexemplar im Spiel war), da das Urheberrecht dem Rechtinhaber grundsätzlich nur einen Schutz vor unerlaubter Verwendung seines eigenen Werks gewährt (Schweiz: Art. 10 URG). Kommt es also tatsächlich zu einer von Erstwerk unabhängigen Parallelschöpfung, muss sie zulässig sein. Während dies in manchen Rechtsordnungen anerkannt ist, ist die Frage in der Schweiz umstritten und ungeklärt, wohl auch deshalb, weil sie bisher als mehr oder weniger theoretisches Konstrukt betrachtet worden ist, da sich niemand vorstellen konnte, wie sie entstehen könnte. Es wurde argumentiert, dass selbst wenn keine bewusste Übernahme des Erstwerks erfolgt sei, dieses dem Schöpfer des Zweitwerks vermutlich im Unterbewusstsein trotzdem bekannt war und es damit die Schaffung des Zweitwerks beeinflusste. In Anbetracht der Möglichkeiten und Funktionsweise der KI zur Erstellung von Werken wird die Frage freilich neu diskutiert werden müssen, da sie technisch bedingt nun ohne Weiteres vorkommen kann. Während die bisherige Lehre und Rechtsprechung zwar nur für Zweitschöpfungen durch Menschen entwickelt wurde, spricht zunächst nichts dagegen, sie auch auf den Output von generativer KI anzuwenden. Dies bedeutet, dass der Verwender der KI für das, was er mit dem von ihr erzeugten Output tut, rechtlich verantwortlich ist, wie wenn er es selbst geschrieben oder sonst kreiert hätte – natürlich unter Berücksichtigung seines Verschuldens, was für die Frage der Strafbarkeit und eines Schadenersatzes von Relevanz sein kann. Verletzt dieser fremde Urheberrechte, weil er die individuellen Züge eines vorbestehenden, geschützten Werks in relevantem Ausmass aufweist und hat der Verwender weder die Einwilligung des Rechteinhabers noch eine gesetzliche Erlaubnis, auf die er sich berufen kann, kann ihm die Verwendung untersagt werden. Eine Ausnahme kommt nun aber dann in Frage, wenn die KI das angeblich nachgeahmte Werk tatsächlich nicht als Vorlage benutzt hat. Die Frage der Beweislast lassen wir an dieser Stelle offen, weisen aber darauf hin, dass in rein technischer Hinsicht mit Ausnahmefällen einzelne Texte oder Bilder jedenfalls bei KI-Modellen nach dem Transformer-Prinzip (wie GPT oder Dall-E) gerade nicht als eigentliche Vorlagen verwendet werden. Die Verwendung solcher Werke für das Training mag eine Urheberrechtsverletzung darstellen oder nicht, doch ist das Modell einmal trainiert, findet sich das Werk als solches in der Regel nicht mehr im KI-Modell wieder. Eine Kopie des Werks wird nur in Ausnahmefällen rekonstruiert werden können, und auch dann nur mit dem richtigen Prompt. Der Umstand der Rechtsverletzung durch den Trainer kann somit dem Verwender des Modells nicht entgegengehalten werden, jedenfalls solange diese beiden Voraussetzungen nicht zusammenkommen. Ein Sprachmodell enthält beispielsweise nicht eine Kopie der Dokumente aus dem Training, sondern – vereinfacht gesagt – nur Zahlen (sog. Gewichte), welche die Bedeutung der Wörter bezüglich diverser Aspekte wiedergeben. Diese sind aus den Wörtern der im Training benutzten Werke abgeleitet worden. Je besser das KI-Modell die Bedeutung der Wörter des Inputs (also des Prompts) anhand dieser Gewichte ermitteln kann, desto besser wird das Modell in der Lage sein, das Wort vorherzusagen, das basierend auf dem Trainingswissen am wahrscheinlichsten auf den bisherigen Text folgt. Das ist die einzige Aufgabe eines Sprachmodells. Die Bedeutung der Wörter wird dabei zu einem wesentlichen Teil nicht absolut referenziert, sondern im Verhältnis zueinander ("Onkel" verhält sich zu "Tante" wie "Mann" zu "Frau"). Jedes einzelne, im Training gesichtete Werk beeinflusst dabei die im Modell als Zahlenwerte gespeicherten Beziehungen und sonstigen Bedeutung von Wörtern. Es würde also gar nichts nutzen, wenn das Werk als solches im Modell abgelegt wäre, weil sich damit nicht rechnen lässt. Das hier verwendete "Transformer"-Verfahren führt vielmehr dazu, dass die individuellen Züge der einzelnen, für das Training benutzten Werke neutralisiert bzw. normalisiert werden, weil das Modell zu einem bestimmten Aspekt nur am gemeinsamen Nenner aller Werke interessiert ist, d.h. an allgemeingültigen Aussagen, aus denen sich auch Texte erschaffen lassen, die im Trainingsmaterial nicht enthalten war. Das stösst immerhin dort an seine Grenzen, wo bestimmte Texte das Training besonders dominieren, etwa weil sie darin sehr oft vorkommen oder ein Text zu einem Thema eines von wenigen Texten ist. Wer ein Sprachmodell um die Ergänzung eines in den Trainingstexten häufig vorkommenden Satzes bittet, dem wird das KI-Modell den Gefallen vorbehältlich etwaiger Guardrails machen: Wer GPT4 bittet, den Satz "Haribo macht Kinder froh …" zu ergänzen, der enthält ein "und Erwachsene ebenso" (hingegen wurde GPT 3.5 mit weniger deutschem Material trainiert und komplettiert den Satz jedenfalls bei hoher "Temperatur" anders; dies ist ein Parameter zur Steuerung eines grossen Sprachmodells, dazu unten mehr). Das Modell hat diesen Satz vermutlich etliche Male gesehen und tut das, was von ihm erwartet wird: Es produziert die wahrscheinlichste Antwort darauf. Kommt hinzu, dass der Spruch speziell ist und daher kaum eine Alternative zur korrekten Vervollständigung des Satzes zulässt. Solche Fälle sind natürlich keine unabhängigen Parallelschöpfungen, im praktischen Alltag jedoch eher die Ausnahme (jene, die KI-Modelle trainieren, sind zudem nicht daran interessiert, ihren Modellen dieselben Dokumente mehrfach vorzulegen, weshalb sie in der Vorbereitungsphase zum Beispiel darauf achten, "duplicates" und "near-duplicates" möglichst auszusondern). Diese Fälle entsprechen mit Blick auf die Diskussion zu Parallelschöpfungen, dem Fall des Schöpfers, der sich durch ein in seinem Unterbewusstsein vorhandenes Fremdwerk leiten lässt. Der Normallfall im Bereich der generativen KI entspricht hingegen dem Schüler, der vom Meister gelernt hat, wie sich Werke in einer bestimmten Art und Weise erschaffen lassen und sich von allen gesehenen Werken allgemeines, abstrahiertes Wissen angeeignet hat, und die Erstellung seiner eigenen Werke gerade kein konkretes Werk als Vorlage nutzt. Bei einem Menschen wird bei zu grosser Nähe zweier individueller Werke immer der Verdacht bestehen, dass er sich – wenn auch unbewusst – bei der Schaffung seines Zweitwerks doch an das Erstwerk als ein einzelnes, konkretes Werk erinnert hat. Bei generativer KI der hier beschriebenen Art muss technisch bedingt gerade das Gegenteil der Fall sein, jedenfalls wenn es um die Erstellung von Inhalten zu generischen Themen und Motiven geht, die auf viele Weisen interpretiert werden können und sich daher auch im Trainingsmaterial viel unterschiedliches Material befindet, aus dem die KI ihr "Mittel" zieht. In diesen Fällen ist es wahrscheinlicher, dass das Erstwerk, welches die KI angeblich nachgeahmt haben soll, in Wirklichkeit viel weniger einmalig ist als womöglich behauptet. Anders gesagt: Wenn eine Transformer-KI ein vergleichbares Bild produziert, ist dies bei generischen Motiven eher ein Anzeichen dafür, dass mangels individuellem Charakter nicht einmal das Erstwerk geschützt sein dürfte und ihm auch die von Schweizer Gerichten so gerne zitierte "statistische Einmaligkeit" fehlt. Selbst wenn der individuelle Charakter bejaht würde, läge im Falle solcher nicht "prominenten" Erstwerke eine unabhängige Parallelschöpfung vor, weil sie technisch bedingt nicht aufgrund eines bestimmten einzelnen Werks erzeugt werden konnten, sondern aus der (für sich nicht geschützten) Ableitung der Eigenschaften einer ganzen Serie von Werken. Die KI hätte beim Thema Parallelschöpfung also – faktisch – einen Vorteil gegenüber dem Mensch als Schöpfer, weil letzterem seine Unabhängigkeit in der Regel nicht geglaubt werden wird. Das Ergebnis ist nach der hier vertretenen Ansicht, dass eine Verletzung von Urheberrechten an vorbestehenden Werken durch den Einsatz solcher generativer KI in solchen Konstellationen unwahrscheinlich ist, solange der Benutzer der KI es nicht durch seine Prompts darauf anlegt, eine Nachahmung eines bestehenden Werks von der KI erzeugen zu lassen. Dann allerdings liegt das Risiko nicht in der KI begründet. Im vielzitierten Prozess der New York Times gegen OpenAI und Microsoft wird übrigens genau dies das Thema sein. Das KI-Modell von OpenAI soll Teile von Artikeln des Blatts auf entsprechende Prompts hin wortwörtlich wiedergegeben haben. OpenAI hielt dem entgegen, die Prompts seien genau darauf ausgelegt gewesen und es soll sich um Texte gehandelt haben, die im Internet häufig vorgekommen seien. Entschieden ist der Fall freilich nicht. Wie er und wie auch weitere Fälle entschieden werden – einschliesslich die Frage der unabhängigen Parallelschöpfung – ist völlig offen. Es wird dabei sicherlich auch jene geben, denen die obigen technischen Differenzierungen zu kompliziert sind und die daher den "Black Box"-Ansatz vertreten werden: Wurde ein geschütztes Werk für das Training einer KI benutzt und kommt dann etwas ähnliches in ihrem Output vor, muss das zwangsläufig eine unerlaubte Verwendung des Erstwerks sein. Aufgrund der beschriebenen Funktionsweise von Transformer-Modellen dürfte das aber in den meisten Fällen selbst dann nicht zu erwarten, wenn das Original-Werk für das Training benutzt worden ist, wie das nachfolgende Beispiel zeigt: Links ist ein bekanntes Werk von Roy Lichtenstein zu sehen. Obwohl eine KI mit einer Beschreibung des Bilds von Roy Lichtenstein gefüttert und von ihr verlangt wurde, ein Bild mit demselben Stil zu entwerfen, und obwohl ihr Modell im Training das Bild von Roy Lichtenstein wohl gesehen hat (da es in Wikipedia enthalten ist), generierte die KI im Bild rechts ein anderes Bild mit ganz anderen individuellen Zügen. Die direkte Generierung der Vorlage von Roy Lichtenstein verweigerte die KI aufgrund ihrer Guardrails von vornherein.
  • Drittens kennt jedenfalls das Schweizer Urheberrecht eine Ausnahme für "fotografische Wiedergaben und mit einem der Fotografie ähnlichen Verfahren hergestellte Wiedergaben dreidimensionaler Objekte", die auch ohne individuellen Charakter vor Nachahmung geschützt sind. Nach der hier vertretenen Ansicht wird diese Regelung vorliegend aber nur eine untergeordnete Rolle spielen, da bereits geringe Abweichungen von einer geschützten Vorlage dazu führen dürften, dass kein Schutz mehr vorliegt, und der Output einer KI selbst ("Kreiere mir ein fotografisches Bild eines Apfels.", siehe Bild) schon deshalb nicht unter die besagte Ausnahme fallen wird, weil sie keine Wiedergabe eines tatsächlich existierenden dreidimensionalen Objekts darstellt. Wer ein KI-Bild wie das folgende von einem Apfel (i.c. erstellt von Dall-E 3) verwendet, wird sich unseres Erachtens daher nicht wirklich sorgen müssen, dass sein Bild einer realen Fotografie eines Apfels zu ähnlich sieht, weil es, um in den urheberrechtlichen Schutzbereich zu fallen, mit der Fotografie praktisch identisch sein müsste. Das ergibt sich daraus, dass der Fotografienschutz gerade keinen individuellen Charakter voraussetzt, und der Schutzbereich in der Regel danach bemessen wird, ob der individuelle Charakter noch im Zweitwerk erkennbar ist. Sollte sich der Fotograf des angeblichen Erstwerks darauf berufen, dass der individuelle Charakter seines Fotos im KI-Bild ebenfalls erkennbar ist und ihm somit unabhängig vom Fotografienschutz ein urheberrechtliches Abwehrrecht zusteht, wird ihm entgegengehalten werden können, dass KI-Bilder bei solchen Standardmotiven per se keinen individuellen Charakter aufweisen können, weil sie das gemittelte Ergebnis zahlreicher Vorlagen sind. Wir rechnen sogar damit, dass selbst in klassischen Nachahmerprozessen vom angeblichen Nachahmer auf der Basis von Outputs generativer KI geltend gemacht werden wird, dass die angeblich nachgeahmten und erkennbaren Elemente des Erstwerks über keinen individuellen Charakter verfügen, weil jede KI sie auch so generieren würde wie er es getan habe (und daher auch keine statistische oder sonst keine Einmaligkeit bestehe).
  • Viertens verfügen die weitverbreiteten Services für generative KI wie ChatGPT oder Copilot heute zum Selbstschutz über immer bessere Massnahmen, um zu verhindern, dass ihre Systeme aufgrund des "Wissens" ihrer KI-Modelle Inhalte generieren, die ihnen bekannte Drittrechte verletzen. Diese sog. Guardrails halten die Anbieter üblicherweise streng geheim, damit deren Umgehung schwieriger ist. Sie ergänzen den Schutz, der bereits über ein entsprechendes Training und Initiieren des KI-Modells erreicht werden kann. Einige dieser Massnahmen setzen bereits am Prompt an und sorgen dafür, dass dessen Ausführung verweigert wird oder er vor seiner Ausführung (vom Anwender unbemerkt) ergänzt oder angepasst wird. In anderen Fällen prüfen sie den Output auf Hinweise auf eine Verletzung von Drittrechten, so wie dies beispielsweise auch die grossen Plattformen für User Generated Content wie YouTube tun, wenn ein neues Video hochgeladen wird. Die Rechteinhaber können Google für diesen Zweck "Fingerabdrücke" ihrer Inhalte übermitteln, um Kopien ihrer Werke automatisiert erkennen zu können und zu sperren oder ein Profit-Sharing zu aktivieren. Das schützt letztlich auch die Anwender, auch wenn die Guardrails teils auch gesetzlich zulässige Werksverwendungen verweigern. Wer es allerdings darauf anlegt, mit generativer KI Drittrechte zu verletzen, zum Beispiel indem über geschicktes Prompting die Guardrails umgangen werden, dem wird dies oft auch gelingen. Dann kann dies allerdings nicht der KI oder deren Anbieter zum Vorwurf gemacht werden – genauso, wie der Anbieter einer Textverarbeitungssoftware nicht für Urheberrechtsverletzungen verantwortlich ist, die ein Anwender dadurch begeht, dass er ein Plagiat verfasst.
  • Fünftens ist nicht nur relevant, ob an einem Inhalt ein Drittrecht besteht, sondern wofür es verwendet wird. Erst in der Kombination kann beurteilt werden, ob die Verwendung die Drittrechte in rechtlich relevanter Weise verletzt. Die Verwendung von fremden Werken ist bei bestehendem rechtlichen Schutz nicht nur mit Einwilligung des Rechteinhabers gestattet, sondern in manchen Fällen auch schon deshalb, weil das Gesetz dies vorsieht. Das Urheberrecht kennt beispielsweise viele Ausnahmen, in denen ein fremdes Werk auch gegen den Willen des Rechteinhabers benutzt werden kann, zum Beispiel um es zu zitieren oder zur Erstellung einer Parodie. Das Schweizer Lauterkeitsrecht wiederum verbietet die Übernahme fremder marktreifer Arbeitsergebnisse nur soweit kein eigener angemessener eigener Aufwand für die technische Übernahme oder Verwendung des Arbeitsergebnisses betrieben wird (z.B. durch Veredelung des Inhalts). Auch Verträge, in denen ein Unternehmen sich mindestens vertraglich verpflichtet, einen bestimmten Inhalt nur wie im Vertrag vorgesehen zu nutzen, unterscheiden oft zwischen interner und externer Nutzung, also ob der Inhalt nur für interne Zwecke benutzt wird oder ob er auch Dritten oder gar in der Öffentlichkeit kommuniziert wird.
  • Sechstens sollte jedes Unternehmen bedenken, dass es nicht nur Inhalte von Dritten benutzen wird, sondern selbst ebenfalls Inhalte generiert, an deren Schutz es ein Interesse hat und die es beispielsweise nicht einfach einem KI-Dienstleister überlassen will. Der Schutz eigener Inhalte sollten insbesondere bei der Auswahl von KI-Tools und -Services sowie bei der Schulung der eigenen Mitarbeitenden im Umgang mit KI nicht zu kurz kommen.

Die verschiedenen Fallkonstellationen des Urheberrechts in der Praxis haben wir auf dieser Übersicht zusammengestellt (nur auf Englisch):

Dass wir an dieser Stelle nicht auf das Training von KI-Modellen eingehen, hat nicht nur damit zu tun, dass nicht sehr viele Unternehmen ein solches selbst erstellen, sondern auch, dass der Verwender eines KI-Modells für Urheberrechtsverletzungen beim Training eines solchen Modells, sofern er es nicht in Auftrag gegeben hat oder daran beteiligt war, nach unserer Auffassung normalerweise nicht verantwortlich gemacht werden kann. Wer eine Suchmaschine wie Google oder eine Plattform wie YouTube benutzt, kann nicht oder wird in der Praxis jedenfalls nicht für etwaige Verstösse des Betreibers eines solchen Services belangt.

Die Verantwortung des Anwenders liegt in der Art und Weise, wie er den Service benutzt, wofür und womit, d.h. welchen Input er liefert und was er mit dem Output tut. Verletzt dieser Output etwaige Drittrechte unwissentlich, schützt ihn das allerdings ebenfalls nicht, da es im Urheberrecht grundsätzlich keinen Schutz des guten Glaubens gibt; es bleibt eine Rechtsverletzung, auch wenn der Anwender nichts dafür kann. Lediglich bei Themen wie Schadenersatz oder Strafbarkeit (eine Urheberrechtsverletzung kann beides mit sich bringen) werden solche Umstände relevant.

Auch keine weiteren Ausführungen machen wir an dieser Stelle schliesslich zum Thema Leistungsschutzrecht für Medien, welches in verschiedenen Rechtsordnungen existiert und in der Schweiz derzeit diskutiert wird. Es geht um die Abgeltung von Medienhäusern, wenn deren Online-Inhalte genutzt werden, und zwar teilweise auch dann, wenn sie keinen individuellen Charakter aufweisen.

Empfehlungen für die Praxis

Damit sich eine Organisation in der Praxis möglichst gut absichern kann im Bereich der vorgenannten Herausforderungen, empfehlen wir folgende Massnahmen zu prüfen:

  1. Regelung der Nutzung durch die Dienstleister: Prüfen Sie die von Ihnen verwendeten KI-Tools und -Services daraufhin, ob der Input oder Output für eigene Zwecke des Dienstleisters (namentlich das Training seiner KI) verwendet wird. Wenn dies der Fall ist und es sich nicht deaktivieren lässt, dann sollten diese Tools und Services normalerweise nicht mit Inhalten gefüttert werden, an denen Drittrechte bestehen, weil deren Verwendung durch den Dienstleister heute oftmals noch eine Verletzung der Drittrechte zur Folge haben kann, für welche Sie verantwortlich gemacht werden können. Ob eine solche Eigennutzung durch den Dienstleister erfolgt, finden Sie durch Prüfung der Verträge heraus, wobei Sie darauf achten sollten, dass diese Verträge eine solche Nutzung ausschliessen. Sagen die Verträge nichts zum Thema (bzw. der Verwendung der Inhalte des Kunden), können Sie leider nicht sicher sein; die meisten Dienstleister äussern sich allerdings zu dieser Frage, weil sie sich auch selbst absichern wollen. Klären Sie dies nötigenfalls direkt mit dem Dienstleister. Behält sich der Dienstleister die Sichtung von Input oder Output auf mögliche Gesetzes- und Regelverstösse vor, so ist dies in der Regel in der Praxis kein Problem; damit müssen Rechteinhaber rechnen und dies tangiert ihre Rechtsposition auch nicht wirklich.
  2. Einschränkungen seitens der Dienstleister beachten: Prüfen Sie die von Ihnen verwendeten KI-Tools und -Services darauf, ob der Dienstleister sich am Output irgendwelche Rechte vorbehält, ob er dazu nichts sagt oder ob er Ihnen ausdrücklich erlaubt, dass Sie den Output frei verwenden können. Normalerweise enthalten die Nutzungsbedingungen eine entsprechende Regelung und normalerweise ist eine freie Verwendung vorgesehen – allenfalls eingeschränkt durch ein allgemeines Verbot, wonach die Dienstleistung nicht für rechts- oder regelwidrige Zwecke benutzt werden darf (Beispiel: Sie erstellen ein Video mit einem KI-Avatar basierend auf den Aufnahmen eines realen Schauspielers – der Dienstleister wird Ihnen berechtigterweise zum Schutz des Schauspielers Einschränkungen auferlegen und bestimmen, wofür Sie diesen Avatar verwenden dürfen und wofür nicht). Wenn der Dienstleister darüber hinaus eigene Rechte am Output vorbehält, sollten Sie sich gut überlegen, ob Sie dieses Tool oder diesen Service tatsächlich nutzen wollen. Für eine solche Regelung kann es gute Gründe geben, etwa wenn der Dienstleister die Inhalte zur Weiterentwicklung seines Produkts nutzen will und Sie davon auch einen Vorteil haben; in diesen Fällen wird er sich aber in erster Linie auch ein (nicht exklusives) Recht am Inhalt einräumen und Sie den Output weiterhin frei nutzen lassen. In der Praxis kommen jedoch auch Regelungen vor, in denen Anwender den generierten Output nicht frei und beliebig oft nutzen dürfen, weil der Dienstleister die Kunden auf diese Weise zur Bezahlung kostenpflichtiger Extras zwingen will, denen sie sich möglicherweise zu Beginn gar nicht bewusst sind. Von Dienstleistern mit solchen Praktiken sollten Sie tendenziell Abstand nehmen.
  3. Vereinbarung einer Schadloshaltung: Einige Anbieter wie Microsoft, Google und AWS werben damit, dass sie Anwender schadlos halten, wenn Dritte erfolgreich geltend machen sollten, dass der Output bestimmter KI-Services ihre Urheberrechte verletzen. Nach unserer Einschätzung dienen solche Versprechen primär dem Marketing. Erstens sind sie oftmals stark eingeschränkt und gelten beispielsweise nur bei Verwendung bestimmter Modelle und Produkte und unter der Bedingung, dass alle anbieterseitigen Kontrollmechanismen aktiviert sind und die jeweiligen Benutzer selbst nicht zur Verletzung der Drittrechte beigetragen haben. Diese Bedingungen können die Beanspruchung der Schadloshaltung in der Praxis stark einschränken. Zweitens dürften Fälle, in denen Rechteinhaber Endkunden der betreffenden Anbieter ins Recht fassen, äusserst selten sein. Das hat damit zu tun, dass KI-Output, der Drittrechte tatsächlich verletzt, nach unserer Einschätzung bereits selten sein wird, wenn gewisse Regeln beachtet werden (siehe nachfolgend). Noch seltener wird sein, dass in solchen Fällen der Endkunde verklagt wird. Sehr viel wahrscheinlicher ist, dass Rechteinhaber direkt gegen die Anbieter vorgehen (wie dies bisher auch geschehen ist). Selbst wenn Ansprüche gegen einen gutgläubigen Endkunden im Einzelfall ein Thema werden sollte, dann in aller Regel wohl nur, weil dieser einzelne verletzende Inhalte benutzt hat. Für solche Fälle wird sich relativ rasch eine günstige finanzielle Regelung finden lassen. Kommt es tatsächlich je zu einem solchen Fall, wird der Anbieter des KI-Modells möglicherweise auch ohne vertragliche Pflicht zur Schadloshaltung ein grosses Interesse haben, in den betreffenden Streit eingreifen zu können, um sein KI-Modell zu verteidigen und nach Kräften die Verurteilung des Kunden zu verhindern, weil eine solche Verurteilung auf ihn als Anbieter zurückfallen würde. Mit anderen Worten: Eine Schadloshaltung schadet nicht, doch auch ohne eine solche sind die Chancen gut, dass sich ein Anbieter im unwahrscheinlichen Fall der Fälle eine solche gewähren wird, sollte tatsächlich sein KI-Modell für eine Verletzung von Drittrechten verantwortlich sein.
  4. Verständnis der Mitarbeitenden schärfen: Urheberrechtsverletzung kommen im Geschäftsalltag auch ohne generative KI häufig vor. Da peppt jemand etwa seine Präsentation unerlaubt mit einem Bild aus dem Internet auf oder sendet gedankenlos die Kopie eines fremden Zeitungsartikels an einen Kunden ohne vorgängig die Einwilligung für diese Vervielfältigung und Verbreitung des Werks eingeholt zu haben. Mit den Werkzeugen der generativen KI wird es ebenfalls zu manchen solchen Verletzungen kommen: Da bittet ein Benutzer die KI ein existierendes, fremdes Foto, das ihm gefällt, ein wenig anzupassen, damit er es für seinen geschäftlichen Zweck verwenden kann. Oder er generiert ein Bild, das nach seiner Instruktion zeigt, wie Superman sein Produkt bewirbt. Oder er stellt eine Szene aus einem bekannten Kunstwerk mit kleinen Anpassungen mit Hilfe der KI nach, indem er die Szene im Detail beschreibt. Fördern heutige KI-Werkzeuge solche Rechtsverletzungen? Eher nicht, jedenfalls die kommerziellen, gut bekannten Produkte von Anbietern wie OpenAI, Microsoft oder Google nicht. Zwar können sie vom Prinzip her das Kopieren oder Nachahmen von bestehenden Werken vereinfachen; Bildbearbeitung ist dank KI auf Mobiltelefonen und im Internet neu auch für jene zugänglich, die keine Experten in Photoshop sind. Die oben erwähnten Guardrails, welche die Anbieter bei sich eingebaut haben, um allzu plumpe Verletzungen zu verhindern, werden zugleich immer effektiver. So verweigert ChatGPT den Dienst, wenn die ersten Zeilen aus dem ersten Harry Potter-Roman fortgeführt werden sollen, die selbst ohne Quellenangabe im Prompt mitgegeben werden (was vermuten lässt, dass OpenAI eine separate Datenbank mit Hinweisen auf geschützte Werke betreibt), oder ein Bild im Stil von Roy Lichtenstein erstellt werden soll. Für Unternehmen bedeutet dies daher, dass sie ihren Mitarbeitenden vor allem einschärfen sollten, dass diese KI-Tools und -Services trotz der neuen Möglichkeiten weiterhin nicht dazu nutzen dürfen, um fremde Werke ohne Erlaubnis der Rechteinhaber oder gesetzlichen Ausnahmetatbestand zu kopieren oder nachzuahmen. Was ohne KI nicht getan werden darf, darf auch mit KI nicht getan werden.
  5. Tools mit aktivierten Guardrails nutzen: Die vorstehend beschriebenen Schutzvorkehrungen der populären KI-Tools und -Services mögen die Benutzer im Einzelfall nerven oder übervorsichtig eingestellt sein, doch Unternehmen profitieren von der Schutzwirkung letztlich genauso wie die Anbieter.  Erstens verhindern sie gewisse Urheberrechtsverletzungen durch ihre eigenen Mitarbeitenden, die letztlich ihnen als Arbeitgeber zugerechnet werden können. Zweitens stellen sie eine Sorgfaltsmassnahme dar, die im Fall der Fälle für die Beurteilung der Sorgfaltspflichten nebst der korrekten Instruktion der Mitarbeitenden von Relevanz sein wird. Nach unserer Erfahrung verfügen besonders populäre, von grossen Anbietern bereitgestellte Tools und Services tendenziell über bessere Schutzmassnahmen, da sie besonders im Fokus der Rechteinhaber stehen. Schwierigkeiten kann in der Praxis der Konflikt zum Amts- oder Berufsgeheimnis bereiten: Um letzteres zu wahren, wird es normalerweise nötig sein, die genannten Schutzmechanismen auszuschalten (weil sie dazu führen können, dass Mitarbeitende des Anbieters des KI-Tools oder -Services Einblick in die Inhalte des Unternehmens gewährt wird, was an sich nicht erlaubt ist). Das verträgt sich in der Regel nicht mit den Geheimhaltungspflichten. Bei reinen Open-Source-Modellen und den auf eigenen Systemen ("on-prem") betriebenen Modellen stehen solche Schutzmassnahmen oft ebenfalls nicht zur Verfügung. Mit anderen Worten: Es ist für ein Unternehmen weniger riskant, seine Mitarbeitenden Dall-E, Copilot oder Gemini für die Erstellung von Bildern nutzen zu lassen als Bildgeneratoren mit weniger oder keinen Guardrails wie Stable Diffusion oder Midjourney.
  6. Tools mit neuen, grossen Modellen nutzen: Als Faustregel kann gelten, dass je mehr Material für das Training eines Modells für generative KI benutzt worden ist, desto wahrscheinlicher ist es entsprechend den obigen Ausführungen, dass Elemente einzelner Werke mit individuellem Charakter im Trainingsmaterial "neutralisiert" sind und daher nicht mehr im Output auftauchen – mit Ausnahme weit verbreiteter Werke (dort verhält es sich gerade umgekehrt). Kommt hinzu, dass die Anbieter über die Zeit aufgrund ihrer Erfahrungen (einschliesslich ihrer Rechtstreitigkeiten) lernen, ihre Modelle rechtssicherer zu gestalten. Daher kann das Risiko von Outputs einer KI, welche Drittrechte verletzen, durch die Wahl von neueren und grossen KI-Modellen tendenziell reduziert werden. Wenn von "gross" die Rede ist, ist damit allerdings nicht der Speicherplatz gemeint, den ein KI-Modell beansprucht, sondern der Umfang des Trainings bzw. die Menge des benutzten Trainingsmaterials, wobei hierzu kommerzielle Anbieter in aller Regel keine genauen Angaben machen.
  7. KI-Ergebnisse online prüfen: Will sich ein Unternehmen zusätzlich absichern, bevor es insbesondere von generativer KI generierte Bilder verwendet, kann sich eine Internet-Recherche lohnen. Mit Suchdiensten wie von Google ist es heute möglich, nach Bildern zu suchen, die einer konkreten Vorlage ähneln. So kann ein Benutzer feststellen, ob "sein" Bild schon im Internet vorkommt oder einem geschützten Werk zu ähnlich sieht. Ähnliches gilt für Texte. In der Regel nicht zielführend ist es, der KI entsprechende Fragen zu stellen, also etwa von ihr überprüfen zu lassen, ob das Bild dem eines menschlichen Künstlers zu ähnlich ist. Die KI wird diese Aufgabe häufig aufgrund ihrer Guardrails verweigern oder nicht in der Lage sein, sie vernünftig zu beantworten; ein Modell für generative KI ist keine Datenbank mit vorbestehenden Werken, die abgefragt werden können. Es nutzt auch nichts, der KI den Auftrag zu geben, bei der Erstellung eines Bilds oder eines Textes darauf zu achten, dass der Text keinem vorbestehenden Text entspricht; die KI wird dieser Anweisung in der Regel keine Folge leisten, weil sie nicht so funktioniert.
  8. Passendes Prompting: Wir haben oben gezeigt, dass die Wahrscheinlichkeit verletzender Inhalte generativer KI aufgrund ihrer Funktionsweise stark abnimmt, wenn sie zur Erstellung von Inhalten zu Themen benutzt wird, von denen sie im Training viele unterschiedliche Ausprägungen gesehen hat. Daraus lassen sich zwei Strategien ableiten, die vor KI-Inhalten schützen helfen, die Drittrechte verletzen: Die erste besteht darin, der KI möglichst wenige und generische Vorgaben zu machen; wird dies noch mit einer hohen Temperatur verbunden (die Temperatur ist ein Parameter zur Steuerung eines KI-Modells; je höher der Wert ist, desto eher weicht der Output von der üblichen Reaktion auf den Input ab), wo eine solche erfasst werden kann, nimmt die Gefahr einer Rechtsverletzung normalerweise ab, weil sie die Wahrscheinlichkeitsverteilung in einer Art und Weise beeinflusst, die der exakten Kopie eines vorbestehenden Werks entgegenwirkt. Diese Strategie baut darauf, dass dort, wo etwas Generisches verlangt wird, das KI-Modell viele Interpretationen des Themas gesehen hat und daher der Einfluss einzelner Ausprägungen auf das Ergebnis statistisch abnimmt. Es wird dann Durchschnitt statt Originalität produziert. Die andere, gegenteilige Strategie besteht darin, möglichst viele und spezifische Vorgaben zu machen, von denen der Benutzer weiss, dass sie in der Kombination nicht vorbestehendem Werk entspricht. Damit sorgt er dafür, dass die KI nicht "auf dumme Gedanken" kommt und sich an einem aus ihrer Sicht passenden, weil im Trainingsmaterial zum Prompt sehr häufig vorkommenden Werk orientiert. Hier spielt die Temperatur eine weniger grosse Rolle, weil das KI-Modell auf andere Weise gezwungen wird, bei der Generierung von Inhalten vom Üblichen abzuweichen.
  9. KI-Ergebnisse weiter verändern: Guten Schutz vor Vorwürfen der urheberrechtlichen Nachahmung bietet das nachträgliche Umarbeiten des Outputs einer KI. Wer einen KI-generierten Text lediglich als Basis oder Ausgangspunkt seiner eigenen Schöpfung benutzt und in der Folge entsprechend stark umarbeitet, wird sich faktisch keine Gedanken mehr darüber machen müssen, ob der erste Text geschützte Inhalte Dritter enthielt. Eine Möglichkeit besteht auch darin, dass Outputs verschiedener KI miteinander kombiniert werden. Ohnehin machen auch viele KI-Künstler die Erfahrung, dass die Nachbearbeitung von initial vom Computer erstellten Werken oftmals einen hohen Zusatzaufwand mit sich bringt, aber sowieso erforderlich ist. Dies kann auch vor lauterkeitsrechtlichen Vorwürfen schützen. Vor diesem Hintergrund kann es daher hilfreich sein, den eigenen Aufwand entsprechend zu dokumentieren – ebenso wie die Prompts, die zur Generierung des Rohmaterials verwendet worden sind. Sie können relevant werden, wenn es im seltenen Fall von rechtsverletzendem Output einer KI die unabhängige Doppelschöpfung zu belegen gilt, auch wenn sich der Benutzer eines KI-Modells das "Wissen" seines Modells anrechnen lassen muss.
  10. Fremde Inhalte nur mit Bedacht nutzen: In der Praxis ist es erfahrungsgemäss sehr viel wahrscheinlicher, dass ein Benutzer von generativer KI diese selbst mit urheberrechtlich geschützten Inhalten füttert, als dass die KI solche von sich aus ihrem Modell generiert. Allzu rasch sind ganze Dokumente in ein KI-Tool oder -Service hochgeladen, um sie beispielsweise zusammenfassen oder sonst verarbeiten zu lassen. Unternehmen erweitern ihre KI-Systeme immer häufiger um Suchfunktionen in eigenen Datenbanken oder dem Internet, weil dies sehr viel bessere Ergebnisse verspricht (sog. Retrieval Augmented Generation-Methode oder kurz RAG). An diesen Inhalten können selbstverständlich ebenfalls Drittrechte bestehen und in diesen Fällen ist es auch viel wahrscheinlicher, dass solche Inhalte so übernommen werden, dass ihre individuellen Züge auch im Output der KI noch enthalten sind. Für die Verwendung solcher Inhalte gelten dann im Wesentlichen dieselben Schranken wie für die Inhalte, mit denen die KI gefüttert worden ist. Ein solches RAG kann automatisch erfolgen, etwa wenn ein Chatbot seine Antwort nicht nur aus dem eigenen LLM kreiert, sondern er auch über eine Internet-Anbindung verfügt. Benutzt er für die Erstellung seiner Antwort das, was er auf Basis der Frage soeben im Internet gefunden hat, ist die Chance (oder das Risiko) deutlich höher, dass relevante Teile von Werken mit Drittrechten wiederverwendet werden. Das trifft sogar bei generischen Themen zu, weil der Chatbot beim RAG-Verfahren nicht den "Durchschnitt" aller Trainingsinhalte verwendet, sondern "nur" das im Internet als erste gefundene Material nimmt und dieses mehr oder weniger verarbeitet. Die Verwendung von fremden Inhalten in Prompts oder beim Einsatz von RAG stellt aber nicht per se eine Urheberrechtsverletzung dar. Entscheidend ist, ob der Verwendungszweck nach wie vor von der Einwilligung des Rechteinhabers gedeckt oder durch eine gesetzliche Bestimmung (z.B. Zitatrecht, privater oder betrieblicher Eigengebrauch) erlaubt ist. Erhält ein Benutzer einen Brief auf Französisch, dann wird er diesen normalerweise durch ein KI-Tool wie DeepL auf Deutsch übersetzen lassen dürfen, auch wenn es sich beim Brief um ein urheberrechtlich geschütztes Werk handelt. Er verwendet dieses Werk nach wie vor bestimmungsgemäss und damit mindestens mit einer impliziten Einwilligung des Rechteinhabers (jedenfalls solange der Brief vom Anbieter des KI-Tools nicht auch zum Training seines Modells benutzt wird). Genau so wird es sich verhalten, wenn der Benutzer einer Website sich einen Text auf dieser Website von einer KI zusammenfassen lassen wird, um ihn nicht vollständig lesen zu müssen. Mit einer solchen Nutzung muss heute gerechnet werden; wer dies nicht will, muss dies heute de facto festhalten – so wie der Betreiber einer Website diese faktisch speziell codieren muss, wenn er nicht möchte, dass sie im Index der Suchmaschinen landet. Auch wenn diese Fälle aus Sicht des Urheberrechts durchaus Fragen aufwerfen können (so zum Beispiel, ob wirklich eine implizite Einwilligung vorliegt, wenn z.B. die Nutzungsbedingungen einer Website eine Nutzung untersagt oder welche Schrankenbestimmung wirklich greift), so scheinen diese doch eher theoretischer Natur als ein praktisches Risiko. Uns ist jedenfalls kein Fall bekannt, in welchem ein Unternehmen belangt wurde, weil Mitarbeiter einen Zeitungsartikel auf einer Website sich von Copilot haben zusammenfassen lassen oder eine via ChatGPT mittels Internet-Abfrage generierte Antwort als Urheberrechtsverletzung angeprangert wurde, weil das Werkzeug im Hintergrund einen womöglich rechtlich geschützten Inhalt aus dem Netz zur Formulierung seiner Antwort an den Benutzer verarbeitet hat. Trotzdem macht es aus Sicht des Risiko-Managements für ein Unternehmen Sinn, wenn es seine Mitarbeitenden auf die Problematik der Nutzung fremder Inhalte hinweist, vor allem dort, wo es um solche geht, die speziell lizenziert worden sind oder eine systematische Auswertung mittels KI geht, die womöglich sogar noch Aussenwirkung zeitigt. Dabei sollten die KI-Tools nur, aber immerhin, als ein weiteres Instrument zur Verarbeitung von Inhalten begriffen werden: Bleibt der Zweck der Verarbeitung eines Inhalts und deren Output letztlich im Rahmen dessen, was schon bisher mit dem Inhalt getan und erzeugt wurde (Beispiel: Bisher fasste ein Mensch den Text zusammen, nun tut es eine Maschine), so ist dies weiterhin erlaubt; es muss bloss geklärt werden, dass ein etwaiger Dienstleister den Inhalt nicht auch für sich nutzt und es so zu einer nicht gedeckten Übernutzung kommt. Für die KI-Verarbeitung bestehender Inhalte jedoch zu einer nach Zweck, Quantität oder Qualität neuen Nutzung, muss geprüft werden, ob diese von der bisherigen expliziten oder impliziten Erlaubnis des Rechteinhabers oder aber einer gesetzlichen Ausnahme noch gedeckt ist, bevor der Verarbeitung grünes Licht erteilt wird. Das gilt insbesondere bei einer externen Verwendung solcher Inhalte. Ob der ursprüngliche Inhalt im Output noch vorkommt, ist dabei nicht einmal entscheidend. Bereits die unerlaubte Verwendung von fremden Inhalten zur Generierung von selbst nicht mehr verletzenden Inhalten kann eine Verletzung von Urheberrechten oder Lauterkeitsrecht sein. Ein Unternehmen sollte seine Mitarbeitenden also darauf trimmen, solche Stolpersteine zu erkennen und sie den Fachleuten zur Prüfung zu melden.
  11. KI-Nutzung vereinbaren und ankündigen: Wem es heute schon möglich ist, in Verträgen im Zusammenhang mit der Beschaffung oder Erstellung von Inhalten sich die nötigen Rechte für mögliche künftige KI-Nutzungen einräumen oder jedenfalls nicht untersagen zu lassen, sollte dies selbstverständlich tun. Das kann offensiv durch explizite Regelungen oder proaktives Nachfragen geschehen. Oder aber es wird verdeckt operiert, indem zum Beispiel Nutzungszweckbeschränkungen in Vertraulichkeitsabreden so formuliert werden, dass eine Verwendung für interne KI-Systeme und -Modelle nicht ausgeschlossen wird. Wo dies alles nicht möglich ist, kann es sich immerhin lohnen, wenn ein Unternehmen, das regelmässig Inhalte von Dritten erhält, in geeigneter Form allgemein bekannt macht, dass es solche Inhalte auch für KI-Zwecke verwenden wird. Es kann sich dann einfacher den Standpunkt vertreten, dass die Dritten in Bezug auf ihre Inhalte mit einer solchen Nutzung rechnen mussten und dieser Verwendung mindestens implizit zugestimmt haben. Nötigenfalls kann auch auf ein Widerspruchsrecht im Sinne eines Opt-out hingewiesen werden. Eine solche Bekanntmachung kann beispielsweise analog den auf vielen Websites bereits vorhandenen AGB, Nutzungsbedingungen und Datenschutzerklärungen erfolgen. Sie können um eine "KI-Erklärung" erweitert werden. Wir gehen davon aus, dass es in Zukunft vermehrt solche Erklärungen geben wird, sich zugleich aber auch die Anzahl jener KI-Nutzungen, mit welchen auch ohne besonderen Hinweis gerechnet werden muss, erweitern wird.

Zusammengefasst kann den Endanwendern von generativer KI zum Schutz vor der Verletzung von Drittrechten somit was folgt empfohlen werden:

  • KI-Outputs einer "umgekehrten" Internet-Suche unterziehen
  • Nach Möglichkeit eine hohe "Temperatur" verwenden
  • Prompts verwenden, die sich auf generische Elemente stützen
  • Prompts verwenden, die möglichst spezifische Anweisungen enthalten
  • KI-Outputs vor der Verwendung noch weiter verändern
  • Die Verwendung von Outputs vermeiden, welche eine KI basierend auf Internet-Treffern formuliert hat
  • Outputs von "RAG"-Systemen nur verwenden, wenn die unterliegenden Inhalte benutzt werden dürfen

Machen Sie den Nutzern auch klar, dass obwohl KI die Generierung von Inhalten viel einfacher als bisher machen kann, es trotzdem (in der Regel) nicht erlaubt ist, geschützte Inhalte Dritter zu kopieren oder nachzuahmen. Kurz: Was bisher nicht erlaubt war, bleibt auch mit GenKI tabu.

Mit diesen Massnahmen kann ein Unternehmen unserer Sicht nach seine Risiken aufgrund der Verletzung von Drittrechten durch die Verwendung von generativer KI gut kontrollieren. Die grössten Risiken sehen wir bei denjenigen Inhalten, welche die Mitarbeitenden selbst zur Verarbeitung einbringen; diese lassen sich mit entsprechender Schulung, Prüfung und Überwachung aber verhältnismässig gut in den Griff bekommen.

Dasselbe gilt für die Auswahl der zugelassenen KI-Tools und Services; die Prüfung der Vertragsbestimmungen mag mühsam sein, gehört aber zur Compliance dazu. Das Risiko einer vom Benutzer ungewollten und nicht verursachten Urheberrechtsverletzung aufgrund von in einem KI-Modell enthaltenen Inhalten erachten wir hingegen als eher gering und primär als das Problem der Anbieter der betreffenden KI-Tools und Services.

Schutzfähigkeit eigener Inhalte sicherstellen

Und noch ein weiterer Punkt zum Schluss, über den bei diesem Thema bisher kaum diskutiert wird: Bedacht werden sollte nicht nur das Risiko einer etwaigen Verletzung von Drittrechten und die ungewollte Preisgabe eigener geschützter Werke wegen der KI, sondern auch die Risiken einer fehlenden Schutzfähigkeit von KI-generierten Inhalten. Sie kann nämlich ein erheblicher Nachteil für ein Unternehmen darstellen, wenn es einen solchen Inhalt zum Beispiel im Marketing oder in der Werbung einsetzt und sich nicht mehr mit dem Urheberrecht gegen Nachahmer wehren kann, weil dem Werk wegen der KI-Generierung die Schutzfähigkeit aberkannt wird.

Will ein Unternehmen zum Beispiel ein neues Logo gestalten, sollte es da hinreichend auf welcher Ebene auch immer genügend kreative Handarbeit an der Schöpfung investieren, damit das Ergebnis auch wirklich urheberrechtlich geschützt bleibt. Ähnliche Beispiele finden sich auch in anderen Bereichen. Wenn Softwarecode eines Softwareherstellers zu einem grossen Teil nur noch vom Computer geschrieben wird, wird sich dieser nicht mehr ohne Weiteres auf das Urheberrecht berufen können, wenn er sich gegen die Piraterie seiner Produkte wehren will. Dies jedenfalls in Rechtsordnungen, wo Urheberrechtsschutz nur für kreative Werke von Menschen gewährt werden.

Das sollten insbesondere auch Start-ups berücksichtigen, die viel Geld zum Beispiel in KI-Modelle oder andere Entwicklungen basierend auf Machine Learning investieren, nur um später festzustellen, dass sie die Früchte ihrer Arbeit nur schlecht gegen die Übernahme durch Dritte schützen können und auch Geldgebern nur beschränkt etwas zu bieten haben, weil diese nicht nur Firmen mit Talenten wollen, sondern solche die IP-Rechte generieren. Darum wird beispielsweise auch sehr relevant sein, ob computergenerierte Patente in Zukunft rechtlich als Geistiges Eigentum geschützt werden können, weil manche Branchen nur dank Patentschutz funktionieren. So kommt dem Menschen womöglich doch an völlig unerwarteter Ecke ein Vorteil zu, den ihm die generative KI vorderhand nicht wegzunehmen vermag: Die Fähigkeit urheberrechtlich geschützten Inhalt zu generieren.

David Rosenthal

Dieser Beitrag ist Teil einer Serie über den verantwortungsvollen Einsatz von KI im Unternehmen:

Wir unterstützen Sie bei allen Fragen zu Recht und Ethik beim Einsatz von künstlicher Intelligenz. Wir reden nicht nur über KI, sondern setzen sie auch selbst ein. Weitere Hilfsmittel und Publikationen von uns zum Thema finden Sie hier.

Autor