Close
Wonach suchen Sie?
Seite durchsuchen
9. April 2025 Teil 27: Wie kleine und mittlere Unternehmen KI rechtskonform einsetzen

Uns erreichen immer wieder Anfragen von kleinen und mittleren Unternehmen, die künstliche Intelligenz (KI) einsetzen wollen, aber unsicher sind, wie sie dies aus rechtlicher Sicht korrekt tun sollen. Ihnen widmen wir diesen Blog-Post Nr. 27 unserer Serie zum verantwortungsvollen Umgang mit KI im Unternehmen. Auch grössere Unternehmen finden hier womöglich die eine oder andere Anregung.

Vorab gilt eine Grundhaltung zu klären: Wir sind der Ansicht, dass Unternehmen ihren Mitarbeitenden den Einsatz von KI möglichst einfach machen sollten. Das liegt nicht daran, weil wir KI eine "coole" Sache finden. Es liegt auch nicht daran, dass wir KI in jedem Fall nutzbringend finden; das ist sie aus unserer Sicht nicht immer. Unternehmen sollten sich aber zweierlei Dinge bewusst werden:

  • Keine Schatten-KI: Erstens setzen Mitarbeitende so oder so KI ein, wenn ihnen danach ist – und wenn der Betrieb die Werkzeuge nicht bereitstellt, nutzen sie eben ihre privaten KI-Tools. Damit verliert der Betrieb aber von vornherein die Kontrolle über seine Daten und auch alles andere.
  • KI-Kompetenz schaffen: Zweitens werden viele Betriebe früher oder später darauf angewiesen sein, dass ihre Mitarbeitenden über das verfügen, was heute als "KI-Kompetenz" bezeichnet wird, und dies gewinnen sie nur, wenn sie sie mindestens teilweise in der alltäglichen Arbeit gewinnen und vertiefen können.
     

Schritt 1: Passende Tools anschaffen

In kleinen und mittleren Unternehmen bedeutet der Einsatz von KI in der Regel, dass entsprechende Tools beschafft und zur Verfügung gestellt werden. Wir sprechen dabei insbesondere von generativer KI, also von Services wie ChatGPT, Copilot, Gemini oder Perplexity, aber auch Ton- und Bildorientierten Angeboten. Mit ihnen lässt sich schon sehr viel anfangen im Alltag, wenn die Mitarbeitenden keine Angst haben müssen, diese Dienste mit Unternehmensdaten zu nutzen.

Günstiger und allenfalls auch einfacher wird es, wenn sog. API-Zugänge der grossen Cloud-KI-Anbieter wie OpenAI, Microsoft oder Google mit den richtigen Werkzeugen eingesetzt werden. Die Nutzung via API bedeutet, dass hier nicht das Login via Browser oder Service-App benutzt wird, um einen Service zu verwenden. Stattdessen wird ein eigenes Tool eingesetzt, das auf den Service quasi über einen Spezialzugang für Entwickler- und Grosskunden zugreift, das Application Programming Interface oder kurz "API". Viele (aber nicht alle) KI-Anbieter bieten solche Zugänge. Wir nutzen KI auf diese Weise mit unserem kostenlosen Tool "Red Ink" und mit der kostenlosen Chatlösung "Open WebUI". Unser Tool bietet uns mehr Funktionen in Office als Copilot und ist einfacher zu bedienen, und Open WebUI bietet uns Zugriff auf verschiedene Modelle verschiedener Anbieter innerhalb ein und derselben Chat-Umgebung – alles zu deutlich geringeren Kosten.

Grundsätzlich wäre es für ein Unternehmen auch möglich, ein eigenes KI-Modell auf einem eigenen Server zu betreiben. Unserer Erfahrung nach ist dies jedoch für viele kleinere und mittlere Unternehmen keine Option, da es entsprechendes technisches Know-how und Investitionen (in die Hardware) erfordert, die viele zu Beginn ihrer Nutzung von KI nicht haben bzw. tätigen wollen. Auch mit den Modellentwicklungen Schritt zu halten, ist so nicht immer einfach, obwohl es eine Reihe von Open-Source-Sprachmodellen gibt, die kostenlos verfügbar sind.

Die Herausforderung beim Einsatz solcher Tools ist es, das richtige Abo und den richtigen Vertrag zu ermitteln. Leider sind immer noch etliche Anbieter – auch Grössen wie Microsoft – nicht vollständig klar transparent bezüglich der geltenden Regeln, ändern immer wieder ihre Vertragsbestimmungen und die Namen der Produkte und bieten auch nicht unbedingt vollständig konforme Lösungen. Microsoft hat es beispielsweise bis heute unverständlicherweise nicht geschafft, ihr Produkt "Copilot M365" in einer Fassung anzubieten, bei welcher alle Funktionen im Unternehmenskontext datenschutzkonform mit personenbezogenen Daten genutzt werden können (wir empfehlen weiterhin, die "Web-Suche" auszuschalten, weil sie keinem Auftragsbearbeitungsvertrag untersteht).

Am wichtigsten ist, dass mit einem KI-Anbieter ein Vertrag abgeschlossen wird, der:

  • einen Auftragsverarbeitungsvertrag (AVV, ADV, DPA) beinhaltet, der für alle Funktionen gilt (mit den nötigen Ergänzungen für das eigene Land, z.B. für die Schweiz oder Grossbritannien);
  • eine Pflicht zur Geheimhaltung der Kundendaten enthält;
  • eine Zusage, dass die eigenen Inhalte des Kunden nicht für eigene Zwecke des Anbieters wie KI-Training verwendet werden; und
  • die erzeugten Outputs frei verwendet werden dürfen (also einerseits keine zusätzlichen Lizenzen bezahlt werden müssen und andererseits keine Nutzungseinschränkungen bestehen, die für das Unternehmen nicht passen).

Diese Punkte sind oft dann erfüllt, wenn das Unternehmen die Unternehmens- und nicht die Consumer-Versionen des betreffenden Services abonniert. Sie sind zwar in der Regel teurer, doch bieten nur sie – wenn überhaupt (z.B. fehlen in den Verträge immer wieder mal Geheimhaltungspflichten seitens des Providers) – die nötigen Verträge. Wer Verträge wie oben dargelegt hat, kann diese Dienste aus rechtlicher Sicht grundsätzlich auch mit personenbezogenen Daten und "normalen" vertraulichen Daten nutzen.

Zweifellos ist hier ein Risikoentscheid nötig, aber Unternehmen sollten sich letztlich bewusst sein: Wenn die Mitarbeitenden bei jeder Nutzung zwei Mal überlegen müssen, ob das jetzt geht mit einem Dokument, dann kommt die KI-Nutzung nicht vom Fleck. Da lohnt es sich, die richtigen Verträge zu beschaffen und zu prüfen, ob ein Unternehmen wirklich Daten und Inhalte hat, die für all die üblichen alltäglichen Arbeiten nicht mit der KI als "Assistenz" verarbeitet werden dürfen. Die meisten Unternehmen werden kaum solche Daten und Inhalte haben, oder die KI nicht für Dinge einsetzen, die diesbezüglich problematisch sind. Die meisten Unternehmen werden beispielsweise mit den grossen Sprachmodellen ab Stange bestens bedient sein und sinnvollerweise kein eigenes Finetuning oder Training betreiben.

Wer wie z.B. Anwaltskanzleien, Arztpraxen oder öffentliche Verwaltungen einem Berufs- oder Amtsgeheimnis untersteht, muss zusätzliche Anforderungen erfüllen, auf die wir hier aber nicht eingehen. Wir haben das bei uns beispielsweise gemacht und können KI im Alltag mit allen Daten einsetzen; das war ein wichtiger Schritt im Einsatz von KI.

Um bei den ersten Schritten bei der Auswahl etwas Orientierung zu bieten, haben wir eine Übersicht über die gängigsten KI-Angebote erstellt. Diese findet sich im Blog Nr. 25 und hier. Wer sich bei einem konkreten Vertrag seiner Sache nicht sicher ist, sollte einen erfahrenen Rechtsbeistand fragen. Die Tools müssen zudem korrekt konfiguriert werden.

Nicht zu vernachlässigen sind auch die Kosten: Diese können bei Abos sehr rasch ins Geld gehen; Preise von CHF/EUR 15-40 pro Monat und Mitarbeiter sind durchaus üblich für generische KI-Services. Die Nutzung via API ist meist sehr viel günstiger. Hier liegen die Preise bei CHF/EUR 0.5-2 pro Million Tokens an Input (= plus/minus Wörter, Teilwörter und Satzzeichen) und bei den Output-Tokens typischerweise das Ein- bis Vierfache. Das ändert sich aber laufend und hängt auch davon ab, wo der Server geographisch steht. Europäische API-Standorte sind teurer als solche in den USA.

Nicht vergessen: Unternehmen sollten für jedes Tool und jede Lösung, welches sie sich zum produktiven Einsatz anschaffen, jeweils einen Eigner bestimmen, d.h. eine Person, die persönlich für die Verträge und auch sonst die Compliance zuständig ist und hierzu auch die internen Nutzungsregeln festlegt. So ist sichergestellt, dass diese Dinge immer wieder überprüft werden oder klar ist, wer verantwortlich ist, wenn dies nicht geschieht. Der Entscheid für die Zulassung eines Produkts liegt nicht bei der Fachstelle, sondern beim "Business" – die Fachstellen beraten nur und zeigen die Risiken auf, die es natürlich immer gibt.

Schritt 2: Weisung erlassen

Auch kleine und mittlere Unternehmen sollten ihre Mitarbeitenden anweisen, welche KI-Tools sie wie einsetzen dürfen. Hierfür haben wir schon letzteres Jahr eine Vorlage für eine KI-Weisung auf einer Seite publiziert, die kostenlos benutzt und auch ins eigene Format überführt werden kann. Diese Vorlage für eine Weisung haben wir Anfang Jahr überarbeitet und steht ebenfalls kostenlos auf Deutsch und Englisch bereit.

Ihr wesentlicher Inhalt:

  • Einsatz von KI-Anwendungen: Sie gibt vor, welche KI-Anwendungen wie eingesetzt werden dürfen. Für jede Anwendung kann angegeben werden, welche Datenkategorien und sonstigen Inhalte als Input erlaubt ist – denn auf Ebene des Tools kommt es im Wesentlichen darauf an. Es wird weiter angegeben, welche Einschränkungen gelten (z.B. dass ein Tool wie "DeepL Pro" nur benutzt werden darf, wenn der Mitarbeitende sich eingeloggt hat, weil sonst die vertraglichen Schutzbestimmungen nicht gelten). Es ist jedoch auch der jeweilige "Eigner" des Tools genannt, d.h. jener Person im Betrieb, die dafür verantwortlich ist, dass diese Vorgaben und Verträge mit dem Provider passen und auch sonst die rechtlichen Rahmenbedingungen eingehalten werden und Risiken akzeptabel sind.
  • Grundregeln im Einsatz von KI: Die Weisung führt die wichtigsten Grundregeln auf, die Mitarbeitende beim Einsatz von KI befolgen sollen. Wir haben diese gegenüber der früheren Version auf das heruntergebrochen, was für den "normalen" Mitarbeitenden gilt: Verwendung von KI-Anwendungen nur mit Erlaubnis, Prüfung der Ergebnisse auf Richtigkeit, Sicherstellung der (nötigen) Transparenz und die Meldung von Vorfällen. Ferner weisen wir darauf hin, dass die Nutzung von KI-Anwendungen aufgezeichnet und ausgewertet werden kann – einem Umstand, dem sich viele nicht bewusst sind.
  • Indikatoren für heikle KI-Anwendungen: Um sicherzustellen, dass neue KI-Anwendungen oder sonst eine rechtlich oder reputativ problematische Verwendung von KI rechtzeitig erfasst wird, haben wir fünf Indikatoren formuliert, anhand denen auch unerfahrene Mitarbeitende erkennen können, dass eine KI-Anwendung möglicherweise problematisch ist und einer genaueren Prüfung bedarf, etwa betreffend Datenschutz, geistigem Eigentum und Vertraulichkeit (mehr dazu in unserem Blog Nr. 18). Damit sind aber auch die "verbotenen" und "hochriskanten" Fälle des EU AI Act abgedeckt, sofern dieser für ein Unternehmen von Relevanz sein wird (vgl. dazu Blog Nr. 7, der Aufsatz von David Rosenthal und diese Übersicht). In diesen Fällen wird derjenige, der eine solche KI-Anwendung einführen will, verpflichtet, mit der für die Prüfung neuer Anwendungen verantwortlichen Person Kontakt aufzunehmen; das sollte typischerweise jemand intern sein, der mindestens als Anlaufstelle dient und weiss, wo er sich den nötigen Rat extern holt. Dabei wird auch festgehalten, dass KI-Anwendungen nur eingesetzt werden dürfen, wenn es einen dafür verantwortlichen Eigner gibt.

Mit dieser Regelung hat ein Betrieb auf einfache Weise eine minimale Regelung und Governance für die Sicherstellung der rechtlichen Vorgaben und das Management der mit KI-Anwendungen verbundenen Risiken für das Unternehmen. Die in der Praxis grosse Herausforderung ist die oben erwähnte rechtliche Prüfung der Verträge, der Anbieter von Tools und weiteren rechtlichen Vorgaben. Hierzu arbeiten wir bei unseren Klienten mit Checklisten und prüfen Tools auf die Einhaltung dieser Vorgaben; das ist allerdings keine Hexerei. Meist wird das von der internen Datenschutzstelle getan, oder es wird auf eine externe Rechtsberatung zurückgegriffen, wo sich Unternehmen unsicher fühlen.

Die 18 wichtigsten Compliance-Fragen beim Einsatz von KI haben wir auf einem Blatt zusammengestellt (Blog Nr. 18), und die meisten davon haben mit dem Datenschutz zu tun. Die Erfahrung zeigt allerdings auch, dass sie in der Regel gut lösbar sind. So gilt der Einsatz von KI-Assistenten für alltägliche Hilfsarbeiten inzwischen allgemein als unproblematisch; das Bauchgefühl ist in der Regel ein guter Indikator, ob eine Anwendung etwas problematisch ist – nebst den oben erwähnten Triggerfragen.

Für eine Risikoeinschätzung von KI-Anwendungen im Bereich der generativen KI haben wir unser Werkzeug "GAIRA" entwickelt, das kostenlos hier verfügbar ist und bereits von vielen Unternehmen benutzt wird. Für die meisten Projekte genügt es, wenn das Formular "GAIRA Light" ausgefüllt wird; bereits das Ausfüllen führt dazu, dass sich der jeweilige Eigner des Tools bzw. der Lösung die wichtigsten Fragen stellt. Selbst wenn er nicht alle beantworten können wird, ist damit bereits etwas gewonnen.

Schritt 3: Schulung und Transparenz

Als dritter Schritt gilt es das, was der Betrieb in Sachen KI nutzen will, intern wie auch extern bekannt zu machen und in der nötigen Tiefe zu vermitteln.

Extern ist in der Regel nicht sehr viel vorzukehren. Schon das heutige Recht verlangt zwar, dass der Einsatz von KI vereinfacht gesagt transparent gemacht wird, sofern damit Daten von einzelnen, erkennbaren Personen bearbeitet wird und diese damit nicht rechnen müssen. Bei den alltäglichen KI-Tools wird mindestens letztes Kriterium oft nicht mehr erfüllt sein, weil der Einsatz von KI immer "normaler" wird. Dies bedeutet, dass der Einsatz zwar allenfalls noch in der Datenschutzerklärung erwähnt werden, aber eine augenfällige Offenlegung nicht mehr nötig ist.

Wir empfehlen allerdings, dass auch kleine und mittlere Unternehmen ihre Datenschutzerklärung durchlesen und darauf achten, dass

  • der Einfachheit halber erwähnt wird, dass personenbezogene Daten an Dienstleister gehen können, die in irgendeinem Land der Welt sind (falls das nicht sowieso schon drin steht);
  • die Zwecke, zu denen KI mit personenbezogenen Daten genutzt wird, aufgeführt sind (wenn KI nur für das benutzt wird, was bisher ohne KI gemacht wurde, braucht es hier keine Ergänzung; eine Ergänzung ist nötig, wenn etwas Neues gemacht wird, z.B. wenn Daten für das Training von KI verwendet werden);
  • zur Sicherheit angegeben wird, dass personenbezogene Daten nicht nur aus sozialen Medien oder sonst dem Internet beschafft werden können (wie das bei jedem Unternehmen geschieht), sondern eben auch mittels KI erzeugt werden (z.B. wenn eine Stellenbewerbung mittels KI analysiert wird und sie einen Bericht erstellt). Mehr zu den Anforderungen der Transparenz in unserem Blog Nr. 16.

Intern ist dafür zu sorgen, dass die Mitarbeitenden wissen, wie sie mit KI umgehen sollen, was KI kann und was nicht, und welche Risiken damit verbunden sind. Die Weisung kann das zwar alles in Wort und Bild festhalten, aber dies alleine genügt in der Regel nicht. Noch wichtiger als die Gewährleistung der Compliance in allen Details ist es nach unserer Erfahrung allerdings, dass die Mitarbeitenden einen effizienten, sicheren und effektiven Umgang mit KI lernen. Das geht über Workshops für Prompting und dergleichen hinaus, braucht aber auch nicht unbedingt externe Schulungsangebote. Es kann schon genügen, wenn im Betrieb jene Personen identifiziert werden ("Power-User"), die etwas mehr KI-Kompetenz als ihre Kolleginnen und Kollegen aufweisen und daher z.B. für die Schulung eingesetzt werden können. Dies wird auch helfen, Mitarbeitende dazu zu bringen, KI effektiver einzusetzen sowohl zum Nutzen ihrer eigenen Arbeit als auch des Unternehmens.

Einen sehr einfachen Videoclip zur Awareness-Bildung im Umgang mit KI haben wir übrigens in unserem Blog Nr. 1 kostenlos in diversen Sprachen bereitgestellt. Kompetenz vermitteln beinhaltet, zu zeigen, wie sich KI gewinnbringend einsetzen lässt, aber auch darüber zu sprechen, was schiefgehen kann oder wie KI missbraucht werden kann. Dies betrifft nicht nur den eigenen Einsatz von KI, sondern zum Beispiel auch, wie Betrüger KI heute einsetzen können, zum Beispiel in Form von Deep Fakes.

Und danach?

Auch im Bereich der KI bleibt die Welt in Bewegung und zwar besonders schnell. Die meisten Unternehmen sollten sich dadurch zwar nicht verrückt machen lassen (Stichwort "FOMO" oder "FOMA"), aber sie sollten trotz allem vorsehen, dass sie ihren Einsatz von KI mindestens jährlich überprüfen. Das umfasst einerseits die Verträge, andererseits aber auch die Erfahrungen den Mitarbeitenden: Kam es zu Zwischenfällen? Wo gibt es Probleme und was läuft gut? Worauf müssten alle im Betrieb aufmerksam gemacht werden?

KI sollte zudem nicht Selbstzweck sein, sondern einen tatsächlichen "Business Case" mit sich bringen. Wir kennen viele Beispiele, wo viel Geld für KI ausgegeben wurde, ohne dass dies geschäftlich wirklich etwas gebracht hat: KI dient dann entweder dem Marketing ("Seht her, wie wir KI einsetzen und wie fortschrittlich wir sind!") oder weil die Verantwortlichen Angst haben, den Anschluss zu verpassen. Zum Glück ist der Hype inzwischen etwas abgeflacht.

Im Rahmen der Überprüfung sollten Unternehmen auch darauf achten, den Überblick über den Einsatz von KI zu behalten. Wer nicht die Weisung dafür benutzt (siehe Beispiel oben) oder wo diese nicht genügt, sollte sich überlegen, hierfür ein separates Inventar anzulegen. Solche Instrumente – zusammen mit Formularen zur Risikobeurteilung – werden im Bereich KI für die Compliance immer wichtiger werden. In gewissen Branchen gehören sie heute schon faktisch zu Pflicht (siehe Box) und auch die in der Schweiz geplante KI-Regulierung wird dieses Konzept aufgreifen (siehe dazu Blog Nr. 23).

David Rosenthal

KI-Weisung für grössere und regulierte Unternehmen

In grösseren Unternehmen empfehlen wir eine eingehendere Regelung zum Einsatz von KI. Sie beinhaltet auch die obigen Vorgaben, regelt aber eingehender die Aufgaben, Kompetenzen und Verantwortungen in Bezug auf die Entwicklung, Zulassung und Überwachung von KI-Anwendungen. Wir haben hierzu Templates entwickelt.

Hierbei ist zu berücksichtigen, dass in vielen Unternehmen etliche der von KI-Anwendungen berührten Themen, wie etwa der Datenschutz, schon reguliert sind und es hierfür auch etablierte Prozesse und Zuständigkeiten gibt. Bei vielen unserer Klienten sind diese zwischenzeitlich um die Prüfung von KI-spezifischer Regulierung – namentlich dem EU AI Act – erweitert worden. Auch wenn sie sich vom Datenschutz in ihrer Natur, ihren Schutzzielen und ihrer Ausprägung grundsätzlich vom Datenschutz unterscheidet wird sie in einem guten Teil der Unternehmen von denselben Stellen abgedeckt.

In den umfassenderen Weisungen wird die Einhaltung des EU AI Act typischerweise speziell adressiert und ebenso die Vorgaben an die Entwicklung von neuen KI-Anwendungen bzw. das Onboarding von KI-Modellen. Viele unserer Klienten sehen hier vor, dass KI-Anwendungen bereits heute hinsichtlich ihrer Erfassung und Regelung durch den EU AI Act geprüft werden, insbesondere bezüglich der Frage, ob eine verbotene oder eine hochriskante Anwendung vorliegt und welche Rolle der Betrieb innehat.

Spezifischere KI-Vorgaben sehen wir in der Praxis auch in Bezug auf Verträge mit Lieferanten und anderen Vertragspartnern. Diese sollen einerseits die spezifischen Risiken und Bedürfnisse des Unternehmens bei der Beschaffung von KI-basierten Produkten und Dienstleistungen adressieren (in Ergänzung zu den Vorgaben, die allgemein für den Beizug von Providern, z.B. im Bereich der Cloud, gelten; hierzu haben wir für unsere Klienten einen Baukasten für Vertragsklauseln entwickelt, mit welchem auch diese Punkte hier adressiert werden), und andererseits dafür sorgen, dass auch in anderen Fällen die Betriebe kontrollieren, was mit ihren Daten und Inhalten geschieht, so etwa ob und inwieweit Vertragspartner diese für das Training von KI nutzen dürfen, was nicht nur Lieferanten von KI-Anwendungen betrifft.

In der Schweizer Finanzindustrie gehört ferner die Einhaltung der Aufsichtserwartungen der Finanzmarktaufsicht FINMA, die diese kürzlich in der Aufsichtsmitteilung 08/24 näher ausgeführt hat (hier eine Präsentation zum Thema, nur auf Deutsch). Auch hierzu haben wir entsprechende Vorlagen für Weisungen entwickelt. Fragen Sie uns einfach.

 

Dieser Beitrag ist Teil einer Serie über den verantwortungsvollen Einsatz von KI im Unternehmen:

Wir unterstützen Sie bei allen Fragen zu Recht und Ethik beim Einsatz von künstlicher Intelligenz. Wir reden nicht nur über KI, sondern setzen sie auch selbst ein. Weitere Hilfsmittel und Publikationen von uns zum Thema finden Sie hier.

Autor