Close
Wonach suchen Sie?
Seite durchsuchen
11. März 2025 Teil 25: KI-Tools – wie es um den Schutz der Daten steht

Vor rund einem Jahr veröffentlichten wir in Teil 2 unserer Blog-Serie über den verantwortungsvollen Einsatz von KI im Unternehmen eine Übersicht über die gängigsten KI-Tools. Seither hat sich viel verändert, weshalb wir unsere Tabelle auf den neuesten Stand gebracht haben. Fazit: Es gibt Lösungen bekannter Anbieter, die sich für den Einsatz im Unternehmen eignen. Dies gilt aber nicht für alle KI-Tools und nicht für alle Daten im Unternehmen. Entscheidend ist die Nutzung jener Lösung, die für das Geschäftsumfeld gedacht und für die entsprechenden Daten geeignet ist. Dieser Beitrag ist Teil 25 unserer Blog-Serie über den verantwortungsvollen Einsatz von KI im Unternehmen.

Der Einsatz von KI-Tools im Unternehmen

Nach wie vor spriessen KI-Tools wie Pilze aus dem Boden. Täglich kommen neue Produkte auf den Markt, während sich auch Funktionen und Möglichkeiten bestehender Tools im ständigen Wandel befinden. Unternehmen stehen dabei vermehrt vor der Qual der Wahl. Neben Fragen bezüglich der besten Eignung und der Kosten spielen stets auch rechtliche Aspekte und die damit verbundene Prüfung von Verträgen eine zentrale Rolle. Letzteres ist besonders herausfordernd, was einerseits mit juristischen Herausforderungen zusammenhängt und andererseits mit der Komplexität der Vertragswerke an sich – wobei die Vertragswerke gelegentlich wohl treffender mit "unübersichtlich" oder gar "mangelhaft" beschrieben werden sollten.

Werden von einem Unternehmen Personendaten mit einem solchen Tool bearbeitet, ist ein Auftragsbearbeitungsvertrag erforderlich, der den anwendbaren datenschutzrechtlichen Vorgaben genügt. Ausserdem können unter anderem Geheimhaltungspflichten für den Anbieter sowie die Rechte an den Daten und deren Nutzung für eigene Zwecke des Anbieters eine Rolle spielen. Sollen Personendaten oder vertrauliche Daten im Tool bearbeitet werden können, ist eine Nutzung für eigene Zwecke des Anbieters (z. B. Training oder Weiterentwicklung) für die Anwendung im Unternehmen in der Regel nicht akzeptabel. Kostenlose Angebote oder solche, die für Privatkunden vorgesehen sind, erfüllen diese Anforderungen meist nicht, weshalb Unternehmen von diesen die Finger lassen sollten.

Um in der Lösung Daten bearbeiten zu dürfen, die durch das Amts- oder Berufsgeheimnis geschützt sind (z.B. Anwalts-, Arzt- oder Bankkundengeheimnis), sind weitere vertragliche Zusicherungen erforderlich, die über die Standardverträge hinausgehen und mit den Anbietern verhandelt oder zusätzlich von diesen verlangt werden müssen. Ebenso müssen in diesen Fällen Kontrollen der Prompts und des Outputs durch Mitarbeitende des Anbieters ausgeschlossen werden, welche sich dieser in bestimmten Fällen (insbesondere zur Missbrauchsbekämpfung) vorbehält. Ferner ist relevant, wo (geographisch) die KI-Tools bzw. die dabei verwendeten Modelle betrieben werden. Mit Blick auf den rechtlichen Schutz vor ausländischen Behördenzugriffen ist grundsätzlich ein Hosting in der Schweiz vorzusehen für Daten, die durch das Schweizer Amts- und Berufsgeheimnis geschützt sind. Das ist nicht bei allen Anbietern, KI-Tools und KI-Modellen möglich, aus rechtlicher Sicht aber auch nicht in allen Fällen zwingend erforderlich.

Hinter der Compliance-Beurteilung steckt also mehr als bloss die Wahl des KI-Tools. Ebenso relevant ist, welche Daten bei dessen Nutzung bearbeitet werden und welche Version lizenziert wird. Diese Ausgangslage verdeutlicht die Notwendigkeit für Unternehmen, den Einsatz von KI-Tools klar zu regeln und zwar auch jener von frei verfügbaren Tools. Am Ende muss für das Unternehmen und die dafür tätigen Personen klar sein, ob ein KI-Tool genutzt werden darf und, wenn ja, mit welchen Daten und für welche Zwecke. Hierzu sollte eine Weisung im Unternehmen erlassen werden, welche mitunter diese Fragen regelt. Mehr dazu ist in Teil 3 unserer Blog-Serie zu finden, inklusive einer Muster-Weisung für Mitarbeitende; wir werden auch hierzu in Kürze ein Blog-Update publizieren.

Update 2025

Die KI-Tools haben sich im letzten Jahr nicht nur funktional weiterentwickelt, es gab auch Anpassungen in fast allen Verträgen der Anbieter. In diesen Fällen gilt es für Unternehmen jeweils zu prüfen, ob das Tool weiterhin wie bisher eingesetzt werden kann. Erfreulich ist im Hinblick auf die erfolgten Anpassungen, dass die Verträge grundsätzlich nicht schlechter und aus Kundensicht teilweise sogar besser geworden sind. Die Situation bleibt aber insgesamt unübersichtlich und ändert sich leider immer wieder. Dass sich die Bezeichnungen der Angebote ständig ändern, macht die Sache nicht einfacher.

Hier klicken für eine Version mit anklickbaren Links.

Im Gegensatz zum letzten Beitrag erläutern wir nachfolgend nicht nochmals für jeden Anbieter die einzelnen Unterschiede, sondern einzig die wichtigsten Neuerungen. Weitere Details können im bisherigen Beitrag nachgelesen werden.

OpenAI ChatGPT – nichts Neues aus rechtlicher Sicht

Bei ChatGPT und den OpenAI API hat sich rechtlich im Grundsatz nichts verändert, aber es ist auch nicht besser geworden. Für den Einsatz im Unternehmen sind Angebote für das professionelle Umfeld zu nutzen, wobei wir bis jetzt keine Lösung gesehen haben, die auch für die Nutzung mit Daten geeignet sind, die durch das Amts- oder Berufsgeheimnisse geschützt sind. Weitere Ausführungen dazu können in Teil 2 unserer Serie nachgelesen werden.

Erneut neue Bezeichnungen bei Microsoft Copilot

Microsoft hat gewisse Verbesserungen in den Verträgen vorgenommen, insgesamt zeigt sich aber immer noch ein etwas chaotisches Bild. Dabei hilft auch nicht, dass Microsoft die Namensgebung aufs Neue angepasst hat. Schon vor dem letzten Blogbeitrag wurde aus dem Bing Chat Enterprise der Microsoft Copilot mit kommerziellem Datenschutz, welcher anschliessend teilweise als Microsoft Copilot mit Unternehmensdatenschutz bezeichnet wurde. Neu heisst dieses Angebot Microsoft 365 Copilot Chat. Während Microsoft 365 Copilot Chat in den M365-Produkten für Unternehmen enthalten ist, unterscheidet sich dieses Angebot vom Microsoft 365 Copilot, der seinerseits nur mit einer Zusatzlizenz genutzt werden kann. Zugleich sind im Vertragswerk und in gewissen Servicebeschreibungen von Microsoft teilweise noch die alten Begriffe zu finden, was die Stringenz beeinträchtigt und die Verständlichkeit weiter erschwert.

Microsoft 365 Copilot Chat und Microsoft 365 Copilot

Während vor einem Jahr beim damaligen Microsoft "Copilot mit kommerziellem Datenschutz" das "Data Processing Addendum" (DPA) sowie weitere Vertragsbestandteile für Geschäftskunden ausdrücklich von der Geltung ausgenommen waren und Unternehmen diese Angebote nur eingeschränkt nutzen konnten, hat Microsoft dies nun geändert: Für Microsoft 365 Copilot Chat gelten neu die Verträge für Geschäftskunden wie das "Microsoft Customer Agreement" (MCA) und das DPA. Aus datenschutzrechtlicher Sicht können grundsätzlich sowohl Microsoft 365 Copilot als auch Microsoft 365 Copilot Chat im Unternehmen eingesetzt werden.

Aber Achtung, es gibt eine wichtige Ausnahme: Wenn im Rahmen von Microsoft 365 Copilot Chat oder Microsoft 365 Copilot sogenannte Webabfragen (web search queries) gemacht werden, gelten das DPA und die Verträge für Geschäftskunden nicht mehr. Stattdessen kommt für die Webabfrage der Servicevertrag für Privatkunden zur Anwendung, so wie dies auch sonst bei der Nutzung der Bing-Suche der Fall ist. Wir finden solche Vorbehalte überholt und unnötig; andere Anbieter kommen ohne sie aus.

Microsoft sendet zwar (ausser bei sehr kurzen Prompts) nicht den ganzen Prompt an Bing, da aber die Suchabfrage durch Microsoft automatisiert aus den Eingaben der Nutzer erstellt wird, kann der Nutzer nicht steuern, welche Daten nun nicht mehr unter den vertraglichen Vereinbarungen für Geschäftskunden und dem DPA bearbeitet werden. Das hat zur Folge, dass Microsoft 365 Copilot Chat sowie auch Microsoft 365 Copilot bei aktiviertem Webzugriff nicht mit Personendaten oder vertraulichen Unternehmensdaten genutzt werden sollten, da Microsoft diese Daten unter Umständen nicht mehr im Auftrag (d.h. ohne den Schutz des DPA), sondern als verantwortliche Stelle bearbeitet. Dies ist für Unternehmen in der Regel nicht akzeptabel.

Unternehmen können sich vor dieser ungewollten Datenbekanntgabe schützen, indem sie den Webzugriff deaktivieren. Eine standardmässige Blockierung für alle Benutzer ist zwar bei Unternehmenskunden möglich, kann jedoch nützliche Funktionen einschränken, da der Webzugriff bei bestimmten Anfragen hilfreich sein kann. Idealerweise sollten Nutzer selbst entscheiden können, wann auf das Web zugegriffen wird, was jedoch nur beim kostenpflichtigen Tool Microsoft 365 Copilot möglich ist, nicht aber beim in Microsoft 365 für Unternehmen enthaltenen Microsoft 365 Copilot Chat. Hinzu kommt, dass auch bei Microsoft 365 Copilot die Einstellungsmöglichkeit für Webabfragen nicht sofort beim Eingabefeld ersichtlich ist, was das Risiko der unbeabsichtigten Nutzung von Websuchen (und damit ungewollter Datenbekanntgaben) erhöht.

Microsoft Copilot für Private

Microsofts Angebote für Private eignen sich nicht für Unternehmen und es ist darauf zu achten, dass Copilot nur mit einem Unternehmens-M365-Konto genutzt wird. Wir haben festgestellt, dass Mitarbeitende, z.B. bei der Nutzung von Copilot in Edge, manchmal plötzlich nicht mehr eingeloggt sind. In diesem Fall unterliegt die Nutzung den Angebotsbestimmungen für Private und nicht jenen von Microsoft Copilot für Unternehmen, mit der Folge, dass dabei die für Unternehmen gedachten Verträge mit dem besseren Schutz der Daten nicht gelten.

Bei den Angeboten für Private hat Microsoft begonnen, Copilot ungefragt in die Microsoft 365-Angebote für Privatkunden zu integrieren, verbunden mit teilweise deutlichen Preisaufschlägen. Bei diesen Angeboten ist aus unserer Sicht ebenfalls nicht wirklich klar, was mit den Daten der Nutzer geschieht. Zwar verspricht Microsoft auf einer Info-Seite (d.h. ohne dass dies Teil der vertraglichen Vereinbarungen ist): "Prompts, Antworten und Ihre Dateiinhalte bei Verwendung von Copilot in Microsoft 365-Apps werden nicht zum Trainieren von Basismodellen verwendet" (siehe hier). In den Copilot AI Experiences Terms, die Microsoft zum Vertragsbestandteil macht, bedingt sich Microsoft jedoch ein umfassendes Lizenzrecht am In- und Output für eigene Zwecke aus, das Microsoft insbesondere ermächtigt, die entsprechenden Inhalte für ihre eigenen Geschäftszwecke zu nutzen – inklusive dem Recht, diese Inhalte zu kopieren, zu reproduzieren, zu veröffentlichen, zu bearbeiten, zu übersetzen sowie der Ermächtigung, diese Rechte an weitere Anbieter (unter) zu lizensieren. Für Unternehmen sind diese Angebote in der Regel somit nicht rechtmässig nutzbar und auch Privatpersonen müssen sich die Frage stellen, ob sie entsprechende Klauseln akzeptieren können und wollen. Unklar ist, ob und wie Microsoft die weitgehenden Rechte überhaupt jemals ausübt, gerade auch mit Blick auf die oben erwähnten Aussagen auf der Info-Seite. Klar ist, dass Kunden grundsätzlich gegen sich gelten lassen müssen, was im Vertrag vereinbart ist und nicht etwa das, was auf Info-Seiten beschrieben ist. Dies gilt umso mehr für allfällige rechtliche Auseinandersetzungen. Eine klarere Ausgangslage, insbesondere durch übersichtliche vertragliche Zusicherungen, wäre aus Kundensicht wünschenswert und nicht zu viel verlangt.

Microsoft Azure OpenAI Service

Eine weitere Möglichkeit für die Nutzung von KI-Services im Unternehmen besteht mit Tools, welche über Schnittstellen (sogenannte API) beispielsweise auf Large Language Models ("LLM") bestimmter Anbieter zugreifen können. Ein Beispiel hierfür ist der von uns und für uns entwickelte KI-Office-Assistent "Red Ink", den wir derzeit aber kostenlos auch anderen zur Verfügung stellen; auf diese Lösung wird weiter unten eingegangen. Auch Microsoft bietet mit dem Azure OpenAI Service eine Lösung an, welche Zugang zu generativen KI-Modellen von OpenAI bietet. Sie kann unter den Verträgen für Geschäftskunden inklusive DPA bezogen werden, weshalb deren Nutzung im Unternehmen auch mit Personendaten und vertraulichen Unternehmensdaten möglich.

Sollen Azure OpenAI Services auch mit Daten genutzt werden, die durch das Amts- oder Berufsgeheimnis geschützt sind, sind (gleich wie auch bei Copilot) gewisse Vertragszusätze nötig. Microsoft behält sich aber vor, eine Missbrauchskontrolle ("Abuse Monitoring") mit menschlicher Überprüfung vorzunehmen, wobei die Prompts und die Outputs für diesen Zweck gespeichert und geprüft werden. Während solche Kontrollen für viele Unternehmen akzeptabel sein können, sind sie mit den Anforderungen des Amts- oder Berufsgeheimnisses grundsätzlich nicht vereinbar. Eine Lösung für dieses Problem besteht darin, das Abuse Monitoring über einen entsprechenden Antrag bei Microsoft deaktivieren zu lassen. Diese Möglichkeit steht derzeit jedoch nur grossen Unternehmen offen, den meisten KMU hingegen nicht. Wir haben sie nicht erhalten und setzen Azure OpenAI Online Services daher nicht für unsere Zwecke in der Kanzlei ein; auch wird das bis anhin aus unserer Sicht wichtigste OpenAI-Modell gpt-4o nicht auf Servern in der Schweiz angeboten. Sollte Microsoft ihre Policy ändern, werden wir gerne auch ihre Services in diesem Bereich nutzen.

Aus Google Bard wird Gemini

Bei Google hat sich seit der letzten Übersicht ebenfalls einiges getan. So heisst etwa das KI-Modell nicht mehr Google Bard, sondern neu Gemini. Die Tabelle wurde um die neuen KI-Tools erweitert. In Bezug auf Produktbezeichnungen und Vertragsgestaltung bestehen aus Kundensicht ähnliche Herausforderungen wie bei anderen Anbietern: Aufgrund von Ähnlichkeiten bei den Angeboten muss auch hier genau darauf geachtet werden, welches Tool mit welchen vertraglichen Grundlagen genutzt wird. Und auch was die Komplexität der Vertragswerke anbelangt, wird von den Kunden einiges abverlangt, wenn sie eine Auslegeordnung sowie einen gewissenhaften Abgleich ihrer Anforderungen mit den effektiv vereinbarten Klauseln machen wollen.

Googles Gemini für Google Workspace und Gemini API in Vertex AI

Google Workspace ist eine Produktivitätslösung für die Zusammenarbeit in Unternehmen. Google hat ihr KI-Modell Gemini in ihr Produkt Google Workspace integriert. Die Nutzung erfolgt dabei unter den für den geschäftlichen Einsatz geeigneten Verträgen. Im Gegensatz zu Microsoft gewährt Google aber auch beim Zugriff auf die Websuche die vertraglichen Zusicherungen für Unternehmenskunden. Zumindest konnten wir keine entsprechende Ausnahme in den Verträgen finden, weshalb davon auszugehen ist, dass die geschäftlichen Verträge mitsamt DPA auch gelten, wenn Nutzer mit Gemini in Google Workspace eine Webabfrage machen.

Auch Google bietet einen API-Service für Gemini-Modelle in der Vertex AI Platform für Unternehmen an. Dieser kann ebenso unter Geltung der Verträge für Geschäftskunden inklusive DPA bezogen werden und ist somit grundsätzlich für den Einsatz in Unternehmen geeignet. Der API-Service kann auch auf die Google-Suche zugreifen und so den Output mit Ergebnissen und Wissen aus dem Internet ergänzen ("Google Search Grounding"). Auch Google sieht hier eine Ausnahme von den Verträgen und dem DPA für Geschäftskunden vor, welche jedoch erst greift, sobald der Nutzer auf ein Ergebnis der KI klickt, um beispielsweise zur Quelle zu gelangen, und nicht schon bei der Abfrage und Erstellung der Antwort.

Soll Google Workspace oder die Gemini-API in Vertex AI mit Daten genutzt werden, die dem Amts- oder Berufsgeheimnis unterstehen, sind auch bei Google Vertragszusätze notwendig und es ist eine Ausnahme vom Human Review durch Google nötig. Wir konnten mit Google entsprechende Verträge abschliessen, die unseren Anforderungen als Anwaltskanzlei genügen, um ihre KI-Modelle (die auch in der Schweiz betrieben werden) auch für Berufsgeheimnisdaten zu nutzen.

Google AI Studio

Google bietet neben der API in Vertex AI auch eine Gemini API in Google AI Studio an. Google AI Studio ist eine Entwicklungsumgebung, um Apps mit Gemini zu entwickeln. Dort lassen sich API Keys für den Zugriff auf Googles Sprachmodell Gemini erstellen, damit Gemini in eigenen Apps und Umgebungen genutzt werden kann. Für Google AI Studio und die Nutzung der Gemini API gilt ein anderer Vertrag, der mit der US-Gesellschaft Google LLC geschlossen wird. Gemäss den Angaben auf Google Websites ist Google AI Studio insbesondere für Hobbyanwender, Studenten und Entwickler gedacht. Es kann in einem gewissen Rahmen kostenlos genutzt werden. In diesem Fall behält sich Google das Recht vor, die Daten umfassend für ihre eigenen Zwecke zu nutzen und es gibt kein DPA (da Google bei der Bearbeitung als Verantwortliche agiert). Immerhin weist Google über eine hervorgehobene Textpassage in den Gemini API-Zusatzbedingungen ausdrücklich darauf hin, dass Nutzer im Rahmen der kostenlosen Dienste keine vertraulichen Daten oder Personendaten bearbeiten sollen.

Etwas anders sieht es bei den kostenpflichtigen API Services aus. Hier sichert Google vertraglich zu, Prompts und Antworten gemäss dem DPA zu bearbeiten und nicht zur Verbesserung der eigenen Produkte zu verwenden. Es handelt sich dabei um ein anderes DPA als bei den oben erwähnten Angeboten für Workspace und Vertex AI. Für Nutzer im Europäischen Wirtschaftsraum, in der Schweiz und im Vereinigten Königreich gelten diese aus Kundensicht besseren Bestimmungen zum Schutz von Kundendaten selbst dann, wenn die kostenlosen Services genutzt werden.

Vorsicht geboten ist einmal mehr bei der Nutzung bestimmter Funktionen mit Personendaten und vertraulichen Daten: Machen Nutzer über Google AI Studio vom "Google Search Grounding" Gebrauch, gelten DPA und Zusicherungen bezüglich des Verwendungsverbots wiederum nicht vollumfänglich. Sobald Search Grounding genutzt wird, können die Daten gemäss Vertrag zur Fehlerbehebung und zum Testen der dabei unterstützenden Systeme – und damit für Googles eigene Zwecke – genutzt werden. Für diesbezügliche Bearbeitungen durch Google gilt bei dieser Funktion im Rahmen des kostenpflichtigen Dienstes von Google AI Studio zwar weiterhin ein DPA. In Bezug auf vertrauliche Daten und in der Regel auch auf Personendaten im Unternehmen entscheidend und heikel ist hierbei nach Ansicht der Autoren aber, dass die Bearbeitung (auch) für Googles eigene Zwecke erfolgen kann. Demnach kann ein Unternehmen zumindest im beschränkten Rahmen Google AI Studio mit Personendaten nutzen, zumindest sofern der kostenpflichtige Dienst ohne Search Grounding genutzt wird.

Von Bedeutung ist in diesem Zusammenhang, dass das DPA zwar Bestimmungen enthält, wonach anbieterseitig involvierte Personen zur Vertraulichkeit verpflichtet sein müssen, nicht jedoch eine Vertraulichkeitsverpflichtung für Google selbst (d.h. für sie als Anbieterin). Zudem besteht keine allgemeine Vertraulichkeitsverpflichtung für andere Daten als Personendaten. Vor diesem Hintergrund ist von einer Nutzung von Google AI Studio mit vertraulichen Daten abzuraten.

Google Gemini-Apps und Google Gemini Advanced

Die Angebote für Private sind auch bei Google nicht geeignet für Unternehmen. Einerseits fehlen die entsprechenden notwendigen vertraglichen Vereinbarungen und andererseits behält sich Google bei diesen Angeboten in der Regel vor, Prompts und Outputs für Trainings und Serviceverbesserungen zu nutzen, wobei sich dies deaktivieren lässt.

Im Unterschied zu Microsoft weist Google deutlicher auf die Nutzung für eigene Zwecke hin. So erscheint beispielsweise bei Gemini für Privatkunden im Chat folgender Hinweis:

"Prüferinnen und Prüfer sehen sich einen Teil der gespeicherten Chats an. Dies dient dazu, Google AI zu verbessern. Falls du dies bei künftigen Chats verhindern möchten, deaktiviere die Aktivitäten in Gemini-Apps. Wenn diese Einstellung jedoch aktiviert ist, gib keine Informationen ein, die nicht von Prüferinnen und Prüfern gesehen oder verwendet werden sollen."

Diese Transparenz finden wir gut, was jedoch nichts daran ändert, dass diese Angebote grundsätzlich nicht für den Einsatz im Unternehmen geeignet sind.

Red Ink

Red Ink ist ein Add-In für Microsoft Office auf Windows, das den Zugriff auf grosse Sprachmodelle direkt in Word, Excel und Outlook ermöglicht. Wir haben dieses Tool ursprünglich für uns selbst entwickelt, um KI in unserer täglichen Arbeit einsetzen zu können, ohne Tools wie ChatGPT oder Copilot nutzen zu müssen; Copilot genügte uns auch funktional nicht (siehe unser Demovideo). Dadurch sparen wir viel Geld, weil für uns die Nutzung via API für unsere Anwendungen sehr viel günstiger ist. Ein typischer Preis ist 1-3 Dollar pro Million Tokens (ein Token entspricht etwa einem kurzen Wort) an Input und 5-10 Dollar pro Million Token an Output, während die Abos für KI-Dienste heute typischerweise 15 bis 30 Franken pro Nutzer und Monat kosten (von den teuren Deep Research-Abos abgesehen). Parallel dazu setzen wir das Open Source Produkt «Open WebUI» ein, um über unsere API-Zugänge (zu Google und OpenAI) auch einen klassischen Chat-Service anbieten zu können. Wir haben so also mehr Funktionalität für weniger Geld, und trotzdem sind unsere Daten gut geschützt. Das Feedback der Nutzer ist gut.

Red Ink steht derzeit allen kostenlos zur Verfügung. Der Source Code ist auf GitHub publiziert. Red Ink kann im Grunde mit jedem fortgeschrittenen LLM mit einem Endpoint benutzt werden, grundsätzlich auch self-hosted. Es funktioniert auch mit den neuen Thinking-Modellen wie zum Beispiel Perplexity, wo auch die Deep Research-Funktion aus Red Ink zum Beispiel direkt in Word genutzt werden kann. Die Nutzung via API bietet den Vorteil, dass über die API jene KI-Provider und Modelle genutzt werden können, die den eigenen Bedürfnissen am besten entsprechen.

Lucian Hunger, Jonas Baeriswyl

Dieser Beitrag ist Teil einer Serie über den verantwortungsvollen Einsatz von KI im Unternehmen:

Wir unterstützen Sie bei allen Fragen zu Recht und Ethik beim Einsatz von künstlicher Intelligenz. Wir reden nicht nur über KI, sondern setzen sie auch selbst ein. Weitere Hilfsmittel und Publikationen von uns zum Thema finden Sie hier

Autoren