
Der Einsatz von KI birgt Risiken, heisst es regelmässig. Dies trifft zu und wir haben selbst ein Werkzeug publiziert, mit welchem solche KI-Risiken eingeschätzt werden können, das sich einiger Beliebtheit erfreut. Doch wo KI-Anwendungen keine hohen Risiken bergen, darf die Prüfung solcher Vorhaben weniger streng sein. Mit diesem Teil 20 unserer KI-Blog-Serie stellen wir ein Risikoraster zur Diskussion.
Insbesondere der Einsatz von generativer KI erfordert, dass Unternehmen die damit verbundenen Risiken beurteilen und kontrollieren. Die Praxis zeigt allerdings, dass viele Anwendungen in diesem Bereich bei näherer Betrachtung nur beschränkte oder jedenfalls keine hohen Risiken aufweisen. Wir sehen bei unseren Klienten daher zusehends das Bedürfnis für ein risikobasiertes Vorgehen bei der Prüfung und Zulassung von KI-Anwendungen. Kommt hinzu, dass KI bereits heute in zahlreichen Produkten und Dienstleistungen steckt, ohne dass diese in Bezug auf KI-spezifische Risiken je geprüft worden sind – weil niemand die KI wahrnimmt oder in Frage stellt. Jeder von uns hat selbst solche Produkte im Einsatz, wie beispielsweise bei der Entsperrung eines Mobiltelefons mit biometrischen Sensoren oder beim Übersetzen von Texten.
Raster für KI-Risiken
In unserem Werkzeug für die Beurteilungen und Dokumentation der Risiken von Anwendungen mit generativer KI ("GAIRA") hatten wir bereits bisher einige Fragen zur Identifikation von GenKI-Vorhaben mit höheren Risiken aufgeführt. Wir haben das Werkzeug nun um einen umfassenderen Fragebogen zur Klassifizierung von KI-Anwendungen nach ihren KI-Risiken ergänzt. Er unterscheidet sich zu den Arbeitsblättern zur Risikobeurteilung darin, dass nicht Massnahmen, Vorkehrungen und Restrisiken abgefragt werden, sondern Risikofaktoren und -indikatoren im Bereich KI.
Dieser Fragebogen unterscheidet folgende Klassen:
- Unbedeutende Risiken: Dies umfasst beispielsweise Werkzeuge, die zwar KI-Techniken einsetzen, wie etwa eine Texterkennungssoftware, der wir jedoch vollumfänglich vertrauen, weil sie uns gut bekannt ist. Es scheint uns wichtig, das wir solche Anwendungen frühzeitig "aussortieren", damit sie den Risiko-Management-Prozess nicht belasten und die dortigen Ressourcen für jene Vorhaben zur Verfügung stehen, die sie wirklich brauchen.
- Hohe Risiken: Anwendungen dieser Klasse erfordern eine eingehendere Beurteilung der KI-Risiken, wie beispielsweise Systeme, die unter dem AI Act als hochriskant gelten. Erfasst ist beispielsweise das Training von Modellen mit nicht öffentlichen personenbezogenen Daten ohne Zustimmung der betroffenen Personen oder Systeme, die wichtige Entscheide treffen oder ein hohes Schadenspotenzial mit sich bringen. Nach unserer Erfahrung werden nur wenige Vorhaben in diese Klasse fallen.
- Mittlere Risiken: In diese Klasse fallen die zwar nicht ganz harmlosen, aber doch zusehends üblichen KI-Anwendungen, deren Schadenspotenzial besteht, aber begrenzt ist. Wichtige Entscheide werden hier nicht mehr von der Maschine gefällt, aber mitunter vorbereitet. Es sind auch Vorhaben, die negative reputative Konsequenzen für das Unternehmen nach sich ziehen können, wenn keine Gegenmassnahmen getroffen werden. Der Chatbot auf der Website eines Unternehmens fällt typischerweise in diese Kategorie.
- Tiefe Risiken: Alle Anwendungen, welche gemäss dem Fragenkatalog weder hohe noch mittlere Risiken aufweisen und nicht unbedeutend sind, fallen automatisch in diese Kategorie, wie beispielsweise die Transkription von Gesprächsinhalten oder Erstellung von Kundenanschreiben.
Die Klassifizierung richtet sich nach den KI-spezifischen Risiken, die eine Anwendung für das betreffende Unternehmen mit sich bringt, und zwar finanziell, betrieblich, reputativ sowie aus Sicht seiner Compliance. Die Risiken für betroffene Personen sind damit nur aber immerhin indirekt erfasst. Ihre Beurteilung ist in verschiedener Hinsicht bereits gesetzlich geregelt, so beispielsweise im Falle der Datenschutz-Folgenabschätzung, welche eine Risikobeurteilung nur bei hohen Risiken für eine betroffene Person verlangt.
Die von uns vorgeschlagene Einteilung ist ein Entwurf zur öffentlichen Diskussion. Jedes Unternehmen wird seine Risiko-Klassen nach seinem eigenen Risikoverständnis und -appetit definieren müssen. Es ist zum Beispiel ohne Weiteres denkbar, dass ein Unternehmen eine Chatbot-Anwendung für den Kunden-Support auf seiner Website nicht als mittleres, sondern als tiefes Risiko einstuft.
In diesem Sinne gibt es kein allgemeingültiges Raster. Unser Vorschlag kann als Ausgangspunkt für eine interne Diskussion über KI-Risiken benutzt und entsprechend angepasst werden, dies unter Einbezug der Erwartungen der Stakeholder, ethischer Überlegungen und dem eigenen Risikoappetit.
Gerne nehmen wir Vorschläge und Feedback zur Verbesserung unserer Risiko-Klassen an und danken jenen, die bereits Feedback dazu gegeben haben.
Umgang mit Projekten intern regeln
Die Konsequenzen der Einstufung eines Vorhabens in eine Risiko-Klasse wird ein Unternehmen ebenfalls für sich festlegen müssen. Denkbar ist beispielswiese, für Vorhaben mit unbedeutenden oder tiefen Risiken eine generelle Freigabe vorzusehen, während Vorhaben mit mittleren Risiken nach erleichterten Voraussetzungen geprüft werden.
Zu bedenken ist allerding stets, dass es neben den eigentlichen KI-spezifischen Risiken bei jeder Anwendung immer auch Compliance-Vorgaben gibt, die unabhängig von der KI-Risiko-Klasse einer Anwendung erfüllt sein müssen. Ein Beispiel ist der Abschluss einer Auftragsverarbeitungsvereinbarung (AVV), wenn ein Provider mit der Verarbeitung von personenbezogenen Daten beauftragt wird. Ein solcher AVV ist auch dann nötig, wenn die KI-Risiken des Vorhabens gering sind. Das Datenschutzrecht verlangt dies möglicherweise, und zwar unabhängig vom Einsatz von KI.
Hilfreich können die Risiko-Klassen auch für Fälle sein, in denen lediglich ein Werkzeug freigegeben wird, die konkrete Anwendung jedoch vom jeweiligen Benutzer oder der jeweiligen Benutzerin in durch vordefinierte interne Weisungen oder Nutzungsbestimmungen begrenztem Rahmen bestimmt wird. Wird beispielsweise ein Chatbot zur persönlichen Nutzung freigegeben und sind dabei die grundlegenden Aspekte des Datenschutzes sichergestellt, ist es normalerweise nicht zielführend, wenn jede im Rahmen befindliche Anwendung, die Mitarbeitende damit umsetzen wollen, erneut der Compliance- oder Rechtsabteilung vorgelegt werden muss. Angemessene gelegentliche Kontrollen bleiben vorbehalten.
Hier prognostizieren wir in den kommenden zwölf Monaten eine erhebliche Entspannung in den Unternehmen, was die Zulassung des Einsatzes solcher Werkzeuge angeht, weil mit ihrer zunehmenden Verbreitung auch die Erfahrung und Bereitschaft der Mitarbeitenden zu einem verantwortungsvollen Umgang damit zunehmen wird.
Die neuste Version von GAIRA kann hier kostenlos bezogen werden. Wir haben am Werkzeug auch diverse weitere Updates vorgenommen. Die Lizenzbedingungen wurden ebenfalls erweitert: Sie erlauben jetzt zusätzliche Anpassungen an die eigenen Bedürfnisse und es dürfen Übersetzungen vorgenommen und eigene Logos eingebaut werden.
Wir unterstützen Sie bei allen Fragen zu Recht und Ethik beim Einsatz von künstlicher Intelligenz. Wir reden nicht nur über KI, sondern setzen sie auch selbst ein. Weitere Hilfsmittel und Publikationen von uns zum Thema finden Sie hier.