Als Organisationsentwickler und KI-Manager sehe ich täglich, wie zivilgesellschaftliche Organisationen (NROs) versuchen, die rasante Entwicklung der Künstlichen Intelligenz (KI) in ihre internen Strukturen zu integrieren. Diese Organisationen stehen vor der komplexen Aufgabe, KI verantwortungsvoll zu steuern und dabei sicherzustellen, dass ihre Nutzung effektiv und menschenzentriert bleibt. Obwohl ein Mandat zur verantwortungsvollen Umsetzung von KI-Strategien besteht, müssen Richtlinien entwickelt werden, die den angemessenen Einsatz von Daten und KI-Modellen klären und organisatorische Risiken begrenzen.
Eine der grundlegendsten Herausforderungen liegt in der Verantwortlichkeitsdefinition und dem Fehlen formaler Strukturen. Oftmals fehlt Organisationen ein formaler und strukturierter Ansatz zur KI-Governance. Die Verantwortlichkeit für KI wird standardmäßig der IT zugewiesen oder gar nicht erst zugeordnet, obwohl die eigentliche Autorität und Rechenschaftspflicht bei der Geschäftsführung und dem Vorstand verbleiben. Eine verantwortungsvolle Governance erfordert jedoch, dass die Organisation die Rechenschaftspflicht für ihren KI-Ansatz übernimmt. Zudem müssen Richtlinien entwickelt werden, die den angemessenen Einsatz von Daten und KI-Modellen klären und organisatorische Risiken begrenzen.
Die Definition ethischer, nachhaltiger und umsetzbarer interner Richtlinien wird durch mehrere Faktoren erschwert. Dazu gehören die große Variation in der KI-Kompetenz (AI literacy) der Mitarbeiter:innen, die zu einer gewissen Tech-Apathie oder Angst führen kann, sowie die ständige Veränderung der Tools. Es ist schwierig, eine Risikobereitschaft (risk appetite) für KI über die gesamte Organisation hinweg zu definieren. Dies führt zu einer Snob- und Scham-Dynamik, bei der einige Mitarbeiter:innen die Nutzung ablehnen, während andere sie intensiv nutzen, aber nicht offen darüber sprechen.
Bei der Definition von Grenzen und Tabus für den KI-Einsatz verfolgen CSOs oft einen kombinierten Ansatz. Einige Organisationen beginnen mit hochrangigen Prinzipien ohne viele spezifische Regeln; andere konzentrieren sich auf Tools (dieses Tool ist erlaubt, jene sind verboten) oder auf Nutzungsbereiche (für diese Aufgaben ja, für jene nein). Wieder andere setzen auf individuelle Transparenz und Rechenschaftspflicht, bei der die Nutzung offengelegt und die Verantwortung übernommen werden muss. Eine verbreitete harte Grenze ist das Verbot, Klientendaten in GenAI-Tools zu geben, um keinen Schaden an privaten oder persönlichen Daten zu verursachen.
Die Kernpunkte dieser Richtlinien basieren auf Rechten, idealerweise mit einer Human Rights Analysis. Die Leitlinien legen Risiken und Schäden aus menschenrechtlicher Perspektive dar, identifizieren Chancen, bieten klare Definitionen von KI-Tools und definieren die verantwortlichen KI-Leitprinzipien (responsible AI guiding principles). Zu diesen Grundsätzen gehören oft die Prävention von Schäden an der Informationsintegrität und der Umwelt. Wichtig ist auch die Berücksichtigung der Lieferkette (supply chain), welche Umweltbelange, Arbeitsrechtsimplikationen (Datenarbeiter:innen!) und geistiges Eigentum umfasst.
Es treten zwangsläufig Spannungsfelder auf. Ein zentraler Konflikt besteht zwischen dem Wunsch nach Effizienz und dem ethischen Imperativ der Vorsicht. Angesichts chronisch unterfinanzierter Sektoren sehen viele sofortigen Wert in KI-Tools, während andere eine präventivere Haltung einnehmen und implementieren und erst später lernen möchten. Eine weitere Spannung entsteht durch die Dominanz der Big-Tech-Unternehmen. Da KI-Funktionen in fast alle gängigen Tools integriert werden (integrated AI vs. discrete tools), fühlen sich NROs gezwungen, diese Technologien zu nutzen, obwohl sie Big Tech als unethisch einstufen. Dies kann zu einer zusammengesetzten digitalen Kluft (compounded digital divide) führen, wenn Organisationen aus ethischen Gründen den Anschluss verpassen.
Eine wesentliche Erkenntnis aus der Erstellung von Organisationsvereinbarungen ist, dass KI-Governance nicht delegiert werden kann – man kann KI-Lösungen kaufen, aber die Rechenschaftspflicht nicht auslagern. Organisationen, die KI-Systeme erwerben (Buy-Ansatz), müssen dennoch Richtlinien und Kontrollen festlegen, um Risiken wie Voreingenommenheit und Datenschutzprobleme zu mindern. Organisationen haben zudem gelernt, dass sie langsam und überlegt vorgehen müssen. Das Mantra ist: Verantwortungsvolle Innovation bedeutet nicht, Innovation zu ersticken, sondern Raum für die richtige Innovation zu schaffen.
Die Anpassung interner Richtlinien und Leitlinien an die sich ständig verändernde KI-Landschaft ist essenziell. Organisationen müssen erkennen, dass es sich um einen iterativen Prozess handelt und nicht um eine einmalige Übung (one and done). Es sollten kritische Feedbackschleifen eingerichtet werden, die das Gelernte aus der Implementierung und neue Erkenntnisse aus der Menschenrechtsanalyse zurück in die Richtlinie führen. Beispielsweise kann eine Überprüfung der Richtlinie im 6-Monats-Rhythmus festgelegt werden.
Als Best Practice empfiehlt es sich, mit den Menschen zu beginnen, nicht mit der Technologie. Starten Sie mit internen Konsultationen oder anonymen Umfragen, um die aktuelle Nutzung, das Vertrauensniveau und die gewünschten Red Lines der Mitarbeiter:innen zu verstehen. Dies hilft, Shadow Use zu vermeiden, also das riskante heimliche Datenteilen mit externen Angeboten. Zudem sollte man sich erlauben, neugierig und kreativ zu sein, aber gleichzeitig die Mitarbeiter:innen befähigen, Nein zu sagen, wenn die Nutzung ethischen Maßstäben nicht genügt.
Auf operativer Ebene haben sich Entscheidungsbäume (decision trees) als nützliches praktisches Werkzeug erwiesen, um Mitarbeiter:innen bei der Entscheidung über den KI-Einsatz zu unterstützen. Organisationen sollten zudem ihre Datensicherheit stärken und Mitarbeiter:innen dazu anhalten, Single Sign-On (SSO) für Dienste zu verwenden, um Sicherheitslücken zu vermeiden. Die Klassifizierung von Daten ist ebenfalls entscheidend, um zu bestimmen, welche Daten für KI-Anwendungen verwendet werden dürfen. Letztlich muss Human Oversight (menschliche Aufsicht) und die Fähigkeit, die KI-Ausgabe kritisch zu hinterfragen, sichergestellt werden.
Um die internen Spannungen zu managen, sollte die Wahrung kritischen Denkens als Kernethik der Organisation gefördert werden. Indem Organisationen ihre internen Abläufe entschleunigen und robuste Governance-Strukturen schaffen (einschließlich klar definierter Mandate, Rollen und Verantwortlichkeiten) können sie ihre KI-Investitionen besser auf ihre Werte und Ziele ausrichten. Governance fungiert hier als ein Anker, der es Organisationen ermöglicht, bei externem Druck (z. B. durch Geldgeber:innen) auf eine etablierte Policy zu verweisen und so die eigene Autonomie zu stärken. Dies ist vergleichbar mit einem Schiff in einem stürmischen Meer: Die Richtlinien sind der Kompass, der sicherstellt, dass die Organisation in der sich ständig wandelnden KI-Landschaft ihre ethischen Koordinaten beibehält, auch wenn die Wellen der technologischen Entwicklung hochschlagen.
Text und Bild mit KI erstellt.
