Künstliche Intelligenz wird insbesondere in den Bereichen zunehmend komplexer, in welchen Menschen sehr stark von der Qualität ihrer Entscheidungen abhängen. Doch diese sind nicht selten nur schwer nachvollziehbar, was bei vielen Misstrauen auslöst. Erklärbare KI setzt genau da an.
Zu den größten Hürden bei der Implementierung von Künstlicher Intelligenz in bestehende betriebliche Abläufe zählt das große Misstrauen auf Seiten der VerbraucherInnen und nicht zuletzt auch der Mitarbeitenden eines Unternehmens. Und wer könnte es ihnen verübeln, schließlich ist selbst für die Forschenden nicht selten ein KI-System, das etwa Deep Learning nutzt, eine “Black Box”, die beispielsweise eine Prognose liefert oder sich für etwas entscheidet, was sich nicht mehr direkt nachvollziehen lässt. Wie kam es zu ausgerechnet dieser Entscheidung? Wenn man es nicht genau nachverfolgen kann, schwindet das Vertrauen, denn gerade bei kritischen Anwendungen muss man sicher sein können, dass die richtigen Faktoren einbezogen wurden.
So kann es beispielsweise in medizinischen Zusammenhängen eine große Rolle spielen, welche Parameter berücksichtigt wurden und welcher medizinischer Eingriff als Folge dessen empfohlen wird, denn Alter, Gewicht, Größe, Geschlecht etc. spielen eine wichtige Rolle, und die ärztliche Fachkraft muss verstehen können, welche Faktoren die KI berücksichtigt hat. In anderen Bereichen muss wiederum sichergestellt werden, dass eine KI nicht biased ist und Menschen diskriminiert, weil sie beispielsweise Frauen oder People of Color in einer Vorauswahl für ein Bewerbungsgespräch “aussortiert”, weil die größere Anzahl der BewerberInnen männlich oder weiß sind und sie das zum Standard erklärt.
Das Forschungsfeld rund um die “Explainable AI” (XAI), also Erklärbare KI, hat es sich zur Aufgabe gemacht, genau da Licht ins Dunkel zu bringen: Bestehende Modelle sollen verständlich gemacht werden und neue Modelle verständlich designed werden. Denn nicht nur ist es bereits jetzt so, dass Künstliche Intelligenz in eigentlich allen Lebensbereichen Einsatz findet, die den Menschen betreffen - vom Wetter über die Ernährung bis in die Medizin und Industrie sowie den Straßenverkehr - sondern es müssen auch künftige Szenarien berücksichtigt und heute schon mitgedacht werden.
In ihrem Buch “xxAI - Beyong Explainable AI” schreiben die AutorInnen, dass insbesondere EntscheidungsträgerInnen strukturierte und fundierte Erklärungen brauchen, wie eine KI zu ihrem Ergebnis kam.
In Zukunft soll die Erklärbare KI darüber hinausgehend auch Kausalitäten bei den Prozessen berücksichtigen und auch die Qualität von unterschiedlichen Erklärungen soll messbar gemacht werden.
Hierbei soll der Mensch als wichtige Größe immer einen Platz haben, vor allem in kritischen Bereichen wie der Medizin ist ein human-in-the-loop-Ansatz unumgänglich; die AutorInnen schlagen hier vor, dass man Eigenschaften von menschlichen Entscheidungen nutzen sollte, um die KI zu trainieren und sie dadurch noch besser zu machen. Denn der Mensch ist ein komplexes Wesen, das auf vielen, ganz unterschiedlichen Ebenen eine Entscheidung trifft. Trainiert man diese menschliche Komponente im KI-System, wird es noch präziser und “menschlicher” entscheiden.
Ferner unterscheiden die AutorInnen zwischen lokalen und globalen Erklärungen: Erstere erklären individuelle Entscheidungen eines Modells, während letztere das System und seine Komponenten ganzheitlich betrachten. Auf die beiden Begriffe wird im nächsten Artikel zum Them “XAI : konkerete Umsetzung” näher eingegangen.
Ebenso gibt es noch eine andere Unterscheidung: post hoc Erklärungen finden Einsatz bei bereits trainierten deep neural networks, während ante hoc bedeutet, dass die Erklärungen bereits in den Aufbau der KI-Systeme während ihrer Entstehung integriert werden; die KI liefert also nicht bloß eine Entscheidung, sondern auch die entsprechende Erklärung dazu, wie sie auf diese gekommen ist.
Es ist somit viel im Entstehen in der Forschung, das über das bloße Erklären von Mustern hinausgeht. Doch ist es wichtig zu erwähnen, dass die Forschenden ja nicht diejenigen sind, die später mit der KI direkt zu tun haben und auf ihre Transparenz angewiesen sind, sondern die KundInnen und AnwenderInnnen. Und auch die PrüferInnen und das Management muss ebenso wissen, womit sie es zu tun haben.
Und nicht zu vergessen: Die rechtliche Dimension all dieser Überlegungen. Schließlich muss jemand haftbar gemacht werden, wenn eine Operation misslingt oder eine Person durch eine KI-Entscheidung Schaden nimmt. Wer trägt dafür die Verantwortung, wenn die Motive und Hintergründe des Systems nicht nachvollziehbar sind?
Genau aus diesen Gründen hat sich LAVRIO.solutions immer schon sehr intensiv mit der Erklärbaren KI beschäftigt und zählt zu den Vorreitern in Deutschland in diesem Gebiet. Bereits vor einigen Jahren hielt Natalie Beyer hierzu einen Vortrag bei der Machine Learning Conference. Es ist aus ethischen, medizinischen und rechtlichen Aspekten ein elementar wichtiges Thema, das aus Sicht von LAVRIO.solutions untrennbar zum Einsatz von KI gehört.
Doch nicht nur das - auch für die KundInnen hat das einen riesigen Vorteil, denn eine “black box”-KI kann Schäden anrichten, die sich finanziell schlecht auf das Unternehmen auswirken können oder das Image der Firma schädigen. Oder es kommt gar nicht erst soweit, weil die KI sich nicht bei der Belegschaft mangels Akzeptanz durchsetzen kann, da das Vertrauen fehlt …
Deshalb ist es für LAVRIO.solutions sehr wichtig, die Erklärbarkeit von KI-Modellen stets mitzudenken und bei allen Projekten zu berücksichtigen. Eine Human-in-the-loop-Perspektive ist dabei die Voraussetzung, ohne die man keine nachhaltig erfolgreiche Implementierung von Künstlicher Intelligenz in einem Unternehmen integrieren kann!
Sehr gerne geben Natalie und Jens Beyer in einem persönlichen Gespräch weitere Informationen über diese Arbeitsweise und ihre Vorteile.
Quellen: