Kürzlich sorgte Google-Mitarbeiter Blake Lemoine für rege Diskussionen, da er beim Chatbot LaMDA (Language Model for Dialogue Applications) ein Bewusstsein entdeckt zu haben schien. Doch Google sah das anders, und so wandte sich der Softwareingenieur mit seinem Anliegen an die Öffentlichkeit, weswegen er schließlich seinen Posten verlor. Hat er sich von LaMDA austricksen lassen
Von “sentient AI” war in den Online-Debatten die Rede - doch was bedeutet das eigentlich?
Verknappt könnte man anführen, dass Wahrnehmung, Selbstreflexion, eigene Gedanken oder auch Schmerzempfinden dazu beitragen, dass man einem Objekt ein Bewusstsein zuschreibt. So werden beispielsweise auch Tiere so charakterisiert, wobei die Trennschärfe hier schwierig ist und unterschiedlich aufgefasst wird.
Ein Bewusstsein zu erkennen, darin liegt die große Schwierigkeit - so konnte beispielsweise der Turing Test, 1950 von Alan Turing entwickelt, die Intelligenz eines Computers messen und sie mit einer menschlichen vergleichen: Im Turing-Test geht es darum zu bestimmen, ob eine Antwort auf eine Frage von einem Computer oder einem anderen Menschen gegeben wurde. Kann die teilnehmende Person das nicht korrekt zuordnen, hat der Computer den Test erfolgreich „bestanden“.
Heutzutage wäre hier der Test GLUE (General Language Understanding Evaluation) anzuführen (ähnlich wie der Turing Test, aber etwas komplexer), der Computer dazu auffordert, aktiv Schlussfolgerungen zu ziehen und sich Synonyme nachzudenken. Doch beide sind sie für die Frage nach der Existenz eines Bewusstseins irreführend, weil sie sich aufs Denken konzentrieren und beispielsweise das Fühlen oder das subjektive Empfinden außer Acht lassen.
Wie also soll man erkennen, ob die KI, die beispielsweise durch einen Chatbot mit einem kommuniziert, ein eigenes Bewusstsein entwickelt, und wie soll man damit umgehen?
Zunächst ist aufzuführen, dass die KI mit dem arbeitet, was wir ihr mitgeben, und aus den Daten, Texten, Informationen lernt, die sie von uns bekommen hat - und diese sind nun mal “menschlich”. Je mehr sie sich damit beschäftigt, desto ähnlicher wird sie uns; der Verdacht liegt nahe, sie hätte sich selbstständig gemacht, vor allem, wenn sie durch eine gute Daten-Ausgangslage und effizientes Machine Learning eben gute Beobachtungen gemacht hat. Dann ist man gern geneigt, zu glauben, sie hätte eine Seele, eine Persönlichkeit - eben ein Bewusstsein entwickelt.
So soll es beispielsweise bei der Anwendung “Replika” täglich eine Handvoll User geben, die sich an das Unternehmen mit der festen Überzeugung wenden, der mit ihnen kommunizierende Avatar habe ein Bewusstsein entwickelt. Das Phänomen ist nicht neu, sondern bereits unter dem “ELIZA effect” bekannt: So gab es in den 1960er Jahren einen Chatbot namens Eliza, der in seinem Chat-Stil wohl einer echten therapeutischen Fachkraft ähnelte; einfache Sätze wie “Erzählen Sie mir mehr” reichten für diesen Eindruck scheinbar aus - das war anno 1965.
Menschen bauen also eine Beziehung auf und vermenschlichen dabei die Maschine.
Bei einer Studie, die von PsychologInnen der ELTE Eötvös Loránd Universität in Ungarn als eine abgewandelter Turing Test durchgeführt wurde, ist man sogar zu dem Ergebnis gekommen, dass Menschen im Test als Computer eingestuft wurden, die gar keine waren. Die ProbandInnen waren im Chat mit einem unbekannten Gegenüber und mussten danach urteilen, ob sie ein Gespräch mit einem echten Menschen oder mit einer KI geführt hatten. 42% der Teilnehmenden kreuzten an, dass es sich um eine KI gehandelt hat - obwohl es in Wirklichkeit echte Personen waren!
Dabei ist es nur logisch, dass die KI sich ein Detailwissen aneignet, unsere Sprache imitiert, und auch Verbindungen zwischen Themenfeldern herstellen kann; das allein jedoch macht sie noch lange nicht lebendig!
Kurz: Nur weil sich eine KI wie ein Mensch verhält, lässt das nicht zwangsläufig darauf schließen, dass sie menschliche Eigenschaften entwickelt hat.
Viel wahrscheinlicher ist es, dass wir in diesem Falle - wie so oft - anthropomorphisieren: Wir schreiben ihr menschliche Eigenschaften zu, weil wir ein Muster erkennen, die wir von Menschen kennen; dies kann optisch sein (z.B. ein Gesicht), oder eben auch ein Verhalten.
Doch von all dem abgesehen - was, wenn es irgendwann tatsächlich soweit ist, und die KI sich ihrer selbst bewusst wird? LAVRIO.solutions ist hier der Meinung, dass wir noch sehr weit weg von einer solchen KI sind.
Spinnt man den Gedanken jedoch zuende, wird das vermutlich zu einer Zeit passieren, in der die Künstliche Intelligenz viel, viel weiter entwickelt sein wird als heute, und auch viel mehr mit unserem Leben verschmolzen.
Bereits heute sind viele Anwendungen aus unserem Alltag nicht mehr wegzudenken. Philosophie-Professorin Regina Rini von der York-Universität Toronto argumentiert in einem Artikel vom “Guardian”, an diesem Punkt in der Zukunft könnte es zu spät sein, mit den entsprechenden ethischen Betrachtungsweisen zu beginnen. Wir werden dann eher in einem asymmetrischen Machtverhältnis zu der KI stehen und es wird genügend Menschen geben, die ein Interesse daran haben werden, dass man diese ethischen Implikationen unter den Tisch fegt, weil sie unbequeme Konsequenzen wie etwa Verhaltensänderungen und damit verbunden wirtschaftliche Einbußen zur Folge hätten. Denkt man nur daran, dass wir, wie oben erwähnt, Tieren ein Bewusstsein zuschreiben, aber ihre Rechte dennoch in vielen Fällen mehr als missachten.
Prof. Rini plädiert dafür, sich besser jetzt Gedanken zu diesem Fall zu machen, damit wir darauf vorbereitet sind, sollte er tatsächlich irgendwann eintreten. Heute haben wir eine gewisse Distanz zur Thematik sowie auch noch Zeit, uns vorzubereiten.
Und eine grundsätzliche Beschäftigung mit ethischen Implikationen in Bezug auf Künstliche Intelligenz kann ja auch generell kaum schaden - im Gegenteil …
Und dann gibt es noch die Stimmen, die die Frage, ob LaMDA ein Bewusstsein entwickelt hat oder nicht, oder könnte, unerheblich finden; sie finden es viel wichtiger, dass die KI so etwas wie einen “common sense”, also eine Art gesellschaftliches Grundverständnis, entwickelt, wie es auch bei Kindern der Fall ist. Das allein erfordere schon genug Arbeit und sei komplex genug, vom Bewusstsein ganz abgesehen …
Wer solche Gedankenspiele interessant und wichtig findet, sollte definitiv mal in unserem Meetup “Coffee, Ethics & AI” vorbeischauen, in dem wir alle 2 Wochen wichtige Fragen aus der Welt der Künstlichen Intelligenz und ihre ethischen Problemfelder interdisziplinär mit spannenden Menschen aus der ganzen Welt diskutieren: https://www.meetup.com/de-DE/coffee-ethics-ai/
Quellenangaben:
https://www.forbes.com/sites/forbestechcouncil/2022/07/11/is-sentient-ai-upon-us/?sh=e69113c12cb0
https://www.cbc.ca/news/science/ai-consciousness-how-to-recognize-1.6498068
https://www.reuters.com/technology/its-alive-how-belief-ai-sentience-is-becoming-problem-2022-06-30/
https://www.sciencefocus.com/future-technology/if-an-ai-became-sentient-would-it-gain-human-or-equivalent-rights/
https://pt.ffri.hr/pt/article/view/800
Autorin:
Elena Schilling