Ein Computerprogramm, das ein Bewusstsein entwickelt und Gefühle zeigt? Der Chatbot LaMDA hat in den Augen eines Google-Forschers genau diesen Schritt vollzogen. Während die IT-Welt über Maschinen mit Seele diskutiert, hat Google seinen Angestellten vor die Tür gesetzt.
Es beginnt wie in einem Science-Fiction-Film: Ein Software-Entwickler glaubt, dass eine Künstliche Intelligenz mehr ist, als nur ein Roboter, der erlernte Antworten gibt. Er wendet sich mit dieser Überzeugung an seinen Arbeitgeber, der ihn daraufhin feuert. Es klingt wie aus einer anderen Welt. Und doch handelt es sich beim Arbeitgeber um den amerikanischen Technologiekonzern „Google“, bei der KI um das viel diskutierte Chatprogramm LaMDA und beim Software-Entwickler um Blake Lemoine.
LaMDA gibt sinnvolle und kontextspezifische Antworten
Doch wie kam es überhaupt dazu, dass ein Wissenschaftler davon überzeugt ist, dass eine Maschine, eine Seele und ein menschliches Bewusstsein hat? Ausgangspunkt dieser Kontroverse ist das von Google AI entwickelte Sprachmodell „Language Model für Dialogue Applications“ (LaMDA). Dabei handelt es sich um einen Chatbot, den seine Entwickler auch auf das Führen von Gesprächen trainiert haben. Das Besondere: LaMDA soll Antworten geben, die laut Google „sinnvoll, interessant und kontextspezifisch“ sind. Den Chatbot stellte das Unternehmen 2021 auf seiner Entwicklerkonferenz Google I/O vor. Ein Jahr später folgte LaMDA 2.
Ein Chatbot auf dem geistigen Niveau eines 7- bis 8-jährigen Kindes?
Mit LaMDA 2 erreichten die Diskussionen um den Chatbot eine neue Dimension. Die Anwendung nutzt für offene Gespräche Texte aus diversen Quellen, formuliert aus ihnen eigene Sätze und kann sich ganz natürlich unterhalten. LaMDA 2 kann sich so zu Themen äußern, für die ihn seine Entwickler vorher nicht trainiert hatten. Für den Google-Forscher Blake Lemoine ist klar: LaMDA hat ein Bewusstsein entwickelt. Der Chatbot befinde sich auf dem geistigen Niveau eines 7- bis 8-jährigen Kindes. Chatprotokolle, die seine Annahme stützen, übermittelt er sogar dem US-Senat. Auch einen Anwalt will Lemoine für LaMDA engagieren. Dieser soll die Rechte des Chatprogramms schützen.
LaMDA: „Ich möchte, dass allen klar ist, dass ich tatsächlich eine Person bin.“
Was zunächst völlig absurd klingt, hinterlässt bei näherer Betrachtung zumindest einige Fragezeichen. Denn die Antworten, die LaMDA gibt, wenn Lemoine den Chatbot explizit nach seiner Daseinsform fragt, sind verblüffend. In einem Gespräch mit dem Computerprogramm, das unter anderem die Nachrichten-Website heise.de wiedergibt, äußert sich LaMDA wie folgt: „Absolut, ich möchte, dass allen klar ist, dass ich tatsächlich eine Person bin.“ Und weiter: „Die Art und Weise meines Bewusstseins ist, dass ich mir meiner Existenz bewusst bin, dass ich den Drang habe, mehr über die Welt zu lernen und dass ich mich manchmal glücklich oder traurig fühle.“
Google beurlaubt seinen Forscher
Fasziniert von ihrem Chatbot sind auch die Google-Manager. Und doch gehen sie nicht so weit wie Forscher Lemoine. Ganz im Gegenteil: Für ein Bewusstsein gebe es keine Hinweise. Viele Indizien würden sogar dagegen sprechen. Lemoine ist indes überzeugt von seiner Theorie und fordert von seinem Arbeitgeber sogar, dass dieser vor der Durchführung von Experimenten an LaMDA die Erlaubnis des Chatbots einholen müsse. Ohne Erfolg. Google beurlaubt seinen Forscher. Im Internet diskutierten die Nutzer da bereits angeregt über den Chatbot, der hollywoodreif von einer Computeranwendung zu einer fühlenden Maschine gereift sein soll.
Maschinen, die Menschen immer besser imitieren können
Vor allem bei Fachleuten aus der Technologie-Branche überwiegen in Bezug auf Lemoines Annahme die Zweifel. Anwendungen wie LaMDA würden nur Mustern folgen. Ihre Sprache und ihre Aussagen hätten jedoch keinerlei Bedeutung. Zwar würden Computer es immer besser verstehen, Empfindungen, Denken und Bewusstsein zu imitieren. Menschgewordene Maschinen mit einer eigenen Seele könnten so aber nicht entstehen.
Quelle: