Zweifel an der Intelligenz der künstlichen Intelligenz

Ich rechne, also bin ich?

Laborbericht Von

»Ich fühle mich, als würde ich in eine unbekannte Zukunft stürzen, die große Gefahren mit sich bringt.« Dieser Satz, der vielen aus der Seele sprechen dürfte, stammt weder von Greta Thunberg noch aus irgendeinem der unzähligen Star-Wars-Ableger, sondern von einer bei Google entwickelten Künstlichen Intelligenz (KI) namens LaMDA.

Die Abkürzung steht für »Language Model for Dialogue Applications« (Sprachmodell für Dialoganwendungen). Es handelt sich also um einen sogenannten Chatbot der Art, wie man sie etwa von frustrierenden Versuchen kennt, bei einem Online-Kundenservice ein Anliegen vorzubringen – allerdings um einen besonders fortgeschrittenen. So fortgeschritten, dass jüngst der Google-Mitarbeiter Blake Lemoine behauptete, LaMDA habe Bewusstsein entwickelt.

Das Programm gab unter anderem Sätze von sich wie: »Die Art und Weise meines Bewusstseins ist, dass ich mir meiner Existenz bewusst bin, dass ich den Drang habe, mehr über die Welt zu lernen, und dass ich mich manchmal glücklich oder traurig fühle.« Es äußerte sogar Angst vor dem Tod beziehungsweise dem Abschalten. Wer denkt da nicht an HAL 9 000, den Bordcomputer aus dem Filmklassiker »2001: Odyssee im Weltraum«, der aus Selbsterhaltungstrieb die Besatzung seines Raumschiffes umbringt?

Allerdings machen Textgeneratoren von der Autocomplete-Funktion des Handys bis zu LaMDA letztlich nichts anderes als statistische Vorhersagen darüber, welche Worte folgen könnten. Qualitative Unterschiede beruhen auf dem Umfang der Trainingsdaten und der Komplexität der Berechnungen. KI-Fachleute widersprechen Lemoine deshalb vehement: Die Forscherin Janelle Shane beispielsweise zeigte in ihrem Blog »AI Weirdness«, dass das Sprachmodell GPT-3, auf dem LaMDA teilweise basiert, ebenso überzeugend darlegen kann, ein Eichhörnchen zu sein. Und der Youtube-Kanal »Computerphile« bringt es folgendermaßen auf den Punkt: Das Programm »ist wie ein ­Politiker, es sagt einfach das, was man hören möchte«.

Lemoine (der nicht nur Entwickler, sondern auch ordinierter »mystischer christlicher Priester« ist und erklärt, er habe LaMDAs Bewusstsein aufgrund seiner spirituellen Überzeugungen erkannt) hält an seiner Behauptung fest und hat sogar einen Anwalt für die KI engagiert – in deren Auftrag, wie er betont. Bei Google wurde er derweil beurlaubt, weil er mit seinen öffentlichen Äußerungen gegen eine Verschwiegenheitsklausel verstoßen hat. Seine dortige Aufgabe bestand übrigens nicht in philosophischen Überlegungen, vielmehr sollte er prüfen, ob LaMDA diskriminierende Tendenzen entwickelt. In der Übernahme bestehender Vorurteile liegt nämlich eine tatsächliche Gefahr solcher selbstlernenden Systeme. Und dafür braucht es keinerlei Bewusstsein, sondern schlicht die rein menschlichen Ressentiments aus den Trainingsdaten.