Hilmar Schmundt las kürzlich Unerhörtes über sich selbst: Er, Jahrgang 1966, sei «ein deutscher Offizier und Adjutant von Adolf Hitler im Zweiten Weltkrieg» gewesen. Was war da schiefgelaufen?
Der Journalist des deutschen Nachrichtenmagazins «Spiegel» hatte die Software ChatGPT nach seiner Person befragt. Das Programm graste daraufhin das Internet ab, vermischte Hilmar Schmundts Daten mit denen seines Grossonkels Rudolf Schmundt, der Wehrmachtsoffizier im Dritten Reich war, und fügte die willkürlich zusammengetragenen Daten zu einem Text zusammen.
Der Fall sei nicht aussergewöhnlich, schreibt die deutsche Informatikprofessorin Katharina Zweig. Software wie ChatGPT werde bereits in vielen Bereichen angewandt. Fatale Folgen könne es haben, wenn ein Programm etwa «Bewerbungen danach bewertet, wie gut die Bewerberin zum Job passt» – und dabei Fehler mache. Oder wenn es die Zahlungsfähigkeit von Bankkunden beurteile und zu Unrecht Kredite ablehne.
Programmierer wissen nicht, was die Software tut
Zweig bietet einen tiefen Einblick in die Rechenwerke der neuen Programme und erklärt, wie sie mit Hunderttausenden von Datensätzen trainiert werden und wie programmierte neuronale Netze menschliche Gehirnfunktionen nachahmen. Der dafür benutzte Begriff «Künstliche Intelligenz» ist allerdings falsch. Denn die Systeme «verstehen» die Informationen, die sie zusammensuchen, nicht – sie setzen die Daten nur nach programmierten Gesetzmässigkeiten zusammen. Dabei kommen sie häufig zu falschen Schlüssen, weil die Daten, die sie verarbeiten, Fehler enthalten, unvollständig sind oder falsch verknüpft werden.
Das Problem: Oft könnten selbst die Programmierer nicht mehr nachvollziehen, wie die Maschinen zu ihren Resultaten kämen, so Zweig. Und brandgefährlich werde es, wenn die Software, etwa in autonom fahrenden Autos, Entscheide über Leben oder Tod fällen müsse.
Katharina Zweig, «Die KI war’s!», Heyne, München 2023, 320 Seiten, 30 Franken