Die KI kann nicht alles! Generell muss man sich bewusst machen, dass diese großen Sprachmodelle uns so schnell nicht ablösen werden. Sie sind einfach formuliert, komplexe Wahrscheinlichkeitsrechnungen. Man fand man einen Weg mit extrem viel Rechenleistung, „Wörter“ und ihre Beziehungen zueinander zu quantifizieren und somit die Wahrscheinlichkeiten ihrer Anordnung zu hervorzusagen. Was die Mathematik angeht, sind diese Sprachmodelle unzuverlässiger als jeder Taschenrechner. 2+2 ist bei ChatGPT und Co. nicht immer 4.
In den vergangenen Monaten wurde ein interessantes Papier zu weiteren Limitationen von großen Sprachmodellen veröffentlicht. Dabei ging es darum, dass große Sprachmodelle den Umkehrschluss nicht sicher beherrschen. Das bedeutet, wenn das Sprachmodell darauf trainiert wurde, dass A = B ist. Heißt das nicht, dass es weiß, dass B = A ist. Ein für einen Menschen recht einfaches Problem.
Die Fehlerrate ist in den Tests der Wissenschaftler hinter diesem Artikel noch recht hoch. Konkret bedeutet das: Wenn das Modell gelernt hat, „Olaf Scholz ist der neunte Bundeskanzler“, ist es keineswegs sicher, dass auf die Frage „Wer war der neunte Bundeskanzler?“ „Olaf Scholz“ antwortet. Diese Ungenauigkeit ist aber ein lösbares Problem.