Was Sie sich bewusst machen müssen, ist, dass hinter den textgenerierenden Tools, die in dieser Serie vorgestellt werden, verschiedene große Sprachmodelle stecken. Diese Large Language Models (LLM) werden mit riesigen Mengen von Daten gefüttert auf deren Grundlage sie dann ihre Antworten generieren. Diese Daten und das spätere „Finetuning“ (Ein Trainingsprozess, in dem stark vereinfacht gesagt, das LLM sein „Verhalten“ antrainiert bekommt) bestimmen die Antworten, die das LLM generiert maßgeblich.
So ist es wichtig zu wissen, wer das LLM, welches Sie gerade in einem Tool benutzen, hergestellt hat. Denn je nach Herkunftsland oder politischer Gesinnung der Daten generieren diese LLMs unterschiedliche Antworten. Wenn Sie z.B. ein chinesisches LLM, wie DeepSeek zur Unabhängigkeit von Taiwan befragen, antwortet es, dass Taiwan kein eigenständiger Staat und Teil Chinas ist. Auch historische Fragen um die DDR sind klar von chinesischer Staatspropaganda gefärbt. Stellen Sie diese Fragen einem LLM von OpenAI, bekommen Sie eine andere Antwort.
Dieses kleine Beispiel macht klar, dass diese LLMs aufgrund ihrer Datengrundlage und ihres Trainings sofort politisch sind. Das mag für viele Fragen nicht relevant sein, aber die Färbung schwimmt immer mit. Informieren Sie sich also über die Herkunft der LLMs.