Halluzination (KI)
Im Kontext von KI tritt eine Halluzination auf, wenn ein System wie ChatGPT eine Antwort generiert, die überzeugt klingt, aber tatsächlich falsch oder erfunden ist. Zum Beispiel könnte es Ihnen eine detaillierte Erklärung über eine wissenschaftliche Studie geben, die nicht existiert, oder eine gefälschte historische Tatsache erfinden. Diese Fehler sind nicht beabsichtigt. Die KI versucht nicht zu lügen, aber die Ergebnisse können irreführend sein, wenn Sie sich dessen nicht bewusst sind.
Halluzinationen treten auf, weil Sprachmodelle Fakten nicht wirklich kennen. Sie generieren Antworten basierend auf Mustern in den Daten, auf denen sie trainiert wurden. Wenn die Trainingsdaten unklar oder unvollständig waren oder wenn das Modell in einer Situation raten muss, die es noch nicht gesehen hat, kann es eine falsche Antwort produzieren, die dennoch sehr überzeugend klingt. Deshalb ist es wichtig, kritische Informationen aus KI-Tools doppelt zu überprüfen.