KI-Halluzinationen: Wenn der Computer träumt

0 votes
asked 1 day ago in Electron Microscopy by chatdeutschmath (200 points)

Der selbstbewusste Lügner

Sie fragen die KI nach einer Biografie eines unbekannten Politikers. Die KI liefert sofort einen Text: "Geboren 1975 in Berlin, studierte Jura, arbeitete bei Siemens..." Das klingt perfekt. Das Problem: Nichts davon stimmt. Die Person wurde 1980 geboren und ist Bäcker. Das Erschreckende daran ist nicht der Fehler selbst, sondern die Selbstsicherheit, mit der er präsentiert wird. Die KI sagt nicht: "Ich bin mir unsicher." Sie behauptet den Unsinn als absoluten Fakt. Dieses Phänomen nennt man "Halluzinieren".

Keine Datenbank, sondern ein Dichter

Um das zu verstehen, muss man begreifen, was ChatGPT Deutsch eigentlich ist. Viele Nutzer denken, es sei eine Suchmaschine (wie Google), die in einer Datenbank nachschaut. Das ist falsch. Ein Sprachmodell (LLM) ist eher wie die "Autokorrektur" auf Ihrem Handy – nur viel schlauer. Es hat keine Fakten gespeichert. Es hat Wahrscheinlichkeiten gespeichert, welche Wörter oft nacheinander kommen.

  • Wenn es den Satz beginnt: "Die Hauptstadt von Frankreich ist...", ist das Wort "Paris" zu 99,9% die wahrscheinlichste Fortsetzung. Hier hat die KI "Recht".

  • Fragt man aber nach Nischenthemen, rät die KI einfach das Wort, das klanglich oder grammatisch am besten passt, auch wenn es inhaltlich falsch ist. Sie "würfelt" den Satz zusammen.

Der Fall des Anwalts

Berühmt wurde der Fall eines US-Anwalts, der ChatGPT benutzte, um einen Schriftsatz für das Gericht zu verfassen. Die KI zitierte mehrere Urteile ("Varghese gegen China Southern Airlines"). Der Anwalt reichte das ein. Vor Gericht kam heraus: Die Urteile existierten nicht. Die KI hatte sie komplett erfunden – inklusive Aktenzeichen und plausibel klingenden Begründungen. Sie hatte gelernt, wie ein Urteil aussieht, aber nicht, welche Urteile echt sind.

Wahrheit vs. Wahrscheinlichkeit

Halluzinationen sind schwer zu beheben, weil sie kein Bug sind, sondern ein Feature. Dieselbe Kreativität, die der KI erlaubt, Gedichte zu schreiben oder Witze zu erfinden, führt dazu, dass sie Fakten erfindet. Moderne Systeme versuchen dies durch RAG (Retrieval Augmented Generation) zu mindern: Die KI darf erst im Internet suchen und muss dann die gefundenen Quellen nutzen, statt nur aus dem Gedächtnis zu raten. Vertrauen Sie dennoch niemals einer KI ohne Faktencheck.


Kontakt Name: Adelard Armino - ChatGPTDeutsch.Info Adelard Armino - ChatGPT Deutsch Telefon: +49 15227788154 E-Mail: [email protected] Adresse: Limmerstraße 13, 30451 Hannover, Deutschland

Tags #adelardarmino #chatgptdeutsch #chatgptdeutschinfo #technologieexperte #experteki #chatgptexperte #ingenieurdertechnologie

Please log in or register to answer this question.

Welcome to Bioimagingcore Q&A, where you can ask questions and receive answers from other members of the community.
...