Skip to content
Dem liberalen Geist eine Stimme geben - das ist sehpferd

Die Halluzinationen des Computers

Wenn Menschen etwas nicht genau wissen und auch nicht über die nötigen Quellen verfügen, um es nachzusehen, dann behaupten sie einfach irgendetwas.

Auch intelligente Menschen nutzen Behauptungen

Das tun sogar intelligente Menschen. Haben sie mal etwas von Sigmund Freud, Carl Gustav Jung oder Wilhelm Reich gelesen, dann nehmen sie oft an, dass es sich dabei um allzeit gültige, wissenschaftlich fundierte Tatsachen handelt. Allein der Gedanke, dass es kühne Erfindungen sein könnten, wird selten geäußert.

KI behauptet und halluziniert

Was aber tun künstliche Intelligenzen, wenn sie eine Frage nicht eindeutig beantworten können und dies auch nicht „zugeben“ dürfen?

Sie erfinden Unsinn, mit einem neuen Begriff (jedenfalls für die KI), sie „halluzinieren“.

Der wahrscheinlichste Grund dafür: Die Antworten der KI beruhen auf Wahrscheinlichkeiten, und diese Wahrscheinlichkeiten werden unterschiedlichen, als „verlässlich“ bezeichneten Quellen entnommen. Wie die meisten Menschen auch, greift die KI also auf „Wahrscheinlichkeiten“ zurück, wenn keine Fakten zur Verfügung stehen. Und genau da fängt das Problem an: Der Wahrheitsgehalt schwindet, und das Ergebnis wird fragwürdig.

Ein ausgewiesener Fachmann sagt dazu:

(KI) ist darauf trainiert, das nächstwahrscheinliche Wort zu generieren, sodass der Text kohärent klingt.

Kohärent sein heißt: „In einem vernünftigen Zusammenhang stehend“. Doch die höchstwahrscheinliche Verbindung kann richtig, falsch oder absolut unsinnig sein.

Wann KI unzuverlässig wird

Dies wirft wieder ein Licht darauf, was KI wirklich tut: Sie arbeitet mit zahllosen Annahmen und Wahrscheinlichkeiten aus unterschiedlichen Wissensgebieten, in denen die Frage behandelt wird. Zudem seht sie in Verdacht, Mainstream-Meinungen zu bevorzugen, weil diese in Datenbanken häufiger vorkommen als abweichende Meinungen.

KI, Suchmaschinen, Formulierungen und bekannte IT-Gesetze

Übrigens finden wir daran eine weitere Parallele zu einem lebendigen Menschen, der hofft, die Antworten in konventionellen Suchmaschinen zu finden. Was ihm zuerst angeboten wird, sind die am häufigsten vertretenen Ansichten, die nicht selten als Fakten ausgegeben werden.

Ich erinnre mich an eines der ersten Gebote meiner eigenen IT-Karriere. „Wenn du etwas unklar oder ungenügend formulierst, kann der Programmierer es nicht vernünftig umsetzen“, oder drastischer: „Wenn du Mist vorgibst, kommt auch Mist heraus.“

Soweit heute zur KI, die uns einerseits so viel Nutzen bringt, während sie und andererseits verdummt – oder besser: uns zu einseitigem Denken verleitet.

Zitat: ERGO

Trackbacks

No Trackbacks

Comments

Display comments as Linear | Threaded

No comments

Add Comment

Enclosing asterisks marks text as bold (*word*), underscore are made via _word_.
Standard emoticons like :-) and ;-) are converted to images.

To prevent automated Bots from commentspamming, please enter the string you see in the image below in the appropriate input box. Your comment will only be submitted if the strings match. Please ensure that your browser supports and accepts cookies, or your comment cannot be verified correctly.
CAPTCHA

Form options