Die Halluzinationen des Computers
Wenn Menschen etwas nicht genau wissen und auch nicht über die nötigen Quellen verfügen, um es nachzusehen, dann behaupten sie einfach irgendetwas.
Auch intelligente Menschen nutzen Behauptungen
Das tun sogar intelligente Menschen. Haben sie mal etwas von Sigmund Freud, Carl Gustav Jung oder Wilhelm Reich gelesen, dann nehmen sie oft an, dass es sich dabei um allzeit gültige, wissenschaftlich fundierte Tatsachen handelt. Allein der Gedanke, dass es kühne Erfindungen sein könnten, wird selten geäußert.
KI behauptet und halluziniert
Was aber tun künstliche Intelligenzen, wenn sie eine Frage nicht eindeutig beantworten können und dies auch nicht „zugeben“ dürfen?
Sie erfinden Unsinn, mit einem neuen Begriff (jedenfalls für die KI), sie „halluzinieren“.
Der wahrscheinlichste Grund dafür: Die Antworten der KI beruhen auf Wahrscheinlichkeiten, und diese Wahrscheinlichkeiten werden unterschiedlichen, als „verlässlich“ bezeichneten Quellen entnommen. Wie die meisten Menschen auch, greift die KI also auf „Wahrscheinlichkeiten“ zurück, wenn keine Fakten zur Verfügung stehen. Und genau da fängt das Problem an: Der Wahrheitsgehalt schwindet, und das Ergebnis wird fragwürdig.
Ein ausgewiesener Fachmann sagt dazu:
Kohärent sein heißt: „In einem vernünftigen Zusammenhang stehend“. Doch die höchstwahrscheinliche Verbindung kann richtig, falsch oder absolut unsinnig sein.
Wann KI unzuverlässig wird
Dies wirft wieder ein Licht darauf, was KI wirklich tut: Sie arbeitet mit zahllosen Annahmen und Wahrscheinlichkeiten aus unterschiedlichen Wissensgebieten, in denen die Frage behandelt wird. Zudem seht sie in Verdacht, Mainstream-Meinungen zu bevorzugen, weil diese in Datenbanken häufiger vorkommen als abweichende Meinungen.
KI, Suchmaschinen, Formulierungen und bekannte IT-Gesetze
Übrigens finden wir daran eine weitere Parallele zu einem lebendigen Menschen, der hofft, die Antworten in konventionellen Suchmaschinen zu finden. Was ihm zuerst angeboten wird, sind die am häufigsten vertretenen Ansichten, die nicht selten als Fakten ausgegeben werden.
Ich erinnre mich an eines der ersten Gebote meiner eigenen IT-Karriere. „Wenn du etwas unklar oder ungenügend formulierst, kann der Programmierer es nicht vernünftig umsetzen“, oder drastischer: „Wenn du Mist vorgibst, kommt auch Mist heraus.“
Soweit heute zur KI, die uns einerseits so viel Nutzen bringt, während sie und andererseits verdummt – oder besser: uns zu einseitigem Denken verleitet.
Zitat: ERGO
Auch intelligente Menschen nutzen Behauptungen
Das tun sogar intelligente Menschen. Haben sie mal etwas von Sigmund Freud, Carl Gustav Jung oder Wilhelm Reich gelesen, dann nehmen sie oft an, dass es sich dabei um allzeit gültige, wissenschaftlich fundierte Tatsachen handelt. Allein der Gedanke, dass es kühne Erfindungen sein könnten, wird selten geäußert.
KI behauptet und halluziniert
Was aber tun künstliche Intelligenzen, wenn sie eine Frage nicht eindeutig beantworten können und dies auch nicht „zugeben“ dürfen?
Sie erfinden Unsinn, mit einem neuen Begriff (jedenfalls für die KI), sie „halluzinieren“.
Der wahrscheinlichste Grund dafür: Die Antworten der KI beruhen auf Wahrscheinlichkeiten, und diese Wahrscheinlichkeiten werden unterschiedlichen, als „verlässlich“ bezeichneten Quellen entnommen. Wie die meisten Menschen auch, greift die KI also auf „Wahrscheinlichkeiten“ zurück, wenn keine Fakten zur Verfügung stehen. Und genau da fängt das Problem an: Der Wahrheitsgehalt schwindet, und das Ergebnis wird fragwürdig.
Ein ausgewiesener Fachmann sagt dazu:
(KI) ist darauf trainiert, das nächstwahrscheinliche Wort zu generieren, sodass der Text kohärent klingt.
Kohärent sein heißt: „In einem vernünftigen Zusammenhang stehend“. Doch die höchstwahrscheinliche Verbindung kann richtig, falsch oder absolut unsinnig sein.
Wann KI unzuverlässig wird
Dies wirft wieder ein Licht darauf, was KI wirklich tut: Sie arbeitet mit zahllosen Annahmen und Wahrscheinlichkeiten aus unterschiedlichen Wissensgebieten, in denen die Frage behandelt wird. Zudem seht sie in Verdacht, Mainstream-Meinungen zu bevorzugen, weil diese in Datenbanken häufiger vorkommen als abweichende Meinungen.
KI, Suchmaschinen, Formulierungen und bekannte IT-Gesetze
Übrigens finden wir daran eine weitere Parallele zu einem lebendigen Menschen, der hofft, die Antworten in konventionellen Suchmaschinen zu finden. Was ihm zuerst angeboten wird, sind die am häufigsten vertretenen Ansichten, die nicht selten als Fakten ausgegeben werden.
Ich erinnre mich an eines der ersten Gebote meiner eigenen IT-Karriere. „Wenn du etwas unklar oder ungenügend formulierst, kann der Programmierer es nicht vernünftig umsetzen“, oder drastischer: „Wenn du Mist vorgibst, kommt auch Mist heraus.“
Soweit heute zur KI, die uns einerseits so viel Nutzen bringt, während sie und andererseits verdummt – oder besser: uns zu einseitigem Denken verleitet.
Zitat: ERGO
Comments
Display comments as Linear | Threaded