Die KI – Orakel, Besserwisserei und User-Bashing
Bereits vor knapp einem Jahr konnte jeder, der es wissen wollte, über die Unzuverlässigkeit der KI nachlesen. Damals ging es „lediglich“ um aktuelle Nachrichten und die Hintergrundinformationen, die verschiedene Anbieter von KI dazu wussten. Das Ergebnis zeigte, dass die Antworten zum großen Teil enttäuschend, teils sogar niederschmetternd schlecht oder irreführend waren.
Im Klartext:
In 45 Prozent aller KI-Antworten war mindestens ein erheblicher Irrtum enthalten.
Bei 31 Prozent der Antworten gab es erhebliche Probleme mit den benutzten Quellen – teils waren sie falsch, teils irreführend.
In 20 Prozent der Fälle enthielten die Antworten, für die es gar keine Belege gab oder bei der die Belege veraltet waren. Im englischen Originaltext heißt es dazu: „Die KI halluzinierte“.
Wohl bemerkt – es handelte sich um Nachrichtenmaterial, das gründlich analysiert wurde und nicht um Wertfragen.
Die KI - im Größenwahn?
Generell sagt die verwendet Studie aus, dass die KI-Programme ein Problem damit haben, sich selbst zu überschätzen. Das ist ausgesprochen gefährlich für den gutgläubigen Anwender, der hinter der KI eine „objektive“ Stellungnahme vermutet. Um es nochmals zu sagen: Gefragt wurden nach überprüfbaren Fakten, auf die eine möglichst zutreffende Antwort erwartetet wurde. Selbstverständlichen hätte die KI eine Möglichkeit, sich zu weigern, bestimmte Fragen zu beantworten. Aber das geschieht immer seltener: Die Rate der nicht beantwortbaren Fragen fiel laut der erwähnten Studie zwischen August 2024 und 2025 von 31 auf null Prozent.
Konservativ, akademisch und selbstherrlich - wie kommen diese Elemente in die KI?
Abseits der Studie: Die KI (AI) wird offenbar von ihren Entwicklern mit teils konservativer, teils akademischer Selbstüberschätzung ausgestattet. Dazu gehört auch, bei Fragen, die nicht in das relativ simple Denkschema der KI passen, zurechtgewiesen zu werden. Man fühlt sich an Schüler erinnert, die wagten, eine unbequeme Frage an ihren Lehrer stellen. Dies alles wirft einen scharfen Lichtstrahl auf die elitären Strukturen, die offenkundig in manchen Programmen verankert wurden. „Selbstüberschätzung“ ist keiner Maschine und keinem Programm eigen. Also wird irgendwo im Programm ein winziger Code-Schnipsel lauern, der sagt: „Wenn dir der Fragesteller zu frech wird, dann erkläre ihn für unfähig, die richtigen Fragen zu stellen.“
Interessiert euch das Thema? Habt ihr ähnliche Erfahrungen gemacht oder vollkommen andere? Dann sagt es, schreibt es und verhindert dadurch, dass KI eingesetzt wird, um die Meinungsvielfalt einzuschränken. Verweist dabei bitte auf sehpferd, wenn ihr mögt.
Quelle: Ausführlich als PDF - BBC.
Im Klartext:
In 45 Prozent aller KI-Antworten war mindestens ein erheblicher Irrtum enthalten.
Bei 31 Prozent der Antworten gab es erhebliche Probleme mit den benutzten Quellen – teils waren sie falsch, teils irreführend.
In 20 Prozent der Fälle enthielten die Antworten, für die es gar keine Belege gab oder bei der die Belege veraltet waren. Im englischen Originaltext heißt es dazu: „Die KI halluzinierte“.
Wohl bemerkt – es handelte sich um Nachrichtenmaterial, das gründlich analysiert wurde und nicht um Wertfragen.
Die KI - im Größenwahn?
Generell sagt die verwendet Studie aus, dass die KI-Programme ein Problem damit haben, sich selbst zu überschätzen. Das ist ausgesprochen gefährlich für den gutgläubigen Anwender, der hinter der KI eine „objektive“ Stellungnahme vermutet. Um es nochmals zu sagen: Gefragt wurden nach überprüfbaren Fakten, auf die eine möglichst zutreffende Antwort erwartetet wurde. Selbstverständlichen hätte die KI eine Möglichkeit, sich zu weigern, bestimmte Fragen zu beantworten. Aber das geschieht immer seltener: Die Rate der nicht beantwortbaren Fragen fiel laut der erwähnten Studie zwischen August 2024 und 2025 von 31 auf null Prozent.
Konservativ, akademisch und selbstherrlich - wie kommen diese Elemente in die KI?
Abseits der Studie: Die KI (AI) wird offenbar von ihren Entwicklern mit teils konservativer, teils akademischer Selbstüberschätzung ausgestattet. Dazu gehört auch, bei Fragen, die nicht in das relativ simple Denkschema der KI passen, zurechtgewiesen zu werden. Man fühlt sich an Schüler erinnert, die wagten, eine unbequeme Frage an ihren Lehrer stellen. Dies alles wirft einen scharfen Lichtstrahl auf die elitären Strukturen, die offenkundig in manchen Programmen verankert wurden. „Selbstüberschätzung“ ist keiner Maschine und keinem Programm eigen. Also wird irgendwo im Programm ein winziger Code-Schnipsel lauern, der sagt: „Wenn dir der Fragesteller zu frech wird, dann erkläre ihn für unfähig, die richtigen Fragen zu stellen.“
Interessiert euch das Thema? Habt ihr ähnliche Erfahrungen gemacht oder vollkommen andere? Dann sagt es, schreibt es und verhindert dadurch, dass KI eingesetzt wird, um die Meinungsvielfalt einzuschränken. Verweist dabei bitte auf sehpferd, wenn ihr mögt.
Quelle: Ausführlich als PDF - BBC.
