Skip to content
Dem liberalen Geist eine Stimme geben - das ist sehpferd

Über künstliche Intelligenz und künstliche Idiotie


Wenn wir in Zukunft genügend große Automaten mit Lernfähigkeit bauen, dann können wir dies unter keinen Umständen mehr als Abbild der menschlichen Intelligenz kennzeichnen. Sie könnend dann über die menschliche Intelligenz hinauswachsen, wenn sie direkt mit der Außenwelt kommunizieren …


Karl Steinbuch, „Automat und Mensch“, Berlin 1961

Wir haben sie, die genügend großen Automaten mit und ohne Lernfähigkeit, und sie sind inzwischen so klein, wie es sich Steinbuch nie hätte vorstellen können. Selbst er, der begnadete Wegbereiter der Kybernetik, ging von ganz anderen Größen aus. Künstliche Intelligenz lag noch in weiter Ferne – der PC, der schon als sensationell galt, war noch lange nicht erfunden.

Künstliche Intelligenz und künstliche Idiotie

Und wir sehen zwei Phänomene die weit auseinander laufen: Die geschliffene und präzise Weiterentwicklung von künstlicher Intelligenz, selbst lernend einerseits oder vorprogrammiert andererseits. Und eine neue Form von „künstlicher Intelligenz“, die eigentlich eher „künstliche Idiotie“ genannt werden müsste.

Und während die erste mit messbaren Fakten, eine Unmenge von gespeicherten Daten zum Vergleich und mathematisch präzisen, nachvollziehbaren Messungen arbeitet, versucht es die zweite Gruppe mit einem Schmu aus Dummheit, dem Griff in Psycho-Kisten und äußert vagen Annahmen.

Wenn Blödsinn eingegeben wird, kommt Blödsinn heraus

Denn ein frecher Satz aus der Programmierung gilt für alle und alles: „Shit in – Shit out.“ Heißt noch etwas erweitert: Wenn du Scheiße fütterst und und die Scheiße umrührst, kommt Scheiße heraus – nichts sonst.
Was heißt das?

Der ehrbare Programmentwickler und der Datenmixer

Was wir einfüttern, muss messbar oder anderweitig überprüfbar sein. Je mehr Daten unser System bekommt, um einen Vorgang „beurteilen“ zu können, umso besser können die Ergebnisse sein. Dürftige oder unvollständige Daten werden mit Recht von seriösen Programmen abgewiesen. Der Entwickler entscheidet im Zweifel, welche Datenqualität ausreicht, um den Vorgang mit einem präzisen Ergebnis, manchmal auch mit mehreren möglichen Ergebnissen abzuschließen. Die „künstliche Idiotie“ geht einen anderen Weg: Sie versucht, die fehlenden Daten durch „Erfahrungswerte“ zu ersetzen und täuscht in der Folge Ergebnisse vor, die auf keinen Fall auf den eingegebenen Daten beruhen. Es ist leicht, so ein Programm aufzubauen, beispielsweise für die Astrologie, aber auch für die Beurteilung von Persönlichkeitsmerkmalen. (1)

Algorithmen - nur ein Wort, kein Qualitätsbegriff

Um Entscheidungen treffen zu können, werden die berühmten (und oft missverstandenen) Algorithmen genutzt: Das sind komplizierte in sich verschachtelte Entscheidungsprozesse. Er ist die zweite Schwachstelle bei vielen Programmen mit „Künstlicher Idiotie“. In vielen Fällen (auch wohlmeinenden) kann gar keine Entscheidung gefällt werden, das Grundgerüst dafür fehlt. Dann werden entweder Annahmen oder Zufallsentscheidungen verwendet, um Ergebnisse vorzugaukeln. Am Ende bekommt der Kunde dann ein haarsträubend falsches Ergebnis, das er dennoch für richtig hält.

ELIZA - gut gemeint, und dennoch ohne wirkliche Intelligenz

Selbst eines der ersten (wohlmeinenden) Beispiele künstlicher Intelligenz, die ELIZA, entsprach dem Konzept künstlicher Idiotie: Die eingegebenen Daten wurden gar nicht „wirklich“ verarbeitet, sondern nur durch eine Art „bedingt intelligentes Teesieb“ gestrichen. Wenn man dies Programm einem unbefangenen Menschen zeigte, war er dennoch ausgesprochen überrascht, wie klug „ELIZA“ war.

Simple Konstruktionen als "KI" vermarktet

Die Frage, die den Konsumenten und die werbende Wirtschaft am meisten bewegt, dürfte die sein, wie man Daten ausspäht und auswertet. Dies gilt ebenfalls als „KI“, ist aber letztendlich nur ein Auswuchs derselben „künstlichen Idiotie“, die oftmals mit der „Künstlichen Intelligenz“ verwechselt wird. Dazu gehören Annahmen, wie „Was der Konsument oft anklickt, das kauft er auch.“ „Künstliche Intelligenz“ würde mindestens dies erfordern: „Wenn der Kunde das Produkt „A“ besitzt und das Produkt „B“, dann benötigt er voraussichtlich auch das Produkt „C“.

Außerhalb von präzisen, belegbaren Daten und Fakten muss nahezu alles der „künstlichen Idiotie“ zugerechnet werden – das gilt vor allem für maschinelle Psychotests. Denn die Psychologie verfügt nur selten über eindeutige Fakten, die sie durch eine Fülle von Annahmen ersetzt.

Die suggestive Kraft von "Künstlicher Intelligenz"

Der Trick aller, die damit arbeiten: Sie nutzen die suggestive Kraft, die von „künstlicher Intelligenz“ ausgeht, um darauf ihr Süpplein zu kochen. Was in Wahrheit dahinter steht, ist oft absolut lächerlich. Aber Hauptsache, der Kunde glaubt es.

Mein Rat: Seien sie kritisch und glauben sie den Spielern mit „Künstlicher Idiotie“ kein Wort.

(1) Sie können ohne weiteres für alle Menschen das gleiche Ergebnis ausgeben, unabhängig von dem, was eingegeben wurde. Die Erfolgsquote liegt bei 4,26 Punkten auf einer Skala von 0 bis 5 Punkten.

Dieser Artikel erscheint - im Original oder in Abwandlungen - in mehreren Medien