Skip to content
Dem liberalen Geist eine Stimme geben - das ist sehpferd

Das Geheimnis künstlicher Dummheit

Ich finde es schrecklich merkwürdig, dass es bereits einige Dutzend sehr positive gehaltene Erläuterungen zur KI gibt - zur künstlichen Intelligenz. Einige sind dankenswerterweise so einfach gehalten, dass sie sogar jemand versteht, der nie ein Programm geschrieben hat. Die Autoren behaupten dabei stets, sie seien aufrichtige Berichterstatter - und erstaunlicherweise glauben sie das selbst.

KI verblüfft - künstliche Dummheit auch

Tatsächlich gibt es mehrere Möglichkeiten, mit KI zu verblüffen: einmal diejenige, das Wesentliche aus einer Fülle von Quellen auszufiltern und die Essenz dann zu präsentieren. Dazu benötigt man in erster Linie eine solide Basis von Kriterien, ausgezeichnete Programme und qualifiziert bestückte Datenbanken. Es gibt noch mehr Anwendungen, natürlich. Aber ich schreibe hier ja kein Buch.

Die andere Möglichkeit besteht darin, mit einem mager ausgestatteten Algorithmus große Datenbanken aller Art zu durchwühlen, um ihnen „Ähnlichkeiten“ festzustellen. Beliebt sind ähnliche Produkte, wie etwa Bücher, Tonträger oder technische Artikel. Irrtümer spielen dabei kaum eine Rolle – irgendwelche Treffer gibt es immer. Ähnlich ist es bei Menschen: Die beste Besetzung die ausgeschriebene Stelle wird mithilfe von Vergleichen ermittelt - hoffen wir mal, dass der Personalchef und seine IT-Berater die richtigen Kriterien fanden. Die geeignetsten Ehe-, Beziehungs- oder Liebespartner werden ebenfalls anhand von Ähnlichkeiten ermittelt - wobei ich mich Frage, woher man die Daten für solche Ähnlichkeiten bezieht. Wer nachfragt, wird abgewiesen: Firmengeheimnisse und ganz viel Psychologie – natürlich. Psychologie macht sich immer gut.

Das Geschäft mit angeblichen Ähnlichkeiten

Wenn du Laie, Kunde, User, Klient oder so etwas bist, wirst du meist nicht einmal argwöhnisch. Obwohl es sehr viel wahrscheinlicher ist, mit künstlicher Verblödung in Kontakt zu kommen als mit künstlicher Intelligenz. Das Geschäft mit den „Ähnlichkeiten “ beruht darauf, dass ziemlich simple Programme, die zudem noch mit fragwürdigen Inhalten ausgestattet sind, in großen Datenbanken wühlen, um die Ergebnisse einzufangen.

Ein paar Cent fallen bei Empfehlungen immer ab

Der „Nutzer“ oder die „Nutzerin“ kann an all das glauben, alles ignorieren oder auch nur einen winzigen Teil beachten - das spielt keine Rolle. Irgendein Gewinn fällt für den Anbieter früher oder später ab. Und gelegentlich sogar für die Nutzerin oder den Nutzer, denn wo „Empfehlungen“ geschickt und halbwegs glaubwürdig platziert werden, schlägt auch der Zufall dann und wann zu.

Oh, ihr seid überrascht?

Dann lass ich euch mal eure Verblüffung.

Ist in der Verpackung "KI" wirklich künstliche Intelligenz drin?

Brandeis Marshall ist eine US-amerikanische Informatikerin von bestem Ruf.

Sie schreibt unter anderem über „künstliche Intelligenz“:

Der Begriff „KI“ wird überbewertet. Ähnlich wie der Begriff „Data Science“ von vor fünf Jahren wird das Wort „KI“ überall von allen verwendet. Es ist zum Oberbegriff für alles geworden, was mit (Daten)-Technik zu tun hat oder mit der Technik in Zusammenhang steht. (…) Die Masseneinführung von „KI“ hat ihre angebliche Fehlerlosigkeit verwässert. Ich weiß nicht „wirklich“, was jemand meint, wenn er heute „KI“ sagt.

KI - Intelligenzbestie oder geistige Widerkäuerin?

Tatsächlich wirken viele Artikel, in denen KI genutzt wurde, wie ziemlich einfältige Abschriften von Fakten und Meinungen, die aus Suchmaschinen zusammengestückelt wurden. Dabei könnte es durchaus sein, dann die KI-gestützte Suchmaschine, die Fragen beantwortet, schneller ist als der Journalist, der sich die Informationen gezielt auswählt.

Was auf diese Weise entstehen wird? Vermutlich ein ständiges Widerkäuen derselben Informationen – aber sehr wahrscheinlich kaum etwas wirklich Innovatives. Oder das, was der „Künstlichen Intelligenz“ ohnehin am nächsten kommt: künstliche Verdummung.

Das Zitat (hier stark gekürzt) findet ihr auf Medium.

Maria spricht zu dir – KI im Tatort

Die digitale Welt kann ausgesprochen verrückt sein. Und mit ihre kann man in der Tat Dinge tun, die sinnvoll, verrückt oder gar gefährlich sind.

Falls ihr zuhause noch über Kupferkabel oder lausige WLAN-Netze verbunden seid, die kaum zwei Stockwerke überwinden, habt ihr sicherlich über den neuen Tatort gestaunt. Da wird ein luxuriöses, von enormer Rechnerkapazität gestütztes Programm einfach mal so geklont – und kann dann per USB-Stick auf ein Notebook kopiert werden. Selbst wenn man bedenkt, dass der Client (das Notebook) die erfassten Daten nur „durchleitet“, und der Server dann die Arbeit tut, ist doch die Frage, wie so etwas funktionieren soll.

Die fragwürdige Definition von Gefühlen

Auch eine der ältesten Fragen an die Computerintelligenz kommt wieder auf: Können Computer eigentlich Gefühle? Nein, können sie nicht. Und doch glaubten viele Menschen noch vor 20 Jahren, dass ein Primitiv-KI-Programm wie „Eliza“ sie „verstehen“ würde. Manche glauben es noch heute. Beim Thema wäre noch nachzulegen: Auch in der menschlichen Kommunikation ist es ausgesprochen schwer, festzustellen, ob man „wirklich verstanden“ wurde. Und wenn es um Gefühle geht, liegt die Chance, vollständig verstanden zu werden, im einstelligen Prozentbereich.(1) Lediglich die Chance, ein nichtssagendes "ich versteh dich sehr gut" zu hören, liegt im oberen zweistelligen Prozentbereich. (2)

Ein riesiger Chatbot mit Datenbank - was sonst?

Weil im Tatort-Krimi „KI“ von einem „Chatbot“ die Rede war und dieser etwas abfällig betrachtet wurde, hier ein Hinweis: Was ist denn ein Programm wie „Maria“ mehr als ein Chatbot? Hinter „Eliza“ standen nur ein paar Dutzend vorgefertigter Sätze. Und hinter modernen KI-Programmen steht eine riesige Datenbank, die ein „Gedächtnis“ hat und sich die Gesichter der Menschen merken kann. Die Software mag sogar in der Lage sein, am Tonfall und am Gesichtsausdruck Stimmungen zu erkennen. Aber selbst dies macht sie nicht „menschlicher“ – im Grunde ist alles so, wie es damals bei Eliza war – nur wesentlich moderner und vielfältiger. Sozusagen ein Luxus-Chatbot für alle Fälle.

Der Krimi selbst? Ohne die „KI“ wäre er eine absolut dürftige Geschichte gewesen, kaum wert, erzählt zu werden.


Hinweise:

(1) Der Wert tendiert gegen null, weil Gefühle weder vollkommen beschreibbar noch (analog) „nachfühlbar“ sind. Sie sind einfach zu kompliziert, um übermittelt zu werden – von „Verstehen“ kann da noch keine Rede sein.
(2) Ein Wert aus der Praxis von Selbsthilfe- und Selbsterfahrungsgruppen. Dabei tendierend die Mitglieder dazu, „Mitgefühl“ zu zeigen oder „gleiche Gefühle“ festzustellen, um einander zu bestärken. Im Alltag ist „ich verstehe dich sehr gut“ eher eine Abschottung, die schnell gesagt wird, um nichts „wirklich“ an sich heranlassen zu müssen.

Kompetenz: Ich war jahrelang IT-Organisator und habe auch menschliche Kommunikation unterrichtet.

Über künstliche Intelligenz und künstliche Idiotie


Wenn wir in Zukunft genügend große Automaten mit Lernfähigkeit bauen, dann können wir dies unter keinen Umständen mehr als Abbild der menschlichen Intelligenz kennzeichnen. Sie könnend dann über die menschliche Intelligenz hinauswachsen, wenn sie direkt mit der Außenwelt kommunizieren …


Karl Steinbuch, „Automat und Mensch“, Berlin 1961

Wir haben sie, die genügend großen Automaten mit und ohne Lernfähigkeit, und sie sind inzwischen so klein, wie es sich Steinbuch nie hätte vorstellen können. Selbst er, der begnadete Wegbereiter der Kybernetik, ging von ganz anderen Größen aus. Künstliche Intelligenz lag noch in weiter Ferne – der PC, der schon als sensationell galt, war noch lange nicht erfunden.

Künstliche Intelligenz und künstliche Idiotie

Und wir sehen zwei Phänomene die weit auseinander laufen: Die geschliffene und präzise Weiterentwicklung von künstlicher Intelligenz, selbst lernend einerseits oder vorprogrammiert andererseits. Und eine neue Form von „künstlicher Intelligenz“, die eigentlich eher „künstliche Idiotie“ genannt werden müsste.

Und während die erste mit messbaren Fakten, eine Unmenge von gespeicherten Daten zum Vergleich und mathematisch präzisen, nachvollziehbaren Messungen arbeitet, versucht es die zweite Gruppe mit einem Schmu aus Dummheit, dem Griff in Psycho-Kisten und äußert vagen Annahmen.

Wenn Blödsinn eingegeben wird, kommt Blödsinn heraus

Denn ein frecher Satz aus der Programmierung gilt für alle und alles: „Shit in – Shit out.“ Heißt noch etwas erweitert: Wenn du Scheiße fütterst und und die Scheiße umrührst, kommt Scheiße heraus – nichts sonst.
Was heißt das?

Der ehrbare Programmentwickler und der Datenmixer

Was wir einfüttern, muss messbar oder anderweitig überprüfbar sein. Je mehr Daten unser System bekommt, um einen Vorgang „beurteilen“ zu können, umso besser können die Ergebnisse sein. Dürftige oder unvollständige Daten werden mit Recht von seriösen Programmen abgewiesen. Der Entwickler entscheidet im Zweifel, welche Datenqualität ausreicht, um den Vorgang mit einem präzisen Ergebnis, manchmal auch mit mehreren möglichen Ergebnissen abzuschließen. Die „künstliche Idiotie“ geht einen anderen Weg: Sie versucht, die fehlenden Daten durch „Erfahrungswerte“ zu ersetzen und täuscht in der Folge Ergebnisse vor, die auf keinen Fall auf den eingegebenen Daten beruhen. Es ist leicht, so ein Programm aufzubauen, beispielsweise für die Astrologie, aber auch für die Beurteilung von Persönlichkeitsmerkmalen. (1)

Algorithmen - nur ein Wort, kein Qualitätsbegriff

Um Entscheidungen treffen zu können, werden die berühmten (und oft missverstandenen) Algorithmen genutzt: Das sind komplizierte in sich verschachtelte Entscheidungsprozesse. Er ist die zweite Schwachstelle bei vielen Programmen mit „Künstlicher Idiotie“. In vielen Fällen (auch wohlmeinenden) kann gar keine Entscheidung gefällt werden, das Grundgerüst dafür fehlt. Dann werden entweder Annahmen oder Zufallsentscheidungen verwendet, um Ergebnisse vorzugaukeln. Am Ende bekommt der Kunde dann ein haarsträubend falsches Ergebnis, das er dennoch für richtig hält.

ELIZA - gut gemeint, und dennoch ohne wirkliche Intelligenz

Selbst eines der ersten (wohlmeinenden) Beispiele künstlicher Intelligenz, die ELIZA, entsprach dem Konzept künstlicher Idiotie: Die eingegebenen Daten wurden gar nicht „wirklich“ verarbeitet, sondern nur durch eine Art „bedingt intelligentes Teesieb“ gestrichen. Wenn man dies Programm einem unbefangenen Menschen zeigte, war er dennoch ausgesprochen überrascht, wie klug „ELIZA“ war.

Simple Konstruktionen als "KI" vermarktet

Die Frage, die den Konsumenten und die werbende Wirtschaft am meisten bewegt, dürfte die sein, wie man Daten ausspäht und auswertet. Dies gilt ebenfalls als „KI“, ist aber letztendlich nur ein Auswuchs derselben „künstlichen Idiotie“, die oftmals mit der „Künstlichen Intelligenz“ verwechselt wird. Dazu gehören Annahmen, wie „Was der Konsument oft anklickt, das kauft er auch.“ „Künstliche Intelligenz“ würde mindestens dies erfordern: „Wenn der Kunde das Produkt „A“ besitzt und das Produkt „B“, dann benötigt er voraussichtlich auch das Produkt „C“.

Außerhalb von präzisen, belegbaren Daten und Fakten muss nahezu alles der „künstlichen Idiotie“ zugerechnet werden – das gilt vor allem für maschinelle Psychotests. Denn die Psychologie verfügt nur selten über eindeutige Fakten, die sie durch eine Fülle von Annahmen ersetzt.

Die suggestive Kraft von "Künstlicher Intelligenz"

Der Trick aller, die damit arbeiten: Sie nutzen die suggestive Kraft, die von „künstlicher Intelligenz“ ausgeht, um darauf ihr Süpplein zu kochen. Was in Wahrheit dahinter steht, ist oft absolut lächerlich. Aber Hauptsache, der Kunde glaubt es.

Mein Rat: Seien sie kritisch und glauben sie den Spielern mit „Künstlicher Idiotie“ kein Wort.

(1) Sie können ohne weiteres für alle Menschen das gleiche Ergebnis ausgeben, unabhängig von dem, was eingegeben wurde. Die Erfolgsquote liegt bei 4,26 Punkten auf einer Skala von 0 bis 5 Punkten.

Dieser Artikel erscheint - im Original oder in Abwandlungen - in mehreren Medien

Künstliche Intelligenz

Habe ich mich nicht mehrfach kritische über künstliche Intelligenz ausgelassen? Sie werden sich wundern: Ich befürworte künstliche Intelligenz. Immer mehr Menschen vertrauen auf ihren Einsatz, und das ist gut und richtig. Nur: Echte künstliche Intelligenz, also eine Intelligenz, die ein Problem auch unter schwierigen Bedingungen bis zum Gelingen lösen kann, ist rar und aufwendig. Die Rechenleistung, die man dafür benötigt, solange es sich nicht nur darum geht, ein Auto einzuparken, ist nach wie vor enorm.

Ich bin sicher, die Technologie der kommenden Jahre wird uns helfen, mehr und verlässlichere künstliche Intelligenz zu produzieren.

Worauf wir aber achten sollten, ist: Lassen wir uns nicht von Marktschreiern verarschen, die jeden Furz, den ihre Programmierer ablassen, als „künstliche Intelligenz“ verkaufen. Was diese Programme können (wenn sie überhaupt funktionieren) ist dies: Sie können simple Verknüpfungen herstellen und dabei feststellen, wo, wann und wie diese gehäuft auftreten.

Und denken wir auch daran, dass in der IT-Branche das Wort gilt: Tu Scheiß rein, dann kommt Scheiß raus. Denn die Vorgaben für die KI kommen von Menschen. Wenn ihr Gehirn Blödsinn verzapft, übernehmen dies die Rechner. Und was noch schlimmer ist: Sie verstärken den Blödsinn. Denn eigentlich ist „KI“ keine „künstliche Intelligenz“, sondern ein Verstärker der vorgegebenen Intelligenz. Oder der Blödheit.