Skip to content

Maria spricht zu dir – KI im Tatort

Die digitale Welt kann ausgesprochen verrückt sein. Und mit ihre kann man in der Tat Dinge tun, die sinnvoll, verrückt oder gar gefährlich sind.

Falls ihr zuhause noch über Kupferkabel oder lausige WLAN-Netze verbunden seid, die kaum zwei Stockwerke überwinden, habt ihr sicherlich über den neuen Tatort gestaunt. Da wird ein luxuriöses, von enormer Rechnerkapazität gestütztes Programm einfach mal so geklont – und kann dann per USB-Stick auf ein Notebook kopiert werden. Selbst wenn man bedenkt, dass der Client (das Notebook) die erfassten Daten nur „durchleitet“, und der Server dann die Arbeit tut, ist doch die Frage, wie so etwas funktionieren soll.

Die fragwürdige Definition von Gefühlen

Auch eine der ältesten Fragen an die Computerintelligenz kommt wieder auf: Können Computer eigentlich Gefühle? Nein, können sie nicht. Und doch glaubten viele Menschen noch vor 20 Jahren, dass ein Primitiv-KI-Programm wie „Eliza“ sie „verstehen“ würde. Manche glauben es noch heute. Beim Thema wäre noch nachzulegen: Auch in der menschlichen Kommunikation ist es ausgesprochen schwer, festzustellen, ob man „wirklich verstanden“ wurde. Und wenn es um Gefühle geht, liegt die Chance, vollständig verstanden zu werden, im einstelligen Prozentbereich.(1) Lediglich die Chance, ein nichtssagendes "ich versteh dich sehr gut" zu hören, liegt im oberen zweistelligen Prozentbereich. (2)

Ein riesiger Chatbot mit Datenbank - was sonst?

Weil im Tatort-Krimi „KI“ von einem „Chatbot“ die Rede war und dieser etwas abfällig betrachtet wurde, hier ein Hinweis: Was ist denn ein Programm wie „Maria“ mehr als ein Chatbot? Hinter „Eliza“ standen nur ein paar Dutzend vorgefertigter Sätze. Und hinter modernen KI-Programmen steht eine riesige Datenbank, die ein „Gedächtnis“ hat und sich die Gesichter der Menschen merken kann. Die Software mag sogar in der Lage sein, am Tonfall und am Gesichtsausdruck Stimmungen zu erkennen. Aber selbst dies macht sie nicht „menschlicher“ – im Grunde ist alles so, wie es damals bei Eliza war – nur wesentlich moderner und vielfältiger. Sozusagen ein Luxus-Chatbot für alle Fälle.

Der Krimi selbst? Ohne die „KI“ wäre er eine absolut dürftige Geschichte gewesen, kaum wert, erzählt zu werden.


Hinweise:

(1) Der Wert tendiert gegen null, weil Gefühle weder vollkommen beschreibbar noch (analog) „nachfühlbar“ sind. Sie sind einfach zu kompliziert, um übermittelt zu werden – von „Verstehen“ kann da noch keine Rede sein.
(2) Ein Wert aus der Praxis von Selbsthilfe- und Selbsterfahrungsgruppen. Dabei tendierend die Mitglieder dazu, „Mitgefühl“ zu zeigen oder „gleiche Gefühle“ festzustellen, um einander zu bestärken. Im Alltag ist „ich verstehe dich sehr gut“ eher eine Abschottung, die schnell gesagt wird, um nichts „wirklich“ an sich heranlassen zu müssen.

Kompetenz: Ich war jahrelang IT-Organisator und habe auch menschliche Kommunikation unterrichtet.

Über künstliche Intelligenz und künstliche Idiotie


Wenn wir in Zukunft genügend große Automaten mit Lernfähigkeit bauen, dann können wir dies unter keinen Umständen mehr als Abbild der menschlichen Intelligenz kennzeichnen. Sie könnend dann über die menschliche Intelligenz hinauswachsen, wenn sie direkt mit der Außenwelt kommunizieren …


Karl Steinbuch, „Automat und Mensch“, Berlin 1961

Wir haben sie, die genügend großen Automaten mit und ohne Lernfähigkeit, und sie sind inzwischen so klein, wie es sich Steinbuch nie hätte vorstellen können. Selbst er, der begnadete Wegbereiter der Kybernetik, ging von ganz anderen Größen aus. Künstliche Intelligenz lag noch in weiter Ferne – der PC, der schon als sensationell galt, war noch lange nicht erfunden.

Künstliche Intelligenz und künstliche Idiotie

Und wir sehen zwei Phänomene die weit auseinander laufen: Die geschliffene und präzise Weiterentwicklung von künstlicher Intelligenz, selbst lernend einerseits oder vorprogrammiert andererseits. Und eine neue Form von „künstlicher Intelligenz“, die eigentlich eher „künstliche Idiotie“ genannt werden müsste.

Und während die erste mit messbaren Fakten, eine Unmenge von gespeicherten Daten zum Vergleich und mathematisch präzisen, nachvollziehbaren Messungen arbeitet, versucht es die zweite Gruppe mit einem Schmu aus Dummheit, dem Griff in Psycho-Kisten und äußert vagen Annahmen.

Wenn Blödsinn eingegeben wird, kommt Blödsinn heraus

Denn ein frecher Satz aus der Programmierung gilt für alle und alles: „Shit in – Shit out.“ Heißt noch etwas erweitert: Wenn du Scheiße fütterst und und die Scheiße umrührst, kommt Scheiße heraus – nichts sonst.
Was heißt das?

Der ehrbare Programmentwickler und der Datenmixer

Was wir einfüttern, muss messbar oder anderweitig überprüfbar sein. Je mehr Daten unser System bekommt, um einen Vorgang „beurteilen“ zu können, umso besser können die Ergebnisse sein. Dürftige oder unvollständige Daten werden mit Recht von seriösen Programmen abgewiesen. Der Entwickler entscheidet im Zweifel, welche Datenqualität ausreicht, um den Vorgang mit einem präzisen Ergebnis, manchmal auch mit mehreren möglichen Ergebnissen abzuschließen. Die „künstliche Idiotie“ geht einen anderen Weg: Sie versucht, die fehlenden Daten durch „Erfahrungswerte“ zu ersetzen und täuscht in der Folge Ergebnisse vor, die auf keinen Fall auf den eingegebenen Daten beruhen. Es ist leicht, so ein Programm aufzubauen, beispielsweise für die Astrologie, aber auch für die Beurteilung von Persönlichkeitsmerkmalen. (1)

Algorithmen - nur ein Wort, kein Qualitätsbegriff

Um Entscheidungen treffen zu können, werden die berühmten (und oft missverstandenen) Algorithmen genutzt: Das sind komplizierte in sich verschachtelte Entscheidungsprozesse. Er ist die zweite Schwachstelle bei vielen Programmen mit „Künstlicher Idiotie“. In vielen Fällen (auch wohlmeinenden) kann gar keine Entscheidung gefällt werden, das Grundgerüst dafür fehlt. Dann werden entweder Annahmen oder Zufallsentscheidungen verwendet, um Ergebnisse vorzugaukeln. Am Ende bekommt der Kunde dann ein haarsträubend falsches Ergebnis, das er dennoch für richtig hält.

ELIZA - gut gemeint, und dennoch ohne wirkliche Intelligenz

Selbst eines der ersten (wohlmeinenden) Beispiele künstlicher Intelligenz, die ELIZA, entsprach dem Konzept künstlicher Idiotie: Die eingegebenen Daten wurden gar nicht „wirklich“ verarbeitet, sondern nur durch eine Art „bedingt intelligentes Teesieb“ gestrichen. Wenn man dies Programm einem unbefangenen Menschen zeigte, war er dennoch ausgesprochen überrascht, wie klug „ELIZA“ war.

Simple Konstruktionen als "KI" vermarktet

Die Frage, die den Konsumenten und die werbende Wirtschaft am meisten bewegt, dürfte die sein, wie man Daten ausspäht und auswertet. Dies gilt ebenfalls als „KI“, ist aber letztendlich nur ein Auswuchs derselben „künstlichen Idiotie“, die oftmals mit der „Künstlichen Intelligenz“ verwechselt wird. Dazu gehören Annahmen, wie „Was der Konsument oft anklickt, das kauft er auch.“ „Künstliche Intelligenz“ würde mindestens dies erfordern: „Wenn der Kunde das Produkt „A“ besitzt und das Produkt „B“, dann benötigt er voraussichtlich auch das Produkt „C“.

Außerhalb von präzisen, belegbaren Daten und Fakten muss nahezu alles der „künstlichen Idiotie“ zugerechnet werden – das gilt vor allem für maschinelle Psychotests. Denn die Psychologie verfügt nur selten über eindeutige Fakten, die sie durch eine Fülle von Annahmen ersetzt.

Die suggestive Kraft von "Künstlicher Intelligenz"

Der Trick aller, die damit arbeiten: Sie nutzen die suggestive Kraft, die von „künstlicher Intelligenz“ ausgeht, um darauf ihr Süpplein zu kochen. Was in Wahrheit dahinter steht, ist oft absolut lächerlich. Aber Hauptsache, der Kunde glaubt es.

Mein Rat: Seien sie kritisch und glauben sie den Spielern mit „Künstlicher Idiotie“ kein Wort.

(1) Sie können ohne weiteres für alle Menschen das gleiche Ergebnis ausgeben, unabhängig von dem, was eingegeben wurde. Die Erfolgsquote liegt bei 4,26 Punkten auf einer Skala von 0 bis 5 Punkten.

Dieser Artikel erscheint - im Original oder in Abwandlungen - in mehreren Medien

Künstliche Intelligenz

Habe ich mich nicht mehrfach kritische über künstliche Intelligenz ausgelassen? Sie werden sich wundern: Ich befürworte künstliche Intelligenz. Immer mehr Menschen vertrauen auf ihren Einsatz, und das ist gut und richtig. Nur: Echte künstliche Intelligenz, also eine Intelligenz, die ein Problem auch unter schwierigen Bedingungen bis zum Gelingen lösen kann, ist rar und aufwendig. Die Rechenleistung, die man dafür benötigt, solange es sich nicht nur darum geht, ein Auto einzuparken, ist nach wie vor enorm.

Ich bin sicher, die Technologie der kommenden Jahre wird uns helfen, mehr und verlässlichere künstliche Intelligenz zu produzieren.

Worauf wir aber achten sollten, ist: Lassen wir uns nicht von Marktschreiern verarschen, die jeden Furz, den ihre Programmierer ablassen, als „künstliche Intelligenz“ verkaufen. Was diese Programme können (wenn sie überhaupt funktionieren) ist dies: Sie können simple Verknüpfungen herstellen und dabei feststellen, wo, wann und wie diese gehäuft auftreten.

Und denken wir auch daran, dass in der IT-Branche das Wort gilt: Tu Scheiß rein, dann kommt Scheiß raus. Denn die Vorgaben für die KI kommen von Menschen. Wenn ihr Gehirn Blödsinn verzapft, übernehmen dies die Rechner. Und was noch schlimmer ist: Sie verstärken den Blödsinn. Denn eigentlich ist „KI“ keine „künstliche Intelligenz“, sondern ein Verstärker der vorgegebenen Intelligenz. Oder der Blödheit.