Skip to content

Unsinn über die Liebe von IT-Fuzzis

Die die Liebe als Spiel der Datenjongleure?
Ich lese gerade einen Artikel eines Menschen, der sich - offnebar beruflich - mit künstlicher Intelligenz beschäftigt. „KI“, also künstliche Intelligenz, ist in viele Bereichen des menschlichen Lebens inzwischen eingedrungen. Und sie ist nicht negativ, sondern hilft uns, diese Intelligenz zu nutzen, um unser Gehirn von Routineaufgaben, aber auch von komplexen Steuerungs- Organisations- und Regelungsaufgaben zu befreien.

Freche Aneignung der Definitionsmacht über die Liebe

Doch die IT-Fuzzis lehnen sich inzwischen weit aus dem Fenster mit ihren Algorithmen - es gibt eine Reihe von Artikeln zum Thema. Und sie versuchen offenbar mittlerweile, den Psychologen den Rang abzulaufen, den sie sich ebenso frech angeeignet haben: Die Liebe zu erklären und menschliche Beziehungsprobleme nunmehr maschinell zu meistern. Das liest sich dann so:

Liebe ist eines der großen Themen des Lebens, das in der modernen Welt viel komplexer geworden ist. Da das menschliche Gehirn diese Komplexität nicht bewältigen kann, ist unser Nachdenken über die Liebe oft abgedroschen und unschöpferisch. Um diesen intellektuellen Stillstand zu vermeiden, könnten wir KI verwenden, deren zufallsbasierte Erzeugung von Wissen uns aus dem üblichen Trott bringen kann und uns dabei bedeutsame Einsichten in die vielfältige Landschaft der Liebe bringen kann.


Das ist Unsinn von Anfang bis zum Ende. Die Liebe ist kein „großes Thema“, sondern ein Teil des individuellen Fühlens. Sie wird in jeder Epoche anders empfunden, sowohl privat wie in der Literatur, und nichts deutet darauf hin, dass sie in einer „modernen“ Welt komplexer geworden sei. Was daran schwierig ist, lässt sich einfach beschreiben: Die Liebe ist ein Urtrieb, vom Gehirn seit Jahrtausenden weitgehend chemisch gesteuert wird, von der Umgebung, namentlich von der Kultur, aber gerne umdefiniert wird.

Die Liebe ist eine Naturmacht

Was wieder bedeutet: Die Quelle der Liebe hat nichts mit geistiger Intelligenz zu tun, was nun aber ebenfalls ausschließt, dass sie etwas mit künstlicher Intelligenz zu tun hat.

Was der Autor wirklich meint, ist etwas anderes. Wieder wird der gleiche Trick verwendet, mit der schon die Psychologie das Schiff der Liebe gekapert und zu seinem Eigentum erklärt hat: "Wir Wissenschaftler müssen es doch besser wissen als ihr popeligen Laienwürstchen".

Beim Wissenschaftler heißt dies dann so:

Aus logischer Sicht mag es rätselhaft und unergründlich erscheinen, aber die nüchterne Perspektive der Informatik entmystifiziert die Liebe und bietet begründete Ansätze für … (die Lösung) … menschlicher Beziehungsprobleme. (…) Wenn es um die Liebe im Zeitalter künstlicher Intelligenz geht, organisieren Algorithmen unsere Beziehungen und bestimmen die Entscheidung über die Partnerschaft.


Die Enteignung der Liebe - und ein schwerer Irrtum

Das bedeutet nicht mehr und nicht weniger, als dass die Liebe enteignet und vergesellschaftet wird, während sich eine neue Wissenschaft ihrer bemächtigt. Und die Sache hat noch einen ganz wesentlichen Grundlagenfehler: Wenn ein Algorithmus entscheidet, wer zu wem passt, setzt dies voraus, dass sich das Paar niemals entwickelt. Denn was die angeblich „KI“ einmal feststellen könnte, falls sie überhaupt in der Lage ist, Feststellungen zu treffen, ist eine Momentaufnahme. Menschen aber entwickeln sich und ihre Gefühle unterliegen Schwankungen.

Finger weg von der Liebe - wir wollen nicht emotional enteignet werden

Also, Finger weg, Informatiker dieser Erde, von der Liebe. An ihr haben sich schon genug Wissenschaftler und Pseudo-Wissenschaftler vergriffen. Und damit das mal ganz klar ist: Das Definitionsrecht der Liebe gehört den Menschen, jedem Einzelnen und den Paaren sowieso. Es gehört nicht den Philosophen, Soziologen, Psychologen und KI-Forschern.

Beide Zitate aus: iai aus dem Englischen übersetzt vom Autor. Bild: Aus einer Ausstellung, von Szöveg Nélkül.

Maria spricht zu dir – KI im Tatort

Die digitale Welt kann ausgesprochen verrückt sein. Und mit ihre kann man in der Tat Dinge tun, die sinnvoll, verrückt oder gar gefährlich sind.

Falls ihr zuhause noch über Kupferkabel oder lausige WLAN-Netze verbunden seid, die kaum zwei Stockwerke überwinden, habt ihr sicherlich über den neuen Tatort gestaunt. Da wird ein luxuriöses, von enormer Rechnerkapazität gestütztes Programm einfach mal so geklont – und kann dann per USB-Stick auf ein Notebook kopiert werden. Selbst wenn man bedenkt, dass der Client (das Notebook) die erfassten Daten nur „durchleitet“, und der Server dann die Arbeit tut, ist doch die Frage, wie so etwas funktionieren soll.

Die fragwürdige Definition von Gefühlen

Auch eine der ältesten Fragen an die Computerintelligenz kommt wieder auf: Können Computer eigentlich Gefühle? Nein, können sie nicht. Und doch glaubten viele Menschen noch vor 20 Jahren, dass ein Primitiv-KI-Programm wie „Eliza“ sie „verstehen“ würde. Manche glauben es noch heute. Beim Thema wäre noch nachzulegen: Auch in der menschlichen Kommunikation ist es ausgesprochen schwer, festzustellen, ob man „wirklich verstanden“ wurde. Und wenn es um Gefühle geht, liegt die Chance, vollständig verstanden zu werden, im einstelligen Prozentbereich.(1) Lediglich die Chance, ein nichtssagendes "ich versteh dich sehr gut" zu hören, liegt im oberen zweistelligen Prozentbereich. (2)

Ein riesiger Chatbot mit Datenbank - was sonst?

Weil im Tatort-Krimi „KI“ von einem „Chatbot“ die Rede war und dieser etwas abfällig betrachtet wurde, hier ein Hinweis: Was ist denn ein Programm wie „Maria“ mehr als ein Chatbot? Hinter „Eliza“ standen nur ein paar Dutzend vorgefertigter Sätze. Und hinter modernen KI-Programmen steht eine riesige Datenbank, die ein „Gedächtnis“ hat und sich die Gesichter der Menschen merken kann. Die Software mag sogar in der Lage sein, am Tonfall und am Gesichtsausdruck Stimmungen zu erkennen. Aber selbst dies macht sie nicht „menschlicher“ – im Grunde ist alles so, wie es damals bei Eliza war – nur wesentlich moderner und vielfältiger. Sozusagen ein Luxus-Chatbot für alle Fälle.

Der Krimi selbst? Ohne die „KI“ wäre er eine absolut dürftige Geschichte gewesen, kaum wert, erzählt zu werden.


Hinweise:

(1) Der Wert tendiert gegen null, weil Gefühle weder vollkommen beschreibbar noch (analog) „nachfühlbar“ sind. Sie sind einfach zu kompliziert, um übermittelt zu werden – von „Verstehen“ kann da noch keine Rede sein.
(2) Ein Wert aus der Praxis von Selbsthilfe- und Selbsterfahrungsgruppen. Dabei tendierend die Mitglieder dazu, „Mitgefühl“ zu zeigen oder „gleiche Gefühle“ festzustellen, um einander zu bestärken. Im Alltag ist „ich verstehe dich sehr gut“ eher eine Abschottung, die schnell gesagt wird, um nichts „wirklich“ an sich heranlassen zu müssen.

Kompetenz: Ich war jahrelang IT-Organisator und habe auch menschliche Kommunikation unterrichtet.

Über künstliche Intelligenz und künstliche Idiotie


Wenn wir in Zukunft genügend große Automaten mit Lernfähigkeit bauen, dann können wir dies unter keinen Umständen mehr als Abbild der menschlichen Intelligenz kennzeichnen. Sie könnend dann über die menschliche Intelligenz hinauswachsen, wenn sie direkt mit der Außenwelt kommunizieren …


Karl Steinbuch, „Automat und Mensch“, Berlin 1961

Wir haben sie, die genügend großen Automaten mit und ohne Lernfähigkeit, und sie sind inzwischen so klein, wie es sich Steinbuch nie hätte vorstellen können. Selbst er, der begnadete Wegbereiter der Kybernetik, ging von ganz anderen Größen aus. Künstliche Intelligenz lag noch in weiter Ferne – der PC, der schon als sensationell galt, war noch lange nicht erfunden.

Künstliche Intelligenz und künstliche Idiotie

Und wir sehen zwei Phänomene die weit auseinander laufen: Die geschliffene und präzise Weiterentwicklung von künstlicher Intelligenz, selbst lernend einerseits oder vorprogrammiert andererseits. Und eine neue Form von „künstlicher Intelligenz“, die eigentlich eher „künstliche Idiotie“ genannt werden müsste.

Und während die erste mit messbaren Fakten, eine Unmenge von gespeicherten Daten zum Vergleich und mathematisch präzisen, nachvollziehbaren Messungen arbeitet, versucht es die zweite Gruppe mit einem Schmu aus Dummheit, dem Griff in Psycho-Kisten und äußert vagen Annahmen.

Wenn Blödsinn eingegeben wird, kommt Blödsinn heraus

Denn ein frecher Satz aus der Programmierung gilt für alle und alles: „Shit in – Shit out.“ Heißt noch etwas erweitert: Wenn du Scheiße fütterst und und die Scheiße umrührst, kommt Scheiße heraus – nichts sonst.
Was heißt das?

Der ehrbare Programmentwickler und der Datenmixer

Was wir einfüttern, muss messbar oder anderweitig überprüfbar sein. Je mehr Daten unser System bekommt, um einen Vorgang „beurteilen“ zu können, umso besser können die Ergebnisse sein. Dürftige oder unvollständige Daten werden mit Recht von seriösen Programmen abgewiesen. Der Entwickler entscheidet im Zweifel, welche Datenqualität ausreicht, um den Vorgang mit einem präzisen Ergebnis, manchmal auch mit mehreren möglichen Ergebnissen abzuschließen. Die „künstliche Idiotie“ geht einen anderen Weg: Sie versucht, die fehlenden Daten durch „Erfahrungswerte“ zu ersetzen und täuscht in der Folge Ergebnisse vor, die auf keinen Fall auf den eingegebenen Daten beruhen. Es ist leicht, so ein Programm aufzubauen, beispielsweise für die Astrologie, aber auch für die Beurteilung von Persönlichkeitsmerkmalen. (1)

Algorithmen - nur ein Wort, kein Qualitätsbegriff

Um Entscheidungen treffen zu können, werden die berühmten (und oft missverstandenen) Algorithmen genutzt: Das sind komplizierte in sich verschachtelte Entscheidungsprozesse. Er ist die zweite Schwachstelle bei vielen Programmen mit „Künstlicher Idiotie“. In vielen Fällen (auch wohlmeinenden) kann gar keine Entscheidung gefällt werden, das Grundgerüst dafür fehlt. Dann werden entweder Annahmen oder Zufallsentscheidungen verwendet, um Ergebnisse vorzugaukeln. Am Ende bekommt der Kunde dann ein haarsträubend falsches Ergebnis, das er dennoch für richtig hält.

ELIZA - gut gemeint, und dennoch ohne wirkliche Intelligenz

Selbst eines der ersten (wohlmeinenden) Beispiele künstlicher Intelligenz, die ELIZA, entsprach dem Konzept künstlicher Idiotie: Die eingegebenen Daten wurden gar nicht „wirklich“ verarbeitet, sondern nur durch eine Art „bedingt intelligentes Teesieb“ gestrichen. Wenn man dies Programm einem unbefangenen Menschen zeigte, war er dennoch ausgesprochen überrascht, wie klug „ELIZA“ war.

Simple Konstruktionen als "KI" vermarktet

Die Frage, die den Konsumenten und die werbende Wirtschaft am meisten bewegt, dürfte die sein, wie man Daten ausspäht und auswertet. Dies gilt ebenfalls als „KI“, ist aber letztendlich nur ein Auswuchs derselben „künstlichen Idiotie“, die oftmals mit der „Künstlichen Intelligenz“ verwechselt wird. Dazu gehören Annahmen, wie „Was der Konsument oft anklickt, das kauft er auch.“ „Künstliche Intelligenz“ würde mindestens dies erfordern: „Wenn der Kunde das Produkt „A“ besitzt und das Produkt „B“, dann benötigt er voraussichtlich auch das Produkt „C“.

Außerhalb von präzisen, belegbaren Daten und Fakten muss nahezu alles der „künstlichen Idiotie“ zugerechnet werden – das gilt vor allem für maschinelle Psychotests. Denn die Psychologie verfügt nur selten über eindeutige Fakten, die sie durch eine Fülle von Annahmen ersetzt.

Die suggestive Kraft von "Künstlicher Intelligenz"

Der Trick aller, die damit arbeiten: Sie nutzen die suggestive Kraft, die von „künstlicher Intelligenz“ ausgeht, um darauf ihr Süpplein zu kochen. Was in Wahrheit dahinter steht, ist oft absolut lächerlich. Aber Hauptsache, der Kunde glaubt es.

Mein Rat: Seien sie kritisch und glauben sie den Spielern mit „Künstlicher Idiotie“ kein Wort.

(1) Sie können ohne weiteres für alle Menschen das gleiche Ergebnis ausgeben, unabhängig von dem, was eingegeben wurde. Die Erfolgsquote liegt bei 4,26 Punkten auf einer Skala von 0 bis 5 Punkten.

Dieser Artikel erscheint - im Original oder in Abwandlungen - in mehreren Medien

Künstliche Intelligenz

Habe ich mich nicht mehrfach kritische über künstliche Intelligenz ausgelassen? Sie werden sich wundern: Ich befürworte künstliche Intelligenz. Immer mehr Menschen vertrauen auf ihren Einsatz, und das ist gut und richtig. Nur: Echte künstliche Intelligenz, also eine Intelligenz, die ein Problem auch unter schwierigen Bedingungen bis zum Gelingen lösen kann, ist rar und aufwendig. Die Rechenleistung, die man dafür benötigt, solange es sich nicht nur darum geht, ein Auto einzuparken, ist nach wie vor enorm.

Ich bin sicher, die Technologie der kommenden Jahre wird uns helfen, mehr und verlässlichere künstliche Intelligenz zu produzieren.

Worauf wir aber achten sollten, ist: Lassen wir uns nicht von Marktschreiern verarschen, die jeden Furz, den ihre Programmierer ablassen, als „künstliche Intelligenz“ verkaufen. Was diese Programme können (wenn sie überhaupt funktionieren) ist dies: Sie können simple Verknüpfungen herstellen und dabei feststellen, wo, wann und wie diese gehäuft auftreten.

Und denken wir auch daran, dass in der IT-Branche das Wort gilt: Tu Scheiß rein, dann kommt Scheiß raus. Denn die Vorgaben für die KI kommen von Menschen. Wenn ihr Gehirn Blödsinn verzapft, übernehmen dies die Rechner. Und was noch schlimmer ist: Sie verstärken den Blödsinn. Denn eigentlich ist „KI“ keine „künstliche Intelligenz“, sondern ein Verstärker der vorgegebenen Intelligenz. Oder der Blödheit.