Skip to content
Dem liberalen Geist eine Stimme geben - das ist sehpferd

Wie künstliche Dating-Partner dich ausforschen können - auch über deine sexuellen Wünsche

Im Grunde liest sich der folgende Pressetext nicht so, als ob er sehr brisant wäre:

Der in … (den) … ehrlichen Antworten enthaltene hohe Anteil an Emotionen, kognitiven Prozessen, Bindungs- und Sexualmotiven verdeutlicht, dass es der AI innerhalb kürzester Zeit gelingen kann, das Vertrauen der Singles zu gewinnen.

Eine Maschine baut Vertrauen auf

Es ging also darum, im Experiment festzustellen, ob ein Chatbot (Kommunikationsroboter, der auf KI-Basis arbeitet) Vertrauen aufbauen kann.

Nachdem ich darüber erfuhr, dass dieses Experiment gelang, habe ich mich gefragt, was dies bedeuten kann.

Zunächst einmal sind viele Menschen im Internet unterwegs, die nicht die geringste Ahnung von Kommunikation haben – weder theoretisch noch praktisch. Hinzu kommt, dass ein enorm großer Teil der Internet-Benutzer auf scheinbar harmlose Fragen von Fremden antwortet. Auf diese Weise werden nicht nur Telefonnummern, sondern auch E-Mail-Adressen ausspioniert.

Auf den Spuren von Eliza, dem ersten Chat-Bot

Die Chat-Bots, die das tun, werden alle darauf programmiert, diese Informationen zu sammeln. Man kann jedoch auch einen anderen Weg gehen und auf den Spuren von Eliza wandeln. Wem der Name nicht geläufig ist: Das war das erste Computerprogramm, das angebliche „künstliche Intelligenz“ nutzte, um einen Gesprächspsychotherapeuten zu simulieren. Obgleich das Programm damals aus technischen Gründen unglaublich einfach aufgebaut war, verblüffte es die Benutzer. Sie glaubten wahrhaftig, dass der „Therapeut“ im grauen Kasten ihnen Klarheit über ihr Verhältnis zu sich selbst und zu anderen klären konnte.

Chat-Bots nutzen ähnliche Kommunikationsmethoden wie Berater

Das Prinzip spielt in der „normalen“ Kommunikation eine entscheidende Rolle. Es beruht darauf, das Mitteilungsbedürfnis durch eine Frage anzuregen, ihn aufrecht zu erhalten und möglichst zu vertiefen. Die Idee ist, dabei wesentlich mehr und tiefer gehende Antworten zu bekommen, als nach Art der Fragestellung zu erwarten war. Der Berater oder Therapeut nutzt dabei die vorhandenen Möglichkeiten der Klienten, ihre Probleme selber in den Griff zu bekommen.

Eine sogenannte „künstliche Intelligenz“ kann so programmiert werden, dass sie ganz ähnliche Erfolge hat, doch kann sie auch genutzt werden, um Menschen „auszufragen“.

Partnersuchende geben oft alles von sich preis

Dabei können wir getrost davon ausgehen, dass ein partnersuchender Mensch froh ist, wenn er einen Chatpartner oder eine Chatpartnerin findet, die auf ihn oder sie vertrauensvoll wirkt. Üblicherweise merken die Teilnehmer nicht sofort, dass am anderen Ende ein Programm abläuft – und manche merken es nie. Sie sind ja im festen Glauben, dass der Partner aus dem gleichen Grund im Chat ist wie sie selbst. Das bedeutet aber auch, dass sie ihn für einen Menschen halten. Und nicht nur das – da ist Menschen, der ihnen „zuhört“ und sie in dem bestätigt, was sie sagen.

Das Prinzip ist übrigens nicht ganz neu. Es wurde einst erfunden, um dem berufsbedingt unwissenden Beichtvater Frageketten zu ermöglichen, um zu den intimsten sexuellen Geheimnissen des beichtenden Schäfchens vorzudringen.

Gut – ganz vergleichbar ist das nicht. Aber es zeigt doch, welche Kräfte zusammenkommen, wenn der Glaube, eine angebliche Autorität (ob Beichtvater oder Chatbot) und eine naive Person zusammenkommen.

Singles - Vorsicht, wenn ihr ausgefragt werdet

Das Fazit all dessen: Vorsicht vor Chatbots – nicht, weil sie Fragen stellen. Sondern weil die Gefahr besteht, dass sie Antworten dokumentieren, archivieren und weitergeben können.

Quellen:
Eliza (und andere Vorfahren der Chatbots): Wikipedia.
Pressemeldung und Zitate aus "Presseportal".
Ausführliche Informationen bitte nachlesen auf: bsi.ag
Eine Kritik ähnlicher Art erschien bereits in der "Liebeszeitung".