Tech & Science

Zukunftsforscher Matthias Horx: Der Roboter in uns

Zukunftsforscher Matthias Horx erklärt, was uns an nichtmenschlichen Wesen fasziniert und welche maschinellen Anteile wir in uns selbst gerne hätten.

Claudia Huber20. Dezember 2019 No Comments
Matthias Horx ooom magazin

Was steckt Ihrer Meinung nach hinter dem Phänomen Lil Miquela, die auf Instagram mehr als 1,8 Millionen Follower anzieht?

Ich glaube, dass das ein kulturelles Experiment ist, das die Menschen durch das Versprechen der Grenzüberschreitung zu sich lockt. Die Fragestellung ob etwas künstlich oder real ist bzw. die Idee eines Avatars, ist uralt. Die tribalen Kulturen hatten immer Vorstellungen von Waldgeistern, von Helfern in transzendenten Welten, auch die christliche Mythologie ist ja eine virtuelle. Diese Fenster in die andere Welt gab es immer schon. Diese Figur macht uns neugierig, weil wir im Endeffekt wissen wollen, was an uns menschlich und was an uns maschinell ist. Sie ist eine Projektionsfigur. Am Ende sind wir als Menschen aber immer davon abhängig, sich als reale Wesen gegenüberzutreten. Wir verschieben manchmal die Grenzen in unseren Selbstbildern, und das kann man durch solche Experimente tun.

Warum suchen wir nach diesen Anteilen in uns?

Es ist ein Test, etwas über sich selber herauszufinden. Das kann man auch an der Künstlichen Intelligenz (KI) festmachen. Eigentlich geht es um Expertensysteme, die die Wirtschaft einsetzt. Das ist auch sinnvoll. Aber die Debatte darüber wird aufgeladen von der Vermutung der autonomen Existenz einer maschinellen Macht. „KI macht sich selbständig“, „KI will uns versklaven“ und so weiter. Das sind Vermutungen über uns selbst als Menschen. Es gibt ein tiefes Bedürfnis im Menschen selber, eine Maschine zu sein. Wir würden uns das manchmal sehr wohl wünschen, nämlich dann, wenn wir emotional überwältigt sind. Emotionen quälen uns ja auch. Sie sind von der Evolution erfunden, um sehr schnell instinktive Annahmen machen zu können, wo wir stehen. Das Ganze projizieren wir auf die Maschinen mit der inneren Frage, ob wir nicht selbst auch Maschinen sind.

Inwiefern?

Am besten kann man es an der Debatte über Sexroboter festmachen. Männer, die mit Sexrobotern schlafen wollen, sind pathologische Fälle. Aber in der Sekundärbetrachtung geht es darum, dass wir so sehr an der Liebe leiden. Wir leiden darunter, dass wir das nicht unter einen Hut bringen, Sex, Begehren, Erotik, Eifersucht, Treue, Langeweile. Deswegen haben wir eine tiefe Sehnsucht, selber ein Sexroboter zu sein. Dann wäre der Ablauf klar, und wir könnten dem Terror der Emotionen entgehen. Infolgedessen projizieren wir immer hin und her. Menschliches in den Roboter, aber auch mechanisches in uns.

Haben Alexa, Siri und Co. das Potential Ersatz für ein Sozialleben zu sein?

Wenn Sie ein schwerer Alzheimer-Fall sind, dann machen Ihnen die Roboter Spaß. Aber nur weil Ihr Gehirn gewisse soziale Interaktionsformen schon verlernt hat und nicht mehr vermisst. Gesunde Menschen, die alleine im Altersheim sitzen, machen drei Scherze mit dem und das wars dann. Es löst das Problem der Kommunikation nicht. Deswegen ist meine Antwort Ja-Nein. Es wird Versuche geben sie in solchen Bereichen einzusetzen, aber es wird nicht gut sein. In der aktuellen Benützung wandern Home Assistants darüber hinaus schnell wieder in den Keller der Haushalte. Aus folgendem Grund: Es ist entweder immer zu wenig oder zu viel. Entweder kann das Ding nicht das, was ich in meiner menschlichen Kommunikation von ihm will. Sobald es eine Stufe in die Komplexität geht, wird es oft sinnlos, und da ist der komparative Vorteil zu einem Browser, wo ich mein Anliegen dann einfach eintippen kann, nicht groß. Andererseits, da wo es komplexer wird, wird es aber auch gruselig. Das ist das sogenannte Uncanny-Valley.

Es gibt ein tiefes Bedürfnis im Menschen selber, eine Maschine zu sein.

Was beschreibt dieser Begriff genau?

Das Uncanny-Valley ist eine inzwischen erforschte Kategorie in der Roboterpsychologie. Die meisten Menschen, außer Psychopathen, empfinden menschenähnliche Roboter als gruselig. Durch die Distanz auf dem Bildschirm wird Lil Miquela auf Instagram erträglich. Aber eigentlich, wenn ich jetzt nicht wüsste, ob mein Gegenüber ein Roboter ist oder nicht, dann würde ich die Situation abbrechen. Ich brauche Definition. Nur, wenn ich weiß, dass ich mit einem lebenden Menschen zu tun habe, kann ich Referenz entwickeln. In dem Moment, wo das Ding anfängt, sich menschenähnlich zu verhalten, erzeugt es eine Abwehrreaktion.

Gibt es dazu konkrete Beispiele?

Als wunderbares Beispiel eignet sich Jibo. Jibo war der erste humanoide Home Assistant. Es gab ein Riesen-Start-Up und die Titelseite der „Time“ 2017 als die Innovation des Jahres. Die ersten paar zehntausend Stück wurden ausgeliefert, doch dann ist das Ganze innerhalb von drei Monaten zusammengebrochen. Es war eine tolle Maschine, aber das Ding war so scheinecht, dass es ganz schnell schief ging. Es spaltet die Leute.

KI ist also als Erweiterung in Technik und Mechatronik geeignet, aber nicht für den gesellschaftlichen Bereich, wie es gerade so viel diskutiert wird?

Das ist die Paradoxie, die in der KI drinnen steckt. Es fängt ja schon mit dem Namen an: Künstliche Intelligenz. Expertenalgorithmen wäre besser. Intelligenz ist im emotionalen Zugang immer an Menschen gebunden. Was intelligent ist, muss eigentlich ein Mensch sein. Da gehört ja auch die Emotion dazu, Sinnlichkeit, das lässt sich nicht künstlich erzeugen. Das alles braucht Fleisch, Sterblichkeit und Not. Deswegen hat uns die Evolution mit Emotionen ausgestattet: Weil wir verletzlich sind, weil wir sterblich sind, und uns schützen und kommunizieren müssen. Intelligenz ist eine evolutionäre Funktion der Sterblichkeit. Deswegen werden wir uns an diesen Fragen ewig weiter die Zähne ausbeißen. In welcher Form auch immer: Früher waren es die Religionen, jetzt ist es die Technologie.

 

20. Dezember 2019