13. Januar 2018 | Allgemein
Posted by aisolab

Nächste Ebene der künstlichen Intelligenz: Maschinen verstehen Emotionen

Maschinelles Lernen stößt in immer neue Dimensionen vor. Inzwischen kann die Künstliche Intelligenz etwas, das bislang dem Menschen vorbehalten schien: Sie versteht Emotionen. Das kommt bei verschiedenen Maschinen zum Einsatz.

 

Künstliche Intelligenz: Vorbild menschliches Gehirn

Die moderne KI und maschinelles Lernen über neuronale Netze haben ein natürliches Vorbild: unser menschliches Gehirn. Dieses ist für die Lösung all unserer bekannten Probleme das effektivste Werkzeug. Ein wichtiger Aspekt unserer Intelligenz fehlte jedoch in den bisherigen KI-Programmen. Es handelt sich um Empathie und emotionale Intelligenz. Mit diesen Fähigkeiten können Menschen Gefühle erfassen und ebenso intuitiv Entscheidungen “aus dem Bauch” treffen. Bislang sind intelligente Softwareprogramme zwar durchaus imstande, Sprache zu verstehen, darauf zu antworten und auch nach einer bestimmten Datenvorlage selbstständig zu handeln, also im landläufigen Sinne intelligent zu agieren. Doch sie fühlen sich in niemanden ein. Jetzt sind die Entwickler der Integration von Emotionen in die Maschinenintelligenz einen Schritt näher gekommen. Ingenieure haben eine Methode entwickelt, die es dem Computer ermöglicht, menschliche Gefühle anhand physiologischer Reaktionen und Gesichtszüge zu erkennen. Die Pioniere der KI-Programme – Google, Microsoft und andere Giganten – sind sehr daran interessiert. Sie möchten diesen KI-Aspekt in ihre bestehenden Lösungen integrieren oder eine computergestützte Stimmungsanalyse erstellen, die Maschinen dabei hilft, menschliche Gefühle richtig zu interpretieren und entsprechend zu handeln. Das können Maschinen aller Art sein, selbst Baumaschinen.

Wie funktioniert maschinelles Lernen von Emotionen?

Daten, die einer Maschine den emotionalen Zustand eines Menschen mitteilen, sendet dieser auf vielfältige Weise aus. Dazu gehören:

  • Stimmklang
  • Sprechmuster
  • Verwendung bestimmter Ausdrücke und Floskeln
  • Mimik
  • physiologische Signale wie Puls, Herzfrequenz und Körpertemperatur
  • Gesten
  • Körpersprache

Die Physiologie kann nicht jede Maschine erfassen, weil hierfür bestimmte Sensoren nötig sind. Doch alle anderen Signale sind audiovisuell erkennbar. Vor allem die Sprache und die Mimik enthalten diverse nonverbale Signale, die sehr aussagekräftig sind. So zeigen Forschungsergebnisse, dass bei einer Konversation 55 % der Botschaften im Lächeln, in der Mimik und in Körpersignalen wie einem Schulterzucken verborgen sind, 38 % im Tonfall und nur 7 % in der tatsächlichen Sinngebung der Worte. Die bisherigen Softwarelösungen für die Sprachanalyse vernachlässigen also den größten Teil der Botschaft, sie identifizieren nur das Wort selbst. So erkennt aktuell ein Smartphone mit Spracherkennung noch nicht einen Satz mit Ausrufe- oder Fragezeichen. Doch die Firmen, die künstliche Intelligenz einsetzen, lernen schnell dazu. Diese Unternehmen wollen die emotionale Wirkung von Werbespots bewerten. Eine solche Situation kann möglich sein, indem man die Kamera auf einem Laptop einschaltet, während man sich ein Werbevideo ansieht. Bis zum Computer, der sich wirklich mit uns „einfühlt“, sollte nicht viel mehr Forschungszeit vergehen. Experten weisen bereits darauf hin, dass es dann zu einer ethischen Diskussion kommen könnte: Hat der Computer Gefühle, hat er Rechte?

Zurück