Amazon Link Emotionserkennung

Big Data wird häufig mit dem Aspekt der Durchschaubarkeit und Kontrollierbarkeit verbunden. Dabei werden konkrete Verhaltensdaten verwendet, um aus diesen Daten Prognose-Potentiale für die Zukunft zu gewinnen. Doch viele Entscheidungen von Menschen sind emotional bedingt, können also nicht so ohne Weiteres aus Verhaltensdaten gewonnen werden. Die FAZ berichtete jüngst über neue Trends zu Big Data und Emotionserkennung, woran deutlich werden sollte, dass man emotionale Einstellungen, wie sie sich in Gesichtern zeigt, mittels Big-Data-Technologien nutzen könnte, um nach dem gläsernen Menschen zu einer gläsernen Seele zu kommen. Worauf gründen sich diese Erwartungen und wie fundiert ist diese Befürchtung?

Emotionen drücken sich nicht nur in Sprache und Gestik aus, Emotionen können teilweise auch an Gesichtern abgelesen werden. Würde es gelingen diese Gesichts-Ausdrücke adäquat zu erfassen, dann könnten neue Steuerungsmöglichkeiten für Computer-Systeme gewonnen werden. Wie dies genau gelingen soll, wird in dem FAZ-Artikel allerdings nicht geschildert. Möglicherweise hängt dies auch damit zusammen, dass das zugrundeliegende Konzept (das Modell der Basisemotionen – Facial Action Coding System – , wie es von Paul Ekman entwickelt wurde) eine äußerst komplexe Vorgehensweise erfordert.

Recherchiert man den Begriff der Emotion im Bereich der Psychologie, dann wird man schnell feststellen, dass dieser Grundbegriff nur äußerst ungenau definiert werden kann. Psychologen sind sich uneinig darüber, was man mit Emotion (in Abgrenzung von Gefühl, Erregung und Kognition) eigentlich genau meinen könnte und wie die Zusammenhänge zwischen Kognition und Emotion zu sehen sind: Brauchen wir für ein Gefühl wie Angst eine Erkenntnis darüber, was der angstauslösende Faktor ist? Oder tritt die Angst als begleitendes Moment auf, wenn wir die Erregung spüren, die aus einer gerade erlebten Gefahrensituation resultiert? Angst wäre eine der sieben Basisemotionen nach Ekman, sie sollte ohne Probleme von einem Big-Data-Modell der Emotionserkennung bestimmbar sein.

Emotionen -so meinen die Psychologen – sind immer eine Mischung aus beobachtbaren Verhalten, einer bestimmten körperlichen Erregung und bestimmten Erfahrungen, die wir in einer konkreten Situation sehr unterschiedlich erleben können. Angst zeigt sich in einem inneren Gefühl der Anspannung, sie führt zu bestimmten Verhaltensweisen wie Panik, Flucht oder Kampfbereitschaft und kann mit körperlichen Signalen (wie Blutdruck, Herzfrequenz und Atemänderungen) einhergehen.

Die sieben Basisemotionen (Furcht, Fröhlichkeit, Ekel, Wut, Verachtung, Traurigkeit und Überraschung) können interkulturell übergreifend verstanden werden. Die Fröhlichkeit eines Gesichts wird weltweit eindeutig erkannt, auch wenn die Menschen einen sehr unterschiedlichen kulturellen Kontext haben. Allerdings sind die Stärke und die Art des Ausdrucks kulturell sehr unterschiedlich ausgeprägt, was eine einfache Eins-zu-Eins-Berechnung durch Computersysteme in Frage stellt.

Außerdem ist zu berücksichtigen, dass die unterschiedlichen Basisemotionen in bestimmten Mischungen auftreten können. Wut, Ekel und Angst können durchaus gemeinsam auftreten und dann wird das Gesicht nicht in eindeutiger Weise auslesbar sein. Hier ist dann der Kontext der Situation relevant, um auf die richtige Emotion zu schließen. Ein bestimmter Gesichtsausdruck, der auf ein gebrauchtes Kleidungsstück verweist, kann als Ekel interpretiert werden. Wir statt des Verweises die Hand erhoben und zur Faust geballt, dann wird man den gleichen Gesichtsausdruck als Wut interpretieren.

Das Ekman-Modell ist sicherlich interessant, um sich mit der Frage zu beschäftigen, welche emotionale Basis für menschliche Gefühle weltweit einheitlich gilt. Ob man aber aus dem Modell praktische Handlungsanweisungen für konkrete Situationen ableiten kann, ist umstritten. In der Praxis zeigt sich das daran, dass mehr oder weniger gut geschultes Flughafenpersonal beim Umgang mit Fluggästen häufig stereotype Verhaltensmuster praktiziert. Wer eine dunkle Hautfarbe hat oder angesichts seiner Kleindung als Mitglied einer Randgruppe identifizierbar ist, der wird häufiger kontrolliert und reglementiert, auch dann, wenn sein Gesicht ausgeprägte Freunde und Offenheit übermittelt. Wobei dieser Ausdruck von Emotionalität auch manipuliert sein kann. Bisher ist es Ekman noch nicht gelungen zwischen echten und vorgetäuschten Gefühlen eine klare Abgrenzung zu bestimmen.
[ad#ad-blog]
Vorgeworfen wird Ekman daher auch, dass er die kommunikative Rolle von emotionalen Haltungen nicht stark genug berücksichtige. Das Ekman-Modell hat also seine wissenschaftliche Bewährung noch vor sich, Computeralgorithmen, die auf Basis dieses Modell zum Erfolg bei der Emotionserkennung kommen wollen, müssen notwendigerweise die Schachstellen des Facial Action Coding System verstärken.

Das heißt jetzt nicht, dass die im FAZ-Artikel darstellten Konzepte komplett scheitern müssten. Doch man muss sich fragen, wie valide sind diese jeweils erreichbaren Ergebnisse. Bei wie vielen Prozent der Fälle wird eine falsche Emotion zugeordnet und wie ist hoch ist der Anteil, wo eine relevante Basisemotionen nicht erkannt wird, obwohl sie für den Handelnden wichtig war? Aussage mit nachprüfbaren Zahlenwerten fehlen allerdings häufig, wenn über Big-Data-Projekte berichtet wird. Es werden Möglichkeiten für die Zukunft aufgezeigt, die gegenwärtig nur in episodischen Geschichten plausibel gemacht werden können.

Verwandte Artikel:

Wenn Ihnen dieser Tipp oder der Hinweis von meiner Website train-und-coach.de gefallen hat, dann würde ich mich sehr über eine Empfehlung freuen. Sie können mit folgendem Linktext meine Website als Ganzes unterstützen: <a href="http://www.train-und-coach.de">Online-Journalist Rainer Meyer</a>

Oder Sie verlinken diesen Beitrag mit <a href="http://www.train-und-coach.de/emotionserkennung-und-big-data.html">Emotionserkennung und Big Data</a>

Nutzen Sie Kommentarmöglichkeiten und schreiben Sie mir eine E-Mail an info@train-und-coach.de.