Computer beigebracht , um menschliche Gefühle interpretieren basiert auf Lippenmuster

    Ein Computer wird gelehrt, menschliche Emotionen basierend auf Lippenmusterzu interpretieren , so eine Studie im International Journal of Artificial Intelligence und Soft Computing veröffentlicht . Das System konnte die Art, wie wir mit Computern interagieren, zu verbessern und vielleicht ermöglichen behinderten Menschen zu computerbasierten Kommunikationsgeräten, wie Sprachsynthesizer, effektiver und effizienter zu nutzen.

    Karthigayan Muthukaruppanof Manipal International University in Selangor, Malaysia , und Mitarbeiter haben ein System mit einem genetischen Algorithmus, der besser und besser mit jeder Iteration wird , um unregelmäßige Ellipse passend Gleichungen der Form des menschlichen Mund Darstellung unterschiedliche Emotionen entsprechen entwickelt. Sie haben Bilder von Menschen aus Südostasien und Japan verwendet werden, um einen Computer zu trainieren , um die sechs allgemein anerkannten menschlichen Gefühle zu erkennen - Freude, Trauer , Angst , wütend, Ekel, Überraschung - und einen neutralen Ausdruck . Die obere und die untere Lippe jeweils als zwei getrennte Ellipsen durch den Algorithmus analysiert.

    " In den letzten Jahren gab es ein wachsendes Interesse an der Verbesserung aller Aspekte der Interaktion zwischen Mensch und Computer , insbesondere im Bereich der menschlichen Emotionserkennung durch Beobachtung Mimik ", erklärt das Team . Frühere Forscher haben ein Verständnis, dass Emotionen durch Manipulation einer Darstellung des menschlichen Gesichts auf einem Computerbildschirm neu erstellt werden ermöglicht. Diese Forschung ist derzeit die Unterrichtung der Entwicklung von mehr realistisch animierte Schauspieler und auch das Verhalten der Roboter. Allerdings ist die umgekehrte Prozess, in dem ein Computer erkennt die Emotionen hinter einer echten menschlichen Gesicht immer noch ein schwieriges Problem zu lösen.

    Es ist gut bekannt , dass viele tiefer Emotionen werden durch mehr als Mundbewegungen verraten . Ein echtes Lächeln zum Beispiel beinhaltet Muskelspiel um die Augen und Augenbrauen Bewegungen sind fast durchgängig wesentlich für die unterbewusste Interpretation der Gefühle einer Person. Allerdings sind die Lippen bleiben ein wesentlicher Bestandteil der äußere Ausdruck von Emotionen . Das Team der Algorithmus erfolgreich klassifizieren die sieben Emotionen und einen beschriebenen neutralen Ausdruck .

    Die Forscher vermuten , dass die ersten Anwendungen von solchen Emotionen Detektor könnte helfen behinderten Patienten fehlt Rede , effektiver mit computerbasierten Kommunikationsgeräte zu interagieren , zum Beispiel.