Lenguaje de Marcado de Emociones - Enciclopedia

Una Lenguaje de Marcado de Emociones (EML o EmotionML) fue primero definida por el Grupo de Incubación de Emociones del W3C (EmoXG) como un lenguaje de anotación y representación de emociones de propósito general, que debería ser usable en una gran variedad de contextos tecnológicos donde se necesite representar emociones. La computación orientada a emociones (o "computación afectiva") está ganando importancia a medida que los sistemas tecnológicos interactivos se vuelven más sofisticados. Representar los estados emocionales de un usuario o los estados emocionales que deben simularse por una interfaz de usuario requiere un formato de representación adecuado; en este caso se utiliza un lenguaje de marcado.
La versión 1.0 de EmotionML fue publicada por el grupo en mayo de 2014.

Ejemplo
Aquí hay un ejemplo de un documento de EmotionML que describe las emociones expresadas en una grabación de video de la interacción entre una maestra, Alice, y un estudiante, Bob.

Historia
En 2006, se estableció un primer grupo de incubación del W3C, el Grupo de Incubación de Emociones (EmoXG), "para investigar un lenguaje para representar los estados emocionales de los usuarios y los estados emocionales simulados por las interfaces de usuario" con el informe final publicado el 10 de julio de 2007.
En 2007, se estableció el Grupo de Incubación del Lenguaje de Marcado de Emociones (EmotionML XG) como un seguimiento del Grupo de Incubación de Emociones, "para proponer un borrador de especificación para un Lenguaje de Marcado de Emociones, para documentarlo de manera accesible para no expertos y para ilustrar su uso junto con una serie de marcos existentes". El informe final del Grupo de Incubación del Lenguaje de Marcado de Emociones, Elementos de un EmotionML 1.0, fue publicado el 20 de noviembre de 2008.
El trabajo continuó en 2009 en el marco de la Actividad de Interacción Multimodal del W3C, con la Primera Borrador Público de Trabajo de "Lenguaje de Marcado de Emociones (EmotionML) 1.0" publicado el 29 de octubre de 2009. El Borrador de Trabajo de Último Llamado de "Lenguaje de Marcado de Emociones 1.0" fue publicado el 7 de abril de 2011. El Borrador de Último Llamado abordó todas las cuestiones abiertas que surgieron de los comentarios de la comunidad sobre el Primer Borrador de Trabajo de Llamado y los resultados de un taller celebrado en París en octubre de 2010. Junto con el Borrador de Último Llamado, se publicó una lista de vocabularios para EmotionML para ayudar a los desarrolladores que utilizan vocabularios comunes para anotar o representar emociones.
Se publicaron actualizaciones de borrador anuales hasta que se completó la versión 1.0 en 2014.

Razones para definir un lenguaje de marcado de emociones
Un estándar para un lenguaje de marcado de emociones sería útil para los siguientes propósitos:

Para mejorar la comunicación humana-humana o humano-máquina mediada por computadora. Las emociones son una parte básica de la comunicación humana y, por lo tanto, deben tenerse en cuenta, por ejemplo, en sistemas de chat emocionales o en cajas de voz empáticas. Esto implica especificación, análisis y visualización de estados emocionales relacionados.
Para mejorar la eficiencia del procesamiento de los sistemas. Las emociones e la inteligencia están fuertemente interconectadas. La modelización de las emociones humanas en el procesamiento por computadora puede ayudar a construir sistemas más eficientes, por ejemplo, utilizando modelos emocionales para la aplicación de decisiones críticas en tiempo.
Para permitir el análisis de comportamientos no verbales, emociones y estados mentales que se pueden proporcionar mediante servicios web para permitir la recopilación, análisis y presentación de datos.
Ejemplos concretos de tecnologías existentes que podrían aplicar EmotionML incluyen:

El análisis de opiniones/sentimientos en Web 2.0, para rastrear automáticamente la actitud de los clientes hacia un producto en blogs;
El monitoreo afectivo, como aplicaciones de vida asistida ambiental, detección de miedo para fines de vigilancia o el uso de sensores portátiles para probar la satisfacción del cliente;
Tecnologías de bienestar que proporcionan asistencia según el estado emocional de una persona con el objetivo de mejorar su bienestar;
Diseño y control de personajes para juegos y mundos virtuales;
Desarrollo de servicios web para capturar, analizar y presentar datos de comportamientos no verbales, emociones y estados mentales de un individuo o grupo a través de Internet utilizando tecnologías web estándar como HTML5 y JSON.
Robots sociales, como robots guías que interactúan con visitantes;
Síntesis de voz expresiva, generando voz sintética con diferentes emociones, como felicidad o tristeza, amistosa o disculpatoria; la voz sintética expresiva podría, por ejemplo, proporcionar más información a las personas ciegas y con visión reducida, enriqueciendo su experiencia del contenido;
Reconocimiento de emociones (por ejemplo, para detectar clientes enojados en sistemas de diálogo de voz, para mejorar juegos o aplicaciones de e-Learning);
Apoyo a personas con discapacidades, como programas educativos para personas con autismo. EmotionML se puede utilizar para hacer explícita la intención emocional del contenido. Esto permitiría a las personas con discapacidades de aprendizaje (como el síndrome de Asperger) comprender el contexto emocional del contenido;
EmotionML se puede utilizar para transcripciones de medios y subtítulos. Donde se marcan emociones para ayudar a las personas sordas o con deficiencias auditivas, se proporciona más información para enriquecer su experiencia del contenido.
El Grupo de Incubación de Emociones ha enumerado 39 casos de uso individuales para un lenguaje de marcado de emociones.

Una manera estandarizada de marcar los datos necesarios para tales "sistemas orientados a emociones" tiene el potencial de impulsar el desarrollo principalmente porque los datos anotados de manera estandarizada pueden intercambiarse entre sistemas más fácilmente, simplificando así un mercado de bases de datos emocionales y permitiendo que el estándar se utilice para facilitar un mercado de proveedores de submodulos de sistemas de procesamiento de emociones, por ejemplo, un servicio web para el reconocimiento de emociones a partir de texto, voz o entrada multimodal.

El desafío de definir un lenguaje de marcado de emociones generalmente usable
Cualquier intento de estandarizar la descripción de emociones utilizando un conjunto finito de descriptores fijos está destinado al fracaso, ya que no hay consenso sobre el número de emociones relevantes, sobre los nombres que se les debe dar o sobre cómo describirlos mejor. Por ejemplo, la diferencia entre ":)" y "(:" es pequeña, pero utilizando un marcado estándar haría uno inválido. Incluso más básicamente, la lista de estados emocionales relacionados que deben distinguirse varía según el dominio de aplicación y el aspecto de las emociones a enfocar. Básicamente, el vocabulario necesario depende del contexto de uso.
Por otro lado, la estructura básica de los conceptos es menos controvertida: se acordó generalmente que las emociones involucran disparadores, evaluaciones, sentimientos, comportamiento expresivo que incluye cambios fisiológicos y tendencias a la acción; las emociones en su totalidad pueden describirse en términos de categorías o un número pequeño de dimensiones; las emociones tienen una intensidad, etc. Para más detalles, véase las Descripciones Científicas de las Emociones en el Informe Final del Grupo de Incubación de Emociones.
Dado este falta de acuerdo sobre los descriptores en el campo, la única manera práctica de definir un lenguaje de marcado de emociones es la definición de posibles elementos estructurales y permitir a los usuarios "conectar" vocabularios que consideren adecuados para su trabajo.
Un desafío adicional radica en el objetivo de proporcionar un lenguaje de marcado que sea generalmente usable. Los requisitos que surgen de diferentes casos de uso son bastante diferentes. Mientras que la anotación manual tiende a requerir todas las distinciones finas consideradas en la literatura científica, los sistemas de reconocimiento automático pueden distinguir generalmente solo un pequeño número de diferentes estados y los avatares afectivos necesitan otro nivel de detalle para expresar emociones de manera adecuada.
Por las razones expuestas aquí, está claro que hay una tensión inevitable entre la flexibilidad y la interoperabilidad, que deben ponderarse en la formulación de un EmotionML. El principio guía en la siguiente especificación ha sido proporcionar una opción solo donde se necesita y proponer opciones de defecto razonables para cada elección.

Aplicaciones y servicios web beneficiados por un lenguaje de marcado de emociones
Hay una serie de proyectos y aplicaciones existentes a las que un lenguaje de marcado de emociones permitirá construir servicios web para medir, capturar y presentar datos de comportamientos no verbales, estados mentales y emociones de individuos, permitiendo que los resultados se informen y se visualicen en un formato estándar utilizando tecnologías web estándar como JSON y HTML5. Un proyecto de este tipo es medir datos afectivos a través de Internet utilizando EyesWeb.

Véase también
Visualización de afecto
Amigable con autismo
Lenguaje de Marcado Humano

Referencias