El primer bot de conversación con empatía copia las emociones del usuario

ROBÓTICA.

La máquina analiza la carga emocional del usuario a partir de sus palabras y genera una respuesta relevante y emocionalmente adecuada. Además de un habla- más humana, este es el elemento que falta para masificar los bots de conversación.

Los bots de conversación tienen una larga y venerable historia que data de la década de 1960 y la famosa bot Eliza que engañó a algunas personas que creyeron haber conversado con un humano de carne y hueso. Desde entonces, los programas informáticos parlantes son cada vez más avanzados y capaces de entender el contexto y responder de manera apropiada. Pero, la capacidad de reproducir el habla humana de manera convincente sigue siendo un reto para estos programas. Al hablar con uno de ellos nadie tarda en darse cuenta de que se trata de una máquina. Una de las razones consiste en que los ordenadores son incapaces de entender el contenido emocional de las conversaciones y empatizar de manera adecuada. Esta falta de inteligencia emocional acaba delatando inevitablemente a los bots de conversación.

Pero esto podría estar a punto de cambiar gracias al trabajo del investigador de la Universidad Tsinghua en Pekín (China) Hao Zhou y varios compañeros, que han desarrollado un bot de conversación capaz de evaluar el contenido emocional de una conversación y responder en consecuencia. El trabajo podría dar lugar a una nueva generación de bots de conversación con conocimientos emocionales. La investigación detalla: "Por lo que nos consta a nosotros, este es el primer trabajo que aborda el factor emocional en la generación de conversación a gran escala".

-

Los psicólogos suelen clasificar las emociones en seis categorías básicas: alegría, tristeza, asco, ira, sorpresa y miedo. Y los humanos las transmitimos con palabras que tienen un significado emocional específico. La manera en la que este significado cambia durante una conversación permite medir del contenido emocional. Por ejemplo, palabras como "reír" y "sonreír" están asociadas con la alegría, "deprimente" y "llorar" con la tristeza, y así sucesivamente. De hecho, los psicólogos han generado enormes tablas que describen la valencia emocional de las palabras.

Este es precisamente el tipo de base de datos que emplean algunas apps para determinar si un tuit es positivo o negativo, una técnica conocida como análisis de sentimiento. De hecho, los sociólogos pueden estudiar la manera en la que la cambia la carga emocional durante novelas completas. Hao y su equipo han empleado la misma técnica para analizar y controlar el contenido emocional de las conversaciones. Esta tarea consta de dos partes.

La primera consiste en analizar el contenido emocional de la conversación del usuario humano con técnicas similares al análisis de sentimiento. Pero la segunda parte es más complicada, ya que consiste en generar respuestas que resulten relevantes pero también emocionalmente apropiadas.

El método del equipo de Hao es bastante sencillo. Los investigadores empezaron con un conjunto de datos de 23.000 frases recopiladas del servicio de blogue chino Weibo y anotaron su carga emocional manualmente para la ira, el asco, la alegría, la tristeza o una carga adicional asociada con algo que guste al usuario. (Ignoraron la sorpresa y el miedo, que son relativamente raras).

El equipo empleó este conjunto de datos para entrenar un algoritmo de aprendizaje profundo para clasificar frases de acuerdo a su valencia emocional.

Por último, se utilizó un generador de bots de conversación convencional para producir respuestas mientras el algoritmo de aprendizaje profundo garantizaba que las respuestas tenían las emociones correctas. Han bautizado a su sistema como Máquina de Chat Emocional.

Por ejemplo, para responder a la afirmación: "El peor día de mi vida. He llegado tarde por culpa del tráfico", la Máquina de Chat Emocional puede generar distintas respuestas, en función de la emoción requerida. Para la alegría, responde: "¡Sigue sonriendo! Las cosas mejorarán". Frente a la tristeza, responde:"¡Qué deprimente!". Al asco, dice: "A veces la vida es un asco". Y a la ira, responde: "¡El tráfico está fatal!" Y para expresar gusto, dice: "Siempre estoy aquí para apoyarte".

Es un trabajo interesante que podría tener importantes aplicaciones. La capacidad de empatizar (o de dar la sensación de empatía) es un importante componente de las comunicaciones humanas. Varios estudios han demostrado que los humanos tenemos muchas más probabilidades de tener una reacción positiva a una conversación empática. Y eso desde luego resultaría muy útil en contextos como los centros de llamadas.

Por Emerging Technology From The Arxiv|traducido por Teresa Woods.

Sitio Fuente: MIT

  • GataNegra
    GataNegra
  • LatinoAmeriHermanos
    LatinoAmeriHermanos
  • ulsa
    ULSA
  • udg
    UDG
  • gedisa
    GEDISA