Club del Lenguaje no Verbal

Por cortesía de la Fundación Universitaria Behavior & Law

¿Podría un robot darse cuenta de si eres responsable, extrovertido o amable? Club de Lenguaje No Verbal

Amigos del Club de Lenguaje No Verbal, esta semana presentamos el artículo “Nonverbal behavior cue for recongnizing human personality traits in human-robot social interaction” de Shen Z., Elibol A. y Young Chong N. (2019), en el cual se comprueba la posibilidad de que un robot sea capaz de inferir rasgos de personalidad de las personas con las que interactúa a partir de señales no verbales.

En paralelo a los impresionantes avances en robótica, cada vez más investigadores se enfocaron en mejorar la calidad de la interacción entre personas y robots (IPR). Estas mejoras persiguen dotar a los robots con habilidades para entender intenciones, emociones y otros aspectos del comportamiento de las personas. ¿Es eso posible?

Por lo general, los robots se diseñan con el fin de llevar a cabo varias tareas en numerosos campos de la ciencia y de la vida diaria. En sus tareas, algunos también interaccionan con las personas y serían robots sociales. Estos presentan diseños muy realistas y son muy buenos compañeros de trabajo, de ocio o de ayuda en la vida diaria, pero no tienen las habilidades de interacción típicamente humanas.

Algunos robots como Pepper, Nao o ASIMO han sido sincronizados a nivel verbal y no verbal para alcanzar una IPR cada vez mejor. En cualquier caso, esta sincronización está enfocada en atraer la atención de los usuarios y hacer que estos se impliquen en la interacción.

En cambio, durante una IPR las personas sí adaptan su comportamiento a las respuestas de su interlocutor, aunque sea un robot. Además, las respuestas verbales y no verbales de las personas están influidas no solo por el comportamiento del robot, sino también por sus propios rasgos de personalidad y muchos otros factores. Los rasgos de la personalidad humana reflejan las diferencias individuales en cuanto a patrones de pensar, sentir y actuar. Estos afectan al comportamiento de las personas y a la interpretación que hacen de las respuestas de su interlocutor (incluidos robots).

En principio, los robots no son capaces de tales actuaciones. Para que la IPR sea lo más eficaz posible y realista haría falta que un robot sea capaz de captar y analizar las señales sociales de sus interlocutores de manera coherente y similar a como lo hacen los humanos.

En estudios previos se ha observado una fuerte conexión entre personalidad y comportamientos mostrados de un robot. Es decir, las personas infieren rasgos de personalidad de los robots casi como si fueran personas. Estudios con robots Nao mostraron que los usuarios les perciben diferente en función de la extraversión vs introversión y de su profesión. Los robots con comportamientos de introversión y presentados con la profesión de CEO fueron percibidos como más inteligentes. Lo mismo ocurrió con los robots en roles de profesor y extrovertidos. También se ha observado que los usuarios prefieren interaccionar con robots con una personalidad similar a la de uno mismo.

Si las personas son capaces de inferir rasgos de personalidad de los robots, se hace necesario que también los robots sean capaces de inferir los rasgos de personalidad de los usuarios para mejorar la interacción (y que sea similar a la de humano-humano). Este estudio se basa en el desarrollo de un algoritmo eficiente que mida las dimensiones de personalidad de los usuarios, recogidas en el modelo de personalidad Big Five (extraversión, estabilidad emocional, responsabilidad, apertura a la experiencia y amabilidad).

El problema principal consiste en que inferir rasgos de personalidad supone interpretar muchas señales no verbales. La pregunta es ¿cómo conseguir inferencias basadas en lo no verbal de la manera más fácil posible? Es la parte más esencial pero también la más difícil y en otros estudios se plantean modelos de extracción altamente complejos.

En este estudio el robot que interacciona con personas es un semi-humanoide Pepper fabricado por SoftBank Robotics. Antes de la IPR, cada participante que interacciona con Pepper completa un cuestionario de personalidad. Las primeras IPRs aportan los datos necesarios para que se pueda diseñar y entrenar el modelo (proporcionar datos de entrenamiento y crear el algoritmo de aprendizaje adecuado).

Se utiliza la cámara de Pepper para extraer señales no verbales visuales del interlocutor: movimiento de la cabeza, mirada y energía del movimiento de la parte superior del cuerpo. Las señales no verbales auditivas/vocales (tono, energía y MFCCs —coeficientes para la representación del habla en la percepción auditiva humana—) se extraen de la grabación de audio que Pepper obtiene en la interacción. Para cada señal no verbal se utilizan dos tipos de valores: el valor real obtenido y normalizado (Vn) y un valor binario (Vb, 0 y 1). Por ejemplo, el movimiento de la cabeza de un usuario mientras habla con Pepper toma un x valor. En términos binarios se considera que se da el movimiento de la cabeza si ese valor es mayor que 0 y toma el valor de 1.

El último paso consiste en evaluar el modelo de aprendizaje del robot, un modelo que ha sido entrenado con características no verbales obtenidas de las primeras IPRs junto a los rasgos de personalidad de los usuarios obtenidos en los cuestionarios.

Para probar la eficacia del modelo, 12 participantes interaccionan con Pepper ya entrenado. La distancia de interacción es de 1.5-1.7 metros. Pepper pone preguntas sobre quién es el interlocutor, el tiempo actual, el tiempo/clima y descripciones de la ciudad natal del interlocutor. Aunque pueda, el robot en este caso está programado para no mover la cabeza para evitar la recogida de datos no pertinentes. Esto es relevante porque aleja bastante la IPR de una interacción natural entre personas y puede influir en el comportamiento de los participantes.

Se obtienen diferentes valores de precisión en la inferencia de Pepper sobre la personalidad de los usuarios en función del lenguaje no verbal expuesto en las IPRs. Primero, los peores predictores de personalidad (y el menor acierto de Pepper) fueron el tono de voz y el movimiento de la cabeza.

La mejor señal no verbal para la inferencia de rasgos de personalidad fue la energía del habla. Lo que mejor predijo fue la dimensión de personalidad apertura a la experiencia, seguida de responsabilidad. La energía del movimiento de la parte superior del cuerpo también se presentó como la segunda más útil y sirvió para inferir la dimensión amabilidad. Desde los MFCCs se infirió correctamente las dimensiones responsabilidad, estabilidad emocional y apertura a la experiencia. La mirada solo fue relevante en el caso de inferir la extraversión, aunque el valor de precisión obtenido fue bastante menor que todos los demás valores.

Este último resultado puede deberse a que las personas extrovertidas suelen utilizar muchos gestos al hablar y una voz muy enérgica. En cambio, en este estudio se pidió a los participantes que se sentasen muy cerca de la mesa, lo que pudo impedir una expresión libre del movimiento. Por otro lado, para que una persona mire mucho a los ojos de otra se necesita de mayor implicación bidireccional en la interacción. Con un robot se dificulta esta implicación y esa es la posible razón de los valores tan pequeños del registro de la mirada.

Por último y en cuanto a resultados, los valores binarios de las señales no verbales fallaron bastante en el modelo para inferir rasgos de personalidad. En todas las señales no verbales que predijeron significativamente las dimensiones de personalidad los valores resultantes del modelo binario mostraron una disminución importante de la precisión. Por lo tanto, los autores concluyen que utilizar valores binarios no mejoran la precisión.

Este estudio supone un avance importante, mostrando que es posible crear modelos de aprendizaje para las máquinas que las hagan cada vez más similares a los humanos también a nivel cognitivo. Aún queda mucho por hacer, pero el modelo planteado mostró un rendimiento prometedor.

Si quieres aprender más sobre la comunicación no verbal y su relación con la personalidad no te pierdas nuestro Máster en Comportamiento no verbal o nuestro Experto Universitario en Comunicación no verbal y Personalidad, con becas especiales para los lectores del Club del Lenguaje no Verbal

1 Comentario

  1. Cieto, si existen camaras de reconocimiento facilial en los aeropuertos y camaras termodinamicas de lectura de temperatura del cuerpo que permiten saber si uno miente, es muy probable que los robot reconozcan nuestros estados de animo. Saludos desde Peru.

Deja un comentario

Tu dirección de correo electrónico no será publicada.

*

¿Podría un robot darse cuenta de si eres responsable, extr…

por Andreea Leonte Tiempo de lectura: 6 min