Club del Lenguaje no Verbal

Por cortesía de la Fundación Universitaria Behavior & Law

Página 2 de 73

Todos somos mimos: el qué, el cómo y el cuándo de la imitación espontánea. Club de Lenguaje No Verbal

Amigos del Club de Lenguaje No Verbal, esta semana presentamos el artículo “The mimicry amongs us: intra- and inter-personal mechanisms of spontaneous mimicry” de Arnold J. A. y Winkielman P. (2019), en el cual se exploran las evidencias sobre cómo se produce la imitación no verbal espontánea y cómo afecta al procesamiento de información.

En las interacciones sociales hay procesos no verbales que permiten a las personas entenderse, coordinarse entre sí e influir unos en otros. Uno de estos procesos es la imitación (mimicry), un mecanismo que se da tanto de manera intencional como espontánea.

La imitación intencional ocurre cuando una persona replica las acciones de otra de manera deliberada. Este tipo de imitación es un mecanismo de aprendizaje social a través del cual se transmiten normas, rituales, habilidades, tradiciones, valores y similares.

Es clave para llevar a cabo acciones conjuntas. También es crucial en la comunicación social, señalando el deseo de conexión (p.ej. aplaudiendo), la pertenencia a un grupo (p. ej. vestirse igual que otros), afinidades, gustos e incluso burla (p. ej. parodias). Por lo tanto, la aparente simpleza de la imitación da lugar a comportamientos complejos. En estos, se toman en consideración la meta y la utilidad de las acciones inicialmente observadas y posteriormente imitadas.

La imitación espontánea (IE), más rudimentaria, pero no necesariamente más simple, es un fenómeno que no implica consciencia ni voluntad. No proviene de una observación consciente, ni de instrucciones o metas explícitas. Es un fenómeno con raíces filogenéticas, también observado en primates. Ocurre a lo largo de diversas modalidades (p. ej. cara, voz o cuerpo) y en respuesta a diversos estímulos internos o externos (p ej. personas o pensamientos).

Ante un estímulo potencial, las acciones de IE aparecen en un rango temporal entre fracciones de segundo y varios segundos. Por ejemplo, la imitación facial suele aparecer medio segundo más tarde de aquello que la provoca. Varios segundos más tarde suele darse el bostezo o la imitación postural.

En esta investigación, la IE se sitúa en el contexto teórico de la cognición corpórea (embodied cognition). Un concepto que proviene de las llamadas teorías grounded cognition o embodiment (diversas traducciones utilizadas; p. ej. cognición anclada y corporeización).

Tales teorías proponen que el procesamiento de la información de cualquier estimulo tangible (objetos, caras, gestos, etc.) o intangible (p. ej. rasgos de personalidad, conceptos abstractos, emociones, etc.) se basa en recursos perceptivos, somatosensoriales y motores.

Estos recursos tienen implicaciones tanto en un encuentro con un estímulo presente como cuando se piensa en el estímulo (ausente). Como ejemplo del primer caso, si nos sonríen, sonreímos. Los recursos antes mencionados provocan la activación necesaria a nivel cerebral y muscular para imitar esa sonrisa.

Como ejemplo de estímulo ausente, podemos pensar en una mandarina y en sus propiedades y recrear parcialmente la experiencia sensorial (sabor u olor). Esta imitación sensorial supone la activación de recursos periféricos, (p. ej. salivación) y centrales (a nivel cerebral, p ej. el córtex gustativo).

La imitación en ausencia de estímulo se denomina simulación corpórea y no requiere de manifestaciones comportamentales. Se ejecuta en una modalidad cerebral y solo hace falta que su reproducción sea lo suficientemente potente como para que se pueda utilizar en el procesamiento posterior.

Los autores plantean que los recursos que se necesitan para la IE, como la simulación corpórea, dependen de la ambigüedad del estímulo que la provoca. Por lo tanto, el contexto (interno o externo) es el que da las pistas para definir los estímulos y qué recursos entran en juego. En cualquier caso, una vez generadas, las simulaciones podrían influir, asociarse, depender o informar en el procesamiento de la información.

Otro punto clave de las teorías de embodiment es que la IE une las representaciones sensoriomotoras con conceptos de alto nivel (abstractos). En un estudio los participantes evaluaron caras ambiguas como felices o tristes. El registro de la musculatura facial mostró que la evaluación de las caras como felices, activó a menudo los músculos relacionados con la sonrisa. Por lo tanto, la información de alto nivel (i. e. concepto de felicidad) moldeó la respuesta facial espontánea de los sujetos y estos simularon este concepto.

La mera observación de expresiones faciales incrementa la actividad de la corteza somatosensorial del cerebro en el área que representa la cara propia. Como consecuencia, en la cara del observador se generan rápidamente los mismos movimientos faciales de manera espontánea. Además, la imitación facial también se activa ante expresiones faciales presentadas por debajo del umbral de la conciencia.

Por lo tanto, la IE puede ocurrir en base a unas reglas simples de match. No obstante, el contexto social en el cual ocurren las interacciones también influye en los comportamientos de imitación. La imitación espontánea es sensible a señales sociales como el comportamiento prosocial, la pertenencia grupal, el deseo de afiliación, las actitudes, la competición y el nivel de empatía.

La flexibilidad y dependencia al contexto de la imitación facial se ha mostrado en investigaciones sobre el poder. Al observar caras de personas que aparentan alto poder (vs. bajo poder), los participantes fruncieron el ceño rápidamente (< 1 seg) ante expresiones faciales de enfado. No ocurrió lo mismo ante caras que aparentan bajo poder.

Asimismo, los participantes con alto poder (entiéndase el poder como el sentido subjetivo de control y autoridad en una interacción) siguieron con una sonrisa solo ante las caras de enfado y alto poder. Por lo tanto, después de la imitación inicial, apareció una contra-imitación como respuesta de competición. En cambio, los participantes con bajo poder mostraron una sonrisa tanto ante caras de enfado como de alegría de personas aparentemente poderosas.

El efecto de la competición como contexto en la imitación facial también se ha visto en interacciones humano-robot. Por ejemplo, en un estudio, los sujetos mostraron las mismas expresiones faciales que un androide en un juego cooperativo y las opuestas en el juego competitivo.

En otro estudio se comprobó que la simulación de movimiento fue mucho mayor al observar el brazo en movimiento de un androide y de una persona, que al observar un brazo robótico. Estos datos indican un mayor impacto en la IE de la similitud de movimiento, por encima de la similitud física.

En cuanto a las expresiones faciales, la similitud física parece tener más importancia. Cuanto más humanos parecen los androides, más fuerza tiene la imitación espontánea de las expresiones faciales de estos. No obstante, a diferencia de las interacciones humanas, la similitud psicológica y la comodidad emocional no influye en las interacciones con los robots. Los sujetos imitaron las expresiones faciales de los robots incluso si se sintieron incómodos con ellos o si los consideraron siniestros.

Como casos atípicos, se analiza qué ocurre con la imitación en los casos de Trastornos del Espectro Autista (TEA). Los sujetos con TEA pueden mostrar hiper-imitación y a menudo obtienen un buen rendimiento en pruebas de imitación deliberada. No obstante, existen algunas evidencias sobre cierto deterioro de la IE.

Por ejemplo, se ha observado una actividad cerebral asociada al movimiento reducida en casos de TEA al observar movimientos simples de otras personas. Tampoco suelen imitar expresiones faciales con solo verlas, sin instrucción alguna de reconocerlas o reaccionar ante ellas. Además, cuando la imitación facial aparece, suele retrasarse temporalmente.

También existen casos casi opuestos. Por ello, se destaca la posibilidad de que sean la atención a estímulos sociales, la motivación o las habilidades las que tienen mayor influencia en la imitación. Otras explicaciones de una IE diferente en los sujetos con TEA se basan en las diferencias neurobiológicas. Por ejemplo, la desregulación de la oxitocina o de los mecanismos de respuestas ante los refuerzos sociales.

Si la imitación espontánea depende de los refuerzos sociales, se puede pensar que la soledad también puede provocar cambios en la imitación. Las personas buscan interaccionar con personas que les ofrezcan beneficios sociales y que les imiten más. En cambio, una persona con expectativas sociales negativas, que dan lugar a percepciones de soledad y aislamiento social, no necesitaría de la imitación.

En un estudio, se ha observado que sujetos con alta percepción de soledad mostraron una respuesta de imitación muy reducida ante caras sonrientes. No ocurrió lo mismo, sino todo lo contrario, con las caras que expresaban tristeza, miedo o enfado. Respondieron espontánea y correctamente (sonriendo y frunciendo el ceño) ante imágenes muy cargadas emocionalmente. Asimismo, respondieron adecuadamente a nivel de imitación facial deliberada a todas las expresiones faciales. Por lo tanto, la soledad parece estar selectivamente asociada con una capacidad de respuesta reducida para la imitación espontánea de la sonrisa.

A modo de conclusión, la imitación espontánea utiliza y conecta recursos muy variados: perceptivos, conceptuales, motrices y afectivos. Juega un papel clave en el reconocimiento, comprensión y contagio emocional. Quedan pocas dudas de la importancia de la imitación espontanea como uno de los procesos centrales que permiten ahondar un poco más en la cognición social.

Si quieres saber más sobre comunicación no verbal visita nuestro Máster en Comportamiento No Verbal y Detección de la Mentira o nuestro Experto Universitario en Comunicación no verbal y Personalidad, con becas especiales para los lectores del Club del Lenguaje no Verbal.

Cuando la izquierda es “derecha”: lateralidad y conceptos abstractos. Club de Lenguaje No Verbal

Amigos del Club de Lenguaje No Verbal, esta semana presentamos el artículo “When left is ‘right’: motor fluency shapes abstract concepts” de Casasanto D. y Chrysikou G. E. (2011), en el cual se analiza el papel de la fluidez motora en la lateralidad y su impacto en la percepción de conceptos abstractos, como “bueno” y “malo”.

A lo largo de muchas culturas, el lado derecho se ha asociado con cosas buenas y justas. En cambio, el lado izquierdo se ha asociado con cosas malas o prohibidas. Se han hecho tales asociaciones en la Biblia y en las leyes islámicas. También en el lenguaje se muestran asociaciones similares. Por ejemplo, en español se considera tener dos pies izquierdos cuando no se sabe bailar muy bien. Ser la mano derecha de alguien denota que una persona es muy útil y/o de confianza. Podríamos dar ejemplos de múltiples culturas e idiomas en la misma línea.

Las personas también asocian ideas positivas y negativas de manera implícita a la derecha e izquierda, respectivamente, pero no siempre en la misma dirección de las convenciones culturales. Por ejemplo, cuando se pide elegir un producto de dos posibles, los sujetos diestros prefieren los productos situados a la derecha y los zurdos los situados en la izquierda. Este patrón también persiste en elecciones verbales y sin el uso de las manos para elegir.

Los menores de 5 años ya evalúan las cosas del entorno en función de su lateralidad. Por ejemplo, un niño diestro considera que un animal situado a su derecha es más listo y simpático que uno situado a su izquierda.

Fuera del laboratorio, encontramos interesantes ejemplos y uno de ellos en política. En las elecciones de EE. UU. de 2004, ambos candidatos eran diestros. Sus discursos fueron considerados como positivos cuando utilizaron gestos con la mano derecha y negativos cuando hubo gestos con la mano izquierda. En las elecciones de 2008, ambos candidatos eran zurdos. En este caso, se ha observado el patrón de asociación inverso entre valencia del discurso y la lateralidad de los gestos.

Estos ejemplos muestran que la asociación entre derecha, izquierda y valencias (positiva vs negativa) no siempre es algo cultural. Se puede hablar de una hipótesis de especificidad corporal. Esta definiría que diferentes cuerpos reaccionan y piensan de forma diferente, pero predecible en función de la lateralidad, incluso para las ideas altamente abstractas.

Una pregunta importante es por qué los diestros y los zurdos asocian valencia positiva a las cosas situadas en su lado dominante (y negativa a las situadas en el lado opuesto). Hay varias posibilidades. Una es que las personas interaccionan de manera más fluida con las cosas que se sitúan en su lado dominante.

Una interacción fluida supone que, por ejemplo, un diestro escribe mejor con la derecha o corta mejor con una tijera que un zurdo. Se habla de una fluidez perceptiva-motriz que influye en las percepciones del entorno y en las evaluaciones que se hace de sus elementos. Por lo tanto, el lado dominante de una persona puede asociarse en su memoria como algo positivo, debido a que la interacción con el mundo a través de esa parte del cuerpo es fluida, sin dificultades.

Otra opción podría ser que haya diferencias neurológicas determinadas genéticamente entre zurdos y diestros. Las diferencias relevantes en este caso serian en cuanto a un mapeo espacial diferente de lo bueno y de lo malo. Los marcadores neurológicos que provocarían ser diestro o zurdo también podrían crear diferencias en el juicio y evaluación del entorno.

En el estudio se investiga si es la experiencia motora (fluidez) la que genera asociaciones entre espacio y valencia emocional de manera independiente a la lateralidad genética. Por lo tanto, se observa si la lateralidad inducida, debido a cambios a corto y largo plazo en la fluidez motora, puede influir en los juicios de valor sobre el espacio.

En un primer experimento, participan 13 sujetos diestros con hemiparesia derecha (5) e izquierda (8), adquirida tras un accidente cerebrovascular unilateral. Si una hemiparesia afecta a la parte dominante del cuerpo, el sujeto podría seguir valorando como bueno a ese lado del espacio, a pesar de perder movilidad en su lado dominante. En este caso, no sería la fluidez motora la que genera asociaciones, sino la lateralidad adquirida por genética.

En cambio, si la hemiparesia afecta a la parte dominante del cuerpo, el sujeto debe aprender a utilizar la otra parte del cuerpo. Con tiempo y práctica, se consigue fluidez motora en ese lado. Si el sujeto cambia sus evaluaciones del espacio acorde con su nuevo lado dominante (lateralidad inducida) entonces sí sería la fluidez motora la que da lugar a asociaciones entre valencia y espacio.

Los sujetos participan en una tarea a la que tienen que responder verbalmente. En el centro de una pantalla observan la cabeza de dibujo animado. A ambos lados de este se encuentran dos cajas. A los sujetos se les cuenta que el dibujo animado adora las cebras y piensa que son buenas. Asimismo, odia a los pandas y piensan que son malos. La pregunta es ¿en qué caja metería el dibujo animado a cada uno de los dos animales?

Doce de los trece participantes respondieron acorde a su fluidez motora posterior a la hemiparesia. Es decir, contestaron acorde a una lateralidad inducida. Los sujetos con hemiparesia derecha consideraron que el animal bueno debe ir en la caja izquierda y el malo en la derecha. Por lo tanto, a pesar de ser genéticamente diestros, la fluidez adquirida con la izquierda generó una percepción positiva del lado izquierdo del espacio.

Asimismo, los sujetos con hemiparesia izquierda consideraron que la cebra debe ir en la caja derecha y el panda en la izquierda. Estos sujetos, siguieron siendo diestros después del accidente cerebrovascular y siguieron con la misma fluidez motora lateral al adquirir la hemiparesia. Por ello, la valencia positiva se asocia al lado derecho del espacio. Solo un sujeto ha mostrado respuestas opuestas a las esperada según la hipótesis de fluidez motora.

En la muestra utilizada hay mucha variabilidad en cuanto a la localización de las lesiones cerebrales. Por ello, no se puede descartar que sean estos cambios los que explican los resultados, más que una fluidez motora independiente de modificaciones neurológicas.

Para verificar estas ideas se lleva a cabo un segundo experimento. Participan 53 sujetos diestros y sanos. Primero, estos llevan a cabo una tarea de fluidez motora, como fase de entrenamiento. En esta, los sujetos deben poner 84 fichas de dominó encima de una mesa, en localizaciones marcadas.

La tarea se debe hacer con ambas manos a la vez y en un tiempo máximo de 12 minutos. Con cada mano solo se pueden poner las fichas en el lado que se corresponde a la mano; derecha-derecha, izquierda-izquierda. Los sujetos deben llevar a cabo la tarea con un guante de esquí puesto en una de las manos y con el otro atada a la muñeca opuesta. La mitad de los sujetos llevan el guante puesto en la derecha y la mitad en la izquierda.

Después de la fase de entrenamiento, se pide cubrir tres cuestionarios cortos para evitar la asociación entre la primera fase y segunda fase del experimento. En la segunda fase, se lleva a cabo la misma tarea que en el primer experimento.

Recordemos que todos los sujetos eran diestros. De los sujetos que tuvieron el guante puesto en la mano izquierda durante el entrenamiento, un 77% optó por meter el animal bueno en la caja derecha. De los sujetos que tuvieron el guante puesto en la mano derecha en la fase inicial, un 63% optó por meter el animal bueno en la caja izquierda.

Generalmente, se puede decir que la tendencia a asignar el animal bueno a la caja situada en el mismo lado que la mano sin guante fue 5 veces mayor que la tendencia a asignarlo a la caja situada en el mismo lado que la mano con guante. Congruente con los resultados del primer experimento, la fluidez motora reforzada o adquirida en la fase de entrenamiento llevó a una evaluación positiva del hemiespacio correspondiente.

Como conclusión, parece que cambiar la forma en la cual las personas utilizan sus manos puede cambiar sus juicios sobre las ideas abstractas de bueno y malo. Los cambios a largo plazo en la fluidez motora pueden invertir las asociaciones implícitas entre valencia emocional y localización en el espacio. No obstante, con estos hallazgos no se descarta el impacto de posibles factores neurobiológicos innatos que contribuyan al mapeo del espacio según lateralidad.

Si quieres saber más sobre comunicación no verbal visita nuestro Máster en Comportamiento No Verbal y Detección de la Mentira o nuestro Experto Universitario en Comunicación no verbal y Personalidad, con becas especiales para los lectores del Club del Lenguaje no Verbal.

Efectos de la duración de las expresiones faciales en la detección de las microexpresiones. Club de Lenguaje No Verbal

Amigos del Club del Lenguaje No Verbal, esta semana presentamos el artículo “Effects of the duration of expressions on the recognition of microexpressions” de Shen X., Wu Q. y Fu X. (2012), en el cual se investigan los efectos de la duración de las expresiones faciales en el reconocimiento de microexpresiones.

Durante la comunicación interpersonal es importante detectar las emociones de los interlocutores. Algunos individuos pueden suprimir la expresión emocional real y mostrar expresiones faciales engañosas. Hay situaciones en las que el individuo lo hace a propósito, pero también hay situaciones sociales que se rigen por normas que requieren enmascarar o inhibir lo que realmente se siente.

Afortunadamente, por más que se intente fingir, hay expresiones faciales que aparecen cuando se intenta encubrir las emociones reales: las microexpresiones faciales. Estas son movimientos faciales sutiles, involuntarios, inconscientes y de muy corta duración. Son indicadores de las seis emociones básicas: alegría, tristeza, ira, sorpresa, asco y miedo. No son fácil de detectar sin entrenamiento y tanto las habilidades como las herramientas para hacerlo son temas de investigación recurrente.

Aparecen especialmente en situaciones de alto riesgo o alta tensión, en las cuales las personas tienen algo que perder o ganar. Según Ekman, una microexpresión es un reflejo de las intenciones reales de los individuos, especialmente de aquellas hostiles. Por eso, son esenciales en la detección del engaño y de personas potencialmente peligrosas (p. ej. terroristas). En cambio, las macroexpresiones faciales son aquellas que aparecen como expresión de una emoción sin que se intente encubrir o fingir nada.

Sobre la duración de las microexpresiones faciales no hay un consenso, pero sí parece que todas las variaciones encontradas en la investigación duran menos de medio segundo. Las micro y macroexpresiones solo difieren en duración. Como ya hemos mencionado, la razón de su aparición también es distinta, pero si no sabemos de antemano que alguien finge o esconde algo, no se pueden diferenciar más que por su duración.

Por lo tanto, se supone que un sujeto que es capaz de identificar una microexpresión, también será capaz de identificar la macroexpresión pertinente, ya que esta es diferente solo en longitud. En cualquier caso, la detección precisa no implica que los sujetos sean capaces de diferenciar si una expresión facial es micro o macro. Es posible que para las personas 1 segundo de alegría sea lo mismo que 3. Cuando se pueden medir, como en este estudio, las microexpresiones tienen una duración tan corta que la duración que marca la diferencia entre sujetos capaces y no capaces de detectarlas supondría el punto de corte que separa las micro de las macroexpresiones faciales.

Además de evaluar los efectos de la duración de las microexpresiones, los autores también comparan dos paradigmas de detección. Una es BART de Ekman y Friesen (1974), en la cual la expresión de cada emoción de las seis básicas se presenta durante tiempos expresados en milisegundos (procesamiento subconsciente). Autores que han analizado BART constatan que es una herramienta fiable y válida, excepto por la validez ecológica: porque provoca post-imágenes, algo que no ocurre en la vida real. Otro paradigma es METT de Ekman (2003), que corrige esos fallos y que se ha desarrollado como herramienta de entrenamiento.

Se llevan a cabo dos experimentos. En el primero, se exponen a 11 sujetos a imágenes de 40, 120, 200 y 300 milisegundos y se utilizan ambos paradigmas. Antes de las pruebas experimentales, se entrena a los sujetos con imágenes de las 6 emociones básicas de 2 segundos de duración. No se procede con el experimento hasta que no se acierta al 100% en la detección de las expresiones faciales.

Los resultados mostraron un aumento en la precisión de detección de las microexpresiones a la par con el aumento de la duración de las imágenes. Este aumento solo se observó hasta 200 ms. Por lo tanto, se establece que 200 ms es un punto crítico para la detección y definición de las microexpresiones.

Ente paradigmas, solo se han observado diferencias significativas en el acierto cuando las imágenes se presentaron durante 40 ms. Las microexpresiones faciales mejor detectadas fueron las de alegría (86,8%). Los sujetos mostraron confusión entre las microexpresiones de ira y asco, miedo y sorpresa, tristeza y asco.

En el segundo experimento, los sujetos practican la detección de microexpresiones de 40 ms de duración. Uno de los objetivos es comprobar las ideas de Ekman, que informó que el entrenamiento con METT mejora la detección en un 10%. Se verifica una vez más el efecto de la duración de las microexpresiones, utilizándose en este caso 8 niveles de duración (20, 40, 80, 120, 160, 200 y 240).

Primero, doce participantes practican el reconocimiento de microexpresiones faciales. En las imágenes se diferencian claramente dos modelos: hombre y mujer. Segundo, se procede con la fase experimental de reconocimiento de microexpresiones, igual que la del experimento 1, excepto por la mayor diversidad de duraciones.

Se observan diferencias en la detección según la duración y el paradigma utilizado hasta 160 ms (excluido este valor). A partir de 200 ms se observa que las medias de acierto en la detección según paradigmas casi se superponen. En este segundo experimento, la emoción mejor detectada es la sorpresa, seguida de la alegría. En cambio, la expresión del miedo se presenta como la más difícil de detectar.

Los efectos de la práctica se analizan en ambos experimentos. Se observa que los sujetos sí mejoran en la detección de microexpresiones con la práctica. Asimismo, no se observan diferencias entre paradigmas en la tendencia de aumento de la precisión por la práctica. Lo más destacable es que se observa que con una cantidad considerable de práctica, los sujetos son capaces de mejorar la detección incluso de microexpresiones con duraciones menores de 40 ms.

Este valor es un límite definido por Ekman. No obstante, en este experimento se observa que la práctica puede beneficiar mucho más de lo que se creía. El efecto de la práctica implica que la percepción de las expresiones faciales humanas es muy rápida y puede ser moldeada por la experiencia.

En términos generales, los paradigmas utilizados muestran resultados diferenciales en la detección en microexpresiones de duraciones muy cortas. Sin práctica, las diferencias entre sujetos se observan en la detección de microexpresiones de menos de 40 ms. En cambio, con práctica, las diferencias se observan en microexpresiones de hasta 160 ms. Aunque las medias de acierto sean mayores en el paradigma BART, varían menos con la duración. En cambio, las medias de acierto de METT presentan más variabilidad. Por ello, los autores consideran que METT es más fiable debido a que muestra más sensibilidad a los cambios en duración.

Como bien sabemos, las microexpresiones se usan en la detección del engaño. No obstante, son objeto de debate y amplias críticas en cuanto a su aplicación real. En cualquier caso, ninguna herramienta, por más útil que parezca, no debe ser utilizada como única vía para detectar el engaño.

Si un sujeto intenta encubrir una emoción, sin una medición de la duración de sus expresiones faciales puede ser imposible detectar si aquello que expresa es una micro o macroexpresión. Aunque la práctica sí mejore la detección de microexpresiones, ¿cómo podría saber un observador que aquello que observa dura menos de 200 ms? Las herramientas diseñadas para ello, cada vez más avanzadas, pueden ser la respuesta.

Si quieres saber más sobre el fascinante mundo de las microexpresiones faciales y la detección del engaño visita nuestro Máster en Comportamiento No Verbal y Detección de la Mentira o nuestro Experto Universitario en Comunicación no verbal y Personalidad, con becas especiales para los lectores del Club del Lenguaje no Verbal.

¿Podría un robot darse cuenta de si eres responsable, extrovertido o amable? Club de Lenguaje No Verbal

Amigos del Club de Lenguaje No Verbal, esta semana presentamos el artículo “Nonverbal behavior cue for recongnizing human personality traits in human-robot social interaction” de Shen Z., Elibol A. y Young Chong N. (2019), en el cual se comprueba la posibilidad de que un robot sea capaz de inferir rasgos de personalidad de las personas con las que interactúa a partir de señales no verbales.

En paralelo a los impresionantes avances en robótica, cada vez más investigadores se enfocaron en mejorar la calidad de la interacción entre personas y robots (IPR). Estas mejoras persiguen dotar a los robots con habilidades para entender intenciones, emociones y otros aspectos del comportamiento de las personas. ¿Es eso posible?

Por lo general, los robots se diseñan con el fin de llevar a cabo varias tareas en numerosos campos de la ciencia y de la vida diaria. En sus tareas, algunos también interaccionan con las personas y serían robots sociales. Estos presentan diseños muy realistas y son muy buenos compañeros de trabajo, de ocio o de ayuda en la vida diaria, pero no tienen las habilidades de interacción típicamente humanas.

Algunos robots como Pepper, Nao o ASIMO han sido sincronizados a nivel verbal y no verbal para alcanzar una IPR cada vez mejor. En cualquier caso, esta sincronización está enfocada en atraer la atención de los usuarios y hacer que estos se impliquen en la interacción.

En cambio, durante una IPR las personas sí adaptan su comportamiento a las respuestas de su interlocutor, aunque sea un robot. Además, las respuestas verbales y no verbales de las personas están influidas no solo por el comportamiento del robot, sino también por sus propios rasgos de personalidad y muchos otros factores. Los rasgos de la personalidad humana reflejan las diferencias individuales en cuanto a patrones de pensar, sentir y actuar. Estos afectan al comportamiento de las personas y a la interpretación que hacen de las respuestas de su interlocutor (incluidos robots).

En principio, los robots no son capaces de tales actuaciones. Para que la IPR sea lo más eficaz posible y realista haría falta que un robot sea capaz de captar y analizar las señales sociales de sus interlocutores de manera coherente y similar a como lo hacen los humanos.

En estudios previos se ha observado una fuerte conexión entre personalidad y comportamientos mostrados de un robot. Es decir, las personas infieren rasgos de personalidad de los robots casi como si fueran personas. Estudios con robots Nao mostraron que los usuarios les perciben diferente en función de la extraversión vs introversión y de su profesión. Los robots con comportamientos de introversión y presentados con la profesión de CEO fueron percibidos como más inteligentes. Lo mismo ocurrió con los robots en roles de profesor y extrovertidos. También se ha observado que los usuarios prefieren interaccionar con robots con una personalidad similar a la de uno mismo.

Si las personas son capaces de inferir rasgos de personalidad de los robots, se hace necesario que también los robots sean capaces de inferir los rasgos de personalidad de los usuarios para mejorar la interacción (y que sea similar a la de humano-humano). Este estudio se basa en el desarrollo de un algoritmo eficiente que mida las dimensiones de personalidad de los usuarios, recogidas en el modelo de personalidad Big Five (extraversión, estabilidad emocional, responsabilidad, apertura a la experiencia y amabilidad).

El problema principal consiste en que inferir rasgos de personalidad supone interpretar muchas señales no verbales. La pregunta es ¿cómo conseguir inferencias basadas en lo no verbal de la manera más fácil posible? Es la parte más esencial pero también la más difícil y en otros estudios se plantean modelos de extracción altamente complejos.

En este estudio el robot que interacciona con personas es un semi-humanoide Pepper fabricado por SoftBank Robotics. Antes de la IPR, cada participante que interacciona con Pepper completa un cuestionario de personalidad. Las primeras IPRs aportan los datos necesarios para que se pueda diseñar y entrenar el modelo (proporcionar datos de entrenamiento y crear el algoritmo de aprendizaje adecuado).

Se utiliza la cámara de Pepper para extraer señales no verbales visuales del interlocutor: movimiento de la cabeza, mirada y energía del movimiento de la parte superior del cuerpo. Las señales no verbales auditivas/vocales (tono, energía y MFCCs —coeficientes para la representación del habla en la percepción auditiva humana—) se extraen de la grabación de audio que Pepper obtiene en la interacción. Para cada señal no verbal se utilizan dos tipos de valores: el valor real obtenido y normalizado (Vn) y un valor binario (Vb, 0 y 1). Por ejemplo, el movimiento de la cabeza de un usuario mientras habla con Pepper toma un x valor. En términos binarios se considera que se da el movimiento de la cabeza si ese valor es mayor que 0 y toma el valor de 1.

El último paso consiste en evaluar el modelo de aprendizaje del robot, un modelo que ha sido entrenado con características no verbales obtenidas de las primeras IPRs junto a los rasgos de personalidad de los usuarios obtenidos en los cuestionarios.

Para probar la eficacia del modelo, 12 participantes interaccionan con Pepper ya entrenado. La distancia de interacción es de 1.5-1.7 metros. Pepper pone preguntas sobre quién es el interlocutor, el tiempo actual, el tiempo/clima y descripciones de la ciudad natal del interlocutor. Aunque pueda, el robot en este caso está programado para no mover la cabeza para evitar la recogida de datos no pertinentes. Esto es relevante porque aleja bastante la IPR de una interacción natural entre personas y puede influir en el comportamiento de los participantes.

Se obtienen diferentes valores de precisión en la inferencia de Pepper sobre la personalidad de los usuarios en función del lenguaje no verbal expuesto en las IPRs. Primero, los peores predictores de personalidad (y el menor acierto de Pepper) fueron el tono de voz y el movimiento de la cabeza.

La mejor señal no verbal para la inferencia de rasgos de personalidad fue la energía del habla. Lo que mejor predijo fue la dimensión de personalidad apertura a la experiencia, seguida de responsabilidad. La energía del movimiento de la parte superior del cuerpo también se presentó como la segunda más útil y sirvió para inferir la dimensión amabilidad. Desde los MFCCs se infirió correctamente las dimensiones responsabilidad, estabilidad emocional y apertura a la experiencia. La mirada solo fue relevante en el caso de inferir la extraversión, aunque el valor de precisión obtenido fue bastante menor que todos los demás valores.

Este último resultado puede deberse a que las personas extrovertidas suelen utilizar muchos gestos al hablar y una voz muy enérgica. En cambio, en este estudio se pidió a los participantes que se sentasen muy cerca de la mesa, lo que pudo impedir una expresión libre del movimiento. Por otro lado, para que una persona mire mucho a los ojos de otra se necesita de mayor implicación bidireccional en la interacción. Con un robot se dificulta esta implicación y esa es la posible razón de los valores tan pequeños del registro de la mirada.

Por último y en cuanto a resultados, los valores binarios de las señales no verbales fallaron bastante en el modelo para inferir rasgos de personalidad. En todas las señales no verbales que predijeron significativamente las dimensiones de personalidad los valores resultantes del modelo binario mostraron una disminución importante de la precisión. Por lo tanto, los autores concluyen que utilizar valores binarios no mejoran la precisión.

Este estudio supone un avance importante, mostrando que es posible crear modelos de aprendizaje para las máquinas que las hagan cada vez más similares a los humanos también a nivel cognitivo. Aún queda mucho por hacer, pero el modelo planteado mostró un rendimiento prometedor.

Si quieres aprender más sobre la comunicación no verbal y su relación con la personalidad no te pierdas nuestro Máster en Comportamiento no verbal o nuestro Experto Universitario en Comunicación no verbal y Personalidad, con becas especiales para los lectores del Club del Lenguaje no Verbal

Comportamiento no verbal para reducir el dolor. Club de Lenguaje No Verbal

Amigos del Club de Lenguaje No Verbal, esta semana presentamos el artículo “Nonverbal communication as a pain reliever: the impacto of physician supportive nonverbal behavior on experimentally induced pain” de Ruben M. A., Blanch-Hartigan D. y Hall J. A. (2016), en el cual se analiza si hay diferencias en cómo se experimenta el dolor en función del tipo de comportamiento no verbal (apoyo vs. no apoyo) de los profesionales de la salud.

Los beneficios del apoyo social para la salud están muy bien establecidos. Se puede apoyar verbalmente, pero también a través de comportamientos no verbales como inclinarse hacia delante, tener contacto visual, sonriendo, utilizando un tono de voz cálido, asentir con la cabeza y otros gestos. Tanto la salud física como la salud mental muestran un mejor funcionamiento cuando se interacciona con personas que expresan comportamientos no verbales de apoyo.

El dolor es una experiencia multidimensional. Desde el modelo de comunicación social del dolor (Craig K. D., 2009) se considera que las interacciones sociales modulan la experiencia de dolor tanto subjetiva como objetiva. El dolor subjetivo hace referencia a pensamientos, sentimientos y sensaciones de dolor informados por un sujeto. En cambio, el dolor objetivo se define en términos de índices de comportamiento de dolor, dónde se incluyen la tolerancia y las expresiones no verbales del dolor. Estas últimas cumplen una función comunicativa con el fin de conseguir apoyo y protección.

Las evidencias más destacables en este campo son varias. Por ejemplo, los sujetos informan de menos dolor y lo toleran más tiempo cuando están presentes personas de apoyo. También se observaron menos expresiones faciales cuando un sujeto experimenta el dolor y está acompañado que si esta solo.  Una revisión sistemática indicó que las interacciones sociales con significado positivo (p. ej. sostener la mano) tienen un impacto beneficioso en los que sufren de dolor. Estos beneficios se resumirían en reducción de la intensidad del dolor y aumento de la tolerancia del dolor.

La hipótesis de este estudio es que interaccionar con médicos que expresan comportamientos no verbales (CNV) de apoyo disminuirá tanto el dolor objetivo como el subjetivo en la medición posterior a las pruebas y dos semanas más tarde.

En el estudio, 205 participantes pasan por un procedimiento experimental de inducción del dolor. El procedimiento utilizado (procedimiento del torniquete) consiste en restringir el flujo sanguíneo en un brazo durante un minuto. A continuación, los sujetos deben hacer 20 ejercicios de empuñadura con la mitad de sus fuerzas. Cuando paran estos interaccionan con un/a médico/a anteriormente grabado con CNV de apoyo o de no apoyo. Cuando el CNV del médico es de apoyo, el profesional sonríe, mira a los ojos, se inclina hacia delante, afirma con la cabeza y se expresa con un tono de voz cálido. Cuando el CNV del médico es de no apoyo, el profesional mira abajo a menudo, mira poco a los ojos, se inclina hacia atrás, utiliza un tono frio de voz y dobla los brazos hacia el pecho frecuentemente.

La medición subjetiva consiste en una evaluación de los sujetos del dolor percibido (escala Likert de 1 a 9) cada 30 segundos a lo largo de los ejercicios y después de dos semanas del experimento. También se utiliza una escala con palabras descriptivas del dolor. La medición objetiva consiste en registrar cuándo los sujetos informan de que quieren parar los ejercicios (tolerancia del dolor). Además, dos investigadores entrenados evalúan el nivel de estrés/dolor de los participantes en función de las señales no verbales de dolor que estos expresan.

Por último, también se evalúan las percepciones de los participantes hacia los médicos que les han atendido. Las dimensiones a evaluar son: dominancia, calidez, competencia y disposición de informar sobre procedimientos e instrucciones. La satisfacción con el profesional se mide después del experimento y dos semanas más tarde.

El CNV de apoyo de los profesionales dieron lugar a percepciones de los sujetos de mayor calidez, mayor disposición a compartir información y menor nivel de dominancia. También se registró mayor satisfacción con los profesionales que apoyan tanto cuando se experimentó el dolor como dos semanas más tarde (recuerdo del dolor).

En cuanto a las medidas objetivas del dolor, se observó mayor tolerancia al dolor cuando el profesional que atendió a los sujetos utilizó una comunicación no verbal de apoyo. Lo mismo ocurrió con las expresiones no verbales de dolor en cara y cuerpo: se registraron menos cuando se recibió atención basada en comunicación no verbal de apoyo.

Las medidas subjetivas del dolor mostraron interacciones entre la comunicación no verbal de apoyo vs. de no apoyo y el género de los participantes. Las mujeres atendidas por un profesional que apoya informaron de mayor nivel del dolor comparado con una atención de no apoyo. Asimismo, los hombres atendidos por un profesional que apoya informaron de menor nivel del dolor comparado con una atención de no apoyo. Estas diferencias también se observaron en el registro de la memoria de dolor (evaluación dos semanas más tarde).

Para este ultimo resultado se destaca que ser mujer y atendida por un profesional que apoya mediante CNV de apoyo no implica sentir más dolor por el apoyo percibido, sino porque el contexto de apoyo ofrece más confianza y empatía y hace que las mujeres se sientan más cómodas para compartir lo que sienten. No obstante, también cabe destacar que en esta explicación se parte de un estereotipo de género, dónde la mujer expresa y responde más a la empatía y al apoyo de otros. No se trata de que los autores explican los resultados basándose en estereotipos de género, sino que hace referencia a que las mujeres adoptan ese rol estereotipado por la cultura, aprendizaje, etc.

En cuanto a la memoria del dolor, se destaca que recordar menos dolor después de la experiencia médica puede favorecer que los sujetos sientan menos ansiedad hacia futuros procedimientos médicos, así como mejor adherencia a los tratamientos. Todos los resultados del estudio deben interpretarse con especial cautela debido a unas condiciones experimentales que impiden la generalización de los resultados a la vida real. La inducción experimental del dolor puede mostrar diferencias importantes con el dolor inducido por problemas de salud o situaciones de riesgo reales. Además, tal como hemos mencionado, el dolor es una experiencia multidimensional y existen múltiples tipos de dolor tanto a nivel objetivo como subjetivo.

Como conclusión, los comportamientos no verbales de apoyo son prácticas que se enseñan en las escuelas y prácticas médicas como componentes de la atención centrada en el cliente. Aun así, las implicaciones diferenciales de mostrar apoyo no verbal no recibieron tanta atención en los estudios científicos como la importancia que parecen tener.

Si eres profesional de la salud y quieres aprender cómo mejorar tu comunicación no verbal con tus pacientes no te pierdas nuestro Máster en Comportamiento no verbal o nuestro Experto Universitario en Comunicación no verbal y Personalidad.

« Siguientes entradas Recientes entradas »