Club del Lenguaje no Verbal

Por cortesía de la Fundación Universitaria Behavior & Law

Cuando la izquierda es “derecha”: lateralidad y conceptos abstractos. Club de Lenguaje No Verbal

Amigos del Club de Lenguaje No Verbal, esta semana presentamos el artículo “When left is ‘right’: motor fluency shapes abstract concepts” de Casasanto D. y Chrysikou G. E. (2011), en el cual se analiza el papel de la fluidez motora en la lateralidad y su impacto en la percepción de conceptos abstractos, como “bueno” y “malo”.

A lo largo de muchas culturas, el lado derecho se ha asociado con cosas buenas y justas. En cambio, el lado izquierdo se ha asociado con cosas malas o prohibidas. Se han hecho tales asociaciones en la Biblia y en las leyes islámicas. También en el lenguaje se muestran asociaciones similares. Por ejemplo, en español se considera tener dos pies izquierdos cuando no se sabe bailar muy bien. Ser la mano derecha de alguien denota que una persona es muy útil y/o de confianza. Podríamos dar ejemplos de múltiples culturas e idiomas en la misma línea.

Las personas también asocian ideas positivas y negativas de manera implícita a la derecha e izquierda, respectivamente, pero no siempre en la misma dirección de las convenciones culturales. Por ejemplo, cuando se pide elegir un producto de dos posibles, los sujetos diestros prefieren los productos situados a la derecha y los zurdos los situados en la izquierda. Este patrón también persiste en elecciones verbales y sin el uso de las manos para elegir.

Los menores de 5 años ya evalúan las cosas del entorno en función de su lateralidad. Por ejemplo, un niño diestro considera que un animal situado a su derecha es más listo y simpático que uno situado a su izquierda.

Fuera del laboratorio, encontramos interesantes ejemplos y uno de ellos en política. En las elecciones de EE. UU. de 2004, ambos candidatos eran diestros. Sus discursos fueron considerados como positivos cuando utilizaron gestos con la mano derecha y negativos cuando hubo gestos con la mano izquierda. En las elecciones de 2008, ambos candidatos eran zurdos. En este caso, se ha observado el patrón de asociación inverso entre valencia del discurso y la lateralidad de los gestos.

Estos ejemplos muestran que la asociación entre derecha, izquierda y valencias (positiva vs negativa) no siempre es algo cultural. Se puede hablar de una hipótesis de especificidad corporal. Esta definiría que diferentes cuerpos reaccionan y piensan de forma diferente, pero predecible en función de la lateralidad, incluso para las ideas altamente abstractas.

Una pregunta importante es por qué los diestros y los zurdos asocian valencia positiva a las cosas situadas en su lado dominante (y negativa a las situadas en el lado opuesto). Hay varias posibilidades. Una es que las personas interaccionan de manera más fluida con las cosas que se sitúan en su lado dominante.

Una interacción fluida supone que, por ejemplo, un diestro escribe mejor con la derecha o corta mejor con una tijera que un zurdo. Se habla de una fluidez perceptiva-motriz que influye en las percepciones del entorno y en las evaluaciones que se hace de sus elementos. Por lo tanto, el lado dominante de una persona puede asociarse en su memoria como algo positivo, debido a que la interacción con el mundo a través de esa parte del cuerpo es fluida, sin dificultades.

Otra opción podría ser que haya diferencias neurológicas determinadas genéticamente entre zurdos y diestros. Las diferencias relevantes en este caso serian en cuanto a un mapeo espacial diferente de lo bueno y de lo malo. Los marcadores neurológicos que provocarían ser diestro o zurdo también podrían crear diferencias en el juicio y evaluación del entorno.

En el estudio se investiga si es la experiencia motora (fluidez) la que genera asociaciones entre espacio y valencia emocional de manera independiente a la lateralidad genética. Por lo tanto, se observa si la lateralidad inducida, debido a cambios a corto y largo plazo en la fluidez motora, puede influir en los juicios de valor sobre el espacio.

En un primer experimento, participan 13 sujetos diestros con hemiparesia derecha (5) e izquierda (8), adquirida tras un accidente cerebrovascular unilateral. Si una hemiparesia afecta a la parte dominante del cuerpo, el sujeto podría seguir valorando como bueno a ese lado del espacio, a pesar de perder movilidad en su lado dominante. En este caso, no sería la fluidez motora la que genera asociaciones, sino la lateralidad adquirida por genética.

En cambio, si la hemiparesia afecta a la parte dominante del cuerpo, el sujeto debe aprender a utilizar la otra parte del cuerpo. Con tiempo y práctica, se consigue fluidez motora en ese lado. Si el sujeto cambia sus evaluaciones del espacio acorde con su nuevo lado dominante (lateralidad inducida) entonces sí sería la fluidez motora la que da lugar a asociaciones entre valencia y espacio.

Los sujetos participan en una tarea a la que tienen que responder verbalmente. En el centro de una pantalla observan la cabeza de dibujo animado. A ambos lados de este se encuentran dos cajas. A los sujetos se les cuenta que el dibujo animado adora las cebras y piensa que son buenas. Asimismo, odia a los pandas y piensan que son malos. La pregunta es ¿en qué caja metería el dibujo animado a cada uno de los dos animales?

Doce de los trece participantes respondieron acorde a su fluidez motora posterior a la hemiparesia. Es decir, contestaron acorde a una lateralidad inducida. Los sujetos con hemiparesia derecha consideraron que el animal bueno debe ir en la caja izquierda y el malo en la derecha. Por lo tanto, a pesar de ser genéticamente diestros, la fluidez adquirida con la izquierda generó una percepción positiva del lado izquierdo del espacio.

Asimismo, los sujetos con hemiparesia izquierda consideraron que la cebra debe ir en la caja derecha y el panda en la izquierda. Estos sujetos, siguieron siendo diestros después del accidente cerebrovascular y siguieron con la misma fluidez motora lateral al adquirir la hemiparesia. Por ello, la valencia positiva se asocia al lado derecho del espacio. Solo un sujeto ha mostrado respuestas opuestas a las esperada según la hipótesis de fluidez motora.

En la muestra utilizada hay mucha variabilidad en cuanto a la localización de las lesiones cerebrales. Por ello, no se puede descartar que sean estos cambios los que explican los resultados, más que una fluidez motora independiente de modificaciones neurológicas.

Para verificar estas ideas se lleva a cabo un segundo experimento. Participan 53 sujetos diestros y sanos. Primero, estos llevan a cabo una tarea de fluidez motora, como fase de entrenamiento. En esta, los sujetos deben poner 84 fichas de dominó encima de una mesa, en localizaciones marcadas.

La tarea se debe hacer con ambas manos a la vez y en un tiempo máximo de 12 minutos. Con cada mano solo se pueden poner las fichas en el lado que se corresponde a la mano; derecha-derecha, izquierda-izquierda. Los sujetos deben llevar a cabo la tarea con un guante de esquí puesto en una de las manos y con el otro atada a la muñeca opuesta. La mitad de los sujetos llevan el guante puesto en la derecha y la mitad en la izquierda.

Después de la fase de entrenamiento, se pide cubrir tres cuestionarios cortos para evitar la asociación entre la primera fase y segunda fase del experimento. En la segunda fase, se lleva a cabo la misma tarea que en el primer experimento.

Recordemos que todos los sujetos eran diestros. De los sujetos que tuvieron el guante puesto en la mano izquierda durante el entrenamiento, un 77% optó por meter el animal bueno en la caja derecha. De los sujetos que tuvieron el guante puesto en la mano derecha en la fase inicial, un 63% optó por meter el animal bueno en la caja izquierda.

Generalmente, se puede decir que la tendencia a asignar el animal bueno a la caja situada en el mismo lado que la mano sin guante fue 5 veces mayor que la tendencia a asignarlo a la caja situada en el mismo lado que la mano con guante. Congruente con los resultados del primer experimento, la fluidez motora reforzada o adquirida en la fase de entrenamiento llevó a una evaluación positiva del hemiespacio correspondiente.

Como conclusión, parece que cambiar la forma en la cual las personas utilizan sus manos puede cambiar sus juicios sobre las ideas abstractas de bueno y malo. Los cambios a largo plazo en la fluidez motora pueden invertir las asociaciones implícitas entre valencia emocional y localización en el espacio. No obstante, con estos hallazgos no se descarta el impacto de posibles factores neurobiológicos innatos que contribuyan al mapeo del espacio según lateralidad.

Si quieres saber más sobre comunicación no verbal visita nuestro Máster en Comportamiento No Verbal y Detección de la Mentira o nuestro Experto Universitario en Comunicación no verbal y Personalidad, con becas especiales para los lectores del Club del Lenguaje no Verbal.

Efectos de la duración de las expresiones faciales en la detección de las microexpresiones. Club de Lenguaje No Verbal

Amigos del Club del Lenguaje No Verbal, esta semana presentamos el artículo “Effects of the duration of expressions on the recognition of microexpressions” de Shen X., Wu Q. y Fu X. (2012), en el cual se investigan los efectos de la duración de las expresiones faciales en el reconocimiento de microexpresiones.

Durante la comunicación interpersonal es importante detectar las emociones de los interlocutores. Algunos individuos pueden suprimir la expresión emocional real y mostrar expresiones faciales engañosas. Hay situaciones en las que el individuo lo hace a propósito, pero también hay situaciones sociales que se rigen por normas que requieren enmascarar o inhibir lo que realmente se siente.

Afortunadamente, por más que se intente fingir, hay expresiones faciales que aparecen cuando se intenta encubrir las emociones reales: las microexpresiones faciales. Estas son movimientos faciales sutiles, involuntarios, inconscientes y de muy corta duración. Son indicadores de las seis emociones básicas: alegría, tristeza, ira, sorpresa, asco y miedo. No son fácil de detectar sin entrenamiento y tanto las habilidades como las herramientas para hacerlo son temas de investigación recurrente.

Aparecen especialmente en situaciones de alto riesgo o alta tensión, en las cuales las personas tienen algo que perder o ganar. Según Ekman, una microexpresión es un reflejo de las intenciones reales de los individuos, especialmente de aquellas hostiles. Por eso, son esenciales en la detección del engaño y de personas potencialmente peligrosas (p. ej. terroristas). En cambio, las macroexpresiones faciales son aquellas que aparecen como expresión de una emoción sin que se intente encubrir o fingir nada.

Sobre la duración de las microexpresiones faciales no hay un consenso, pero sí parece que todas las variaciones encontradas en la investigación duran menos de medio segundo. Las micro y macroexpresiones solo difieren en duración. Como ya hemos mencionado, la razón de su aparición también es distinta, pero si no sabemos de antemano que alguien finge o esconde algo, no se pueden diferenciar más que por su duración.

Por lo tanto, se supone que un sujeto que es capaz de identificar una microexpresión, también será capaz de identificar la macroexpresión pertinente, ya que esta es diferente solo en longitud. En cualquier caso, la detección precisa no implica que los sujetos sean capaces de diferenciar si una expresión facial es micro o macro. Es posible que para las personas 1 segundo de alegría sea lo mismo que 3. Cuando se pueden medir, como en este estudio, las microexpresiones tienen una duración tan corta que la duración que marca la diferencia entre sujetos capaces y no capaces de detectarlas supondría el punto de corte que separa las micro de las macroexpresiones faciales.

Además de evaluar los efectos de la duración de las microexpresiones, los autores también comparan dos paradigmas de detección. Una es BART de Ekman y Friesen (1974), en la cual la expresión de cada emoción de las seis básicas se presenta durante tiempos expresados en milisegundos (procesamiento subconsciente). Autores que han analizado BART constatan que es una herramienta fiable y válida, excepto por la validez ecológica: porque provoca post-imágenes, algo que no ocurre en la vida real. Otro paradigma es METT de Ekman (2003), que corrige esos fallos y que se ha desarrollado como herramienta de entrenamiento.

Se llevan a cabo dos experimentos. En el primero, se exponen a 11 sujetos a imágenes de 40, 120, 200 y 300 milisegundos y se utilizan ambos paradigmas. Antes de las pruebas experimentales, se entrena a los sujetos con imágenes de las 6 emociones básicas de 2 segundos de duración. No se procede con el experimento hasta que no se acierta al 100% en la detección de las expresiones faciales.

Los resultados mostraron un aumento en la precisión de detección de las microexpresiones a la par con el aumento de la duración de las imágenes. Este aumento solo se observó hasta 200 ms. Por lo tanto, se establece que 200 ms es un punto crítico para la detección y definición de las microexpresiones.

Ente paradigmas, solo se han observado diferencias significativas en el acierto cuando las imágenes se presentaron durante 40 ms. Las microexpresiones faciales mejor detectadas fueron las de alegría (86,8%). Los sujetos mostraron confusión entre las microexpresiones de ira y asco, miedo y sorpresa, tristeza y asco.

En el segundo experimento, los sujetos practican la detección de microexpresiones de 40 ms de duración. Uno de los objetivos es comprobar las ideas de Ekman, que informó que el entrenamiento con METT mejora la detección en un 10%. Se verifica una vez más el efecto de la duración de las microexpresiones, utilizándose en este caso 8 niveles de duración (20, 40, 80, 120, 160, 200 y 240).

Primero, doce participantes practican el reconocimiento de microexpresiones faciales. En las imágenes se diferencian claramente dos modelos: hombre y mujer. Segundo, se procede con la fase experimental de reconocimiento de microexpresiones, igual que la del experimento 1, excepto por la mayor diversidad de duraciones.

Se observan diferencias en la detección según la duración y el paradigma utilizado hasta 160 ms (excluido este valor). A partir de 200 ms se observa que las medias de acierto en la detección según paradigmas casi se superponen. En este segundo experimento, la emoción mejor detectada es la sorpresa, seguida de la alegría. En cambio, la expresión del miedo se presenta como la más difícil de detectar.

Los efectos de la práctica se analizan en ambos experimentos. Se observa que los sujetos sí mejoran en la detección de microexpresiones con la práctica. Asimismo, no se observan diferencias entre paradigmas en la tendencia de aumento de la precisión por la práctica. Lo más destacable es que se observa que con una cantidad considerable de práctica, los sujetos son capaces de mejorar la detección incluso de microexpresiones con duraciones menores de 40 ms.

Este valor es un límite definido por Ekman. No obstante, en este experimento se observa que la práctica puede beneficiar mucho más de lo que se creía. El efecto de la práctica implica que la percepción de las expresiones faciales humanas es muy rápida y puede ser moldeada por la experiencia.

En términos generales, los paradigmas utilizados muestran resultados diferenciales en la detección en microexpresiones de duraciones muy cortas. Sin práctica, las diferencias entre sujetos se observan en la detección de microexpresiones de menos de 40 ms. En cambio, con práctica, las diferencias se observan en microexpresiones de hasta 160 ms. Aunque las medias de acierto sean mayores en el paradigma BART, varían menos con la duración. En cambio, las medias de acierto de METT presentan más variabilidad. Por ello, los autores consideran que METT es más fiable debido a que muestra más sensibilidad a los cambios en duración.

Como bien sabemos, las microexpresiones se usan en la detección del engaño. No obstante, son objeto de debate y amplias críticas en cuanto a su aplicación real. En cualquier caso, ninguna herramienta, por más útil que parezca, no debe ser utilizada como única vía para detectar el engaño.

Si un sujeto intenta encubrir una emoción, sin una medición de la duración de sus expresiones faciales puede ser imposible detectar si aquello que expresa es una micro o macroexpresión. Aunque la práctica sí mejore la detección de microexpresiones, ¿cómo podría saber un observador que aquello que observa dura menos de 200 ms? Las herramientas diseñadas para ello, cada vez más avanzadas, pueden ser la respuesta.

Si quieres saber más sobre el fascinante mundo de las microexpresiones faciales y la detección del engaño visita nuestro Máster en Comportamiento No Verbal y Detección de la Mentira o nuestro Experto Universitario en Comunicación no verbal y Personalidad, con becas especiales para los lectores del Club del Lenguaje no Verbal.

¿Podría un robot darse cuenta de si eres responsable, extrovertido o amable? Club de Lenguaje No Verbal

Amigos del Club de Lenguaje No Verbal, esta semana presentamos el artículo “Nonverbal behavior cue for recongnizing human personality traits in human-robot social interaction” de Shen Z., Elibol A. y Young Chong N. (2019), en el cual se comprueba la posibilidad de que un robot sea capaz de inferir rasgos de personalidad de las personas con las que interactúa a partir de señales no verbales.

En paralelo a los impresionantes avances en robótica, cada vez más investigadores se enfocaron en mejorar la calidad de la interacción entre personas y robots (IPR). Estas mejoras persiguen dotar a los robots con habilidades para entender intenciones, emociones y otros aspectos del comportamiento de las personas. ¿Es eso posible?

Por lo general, los robots se diseñan con el fin de llevar a cabo varias tareas en numerosos campos de la ciencia y de la vida diaria. En sus tareas, algunos también interaccionan con las personas y serían robots sociales. Estos presentan diseños muy realistas y son muy buenos compañeros de trabajo, de ocio o de ayuda en la vida diaria, pero no tienen las habilidades de interacción típicamente humanas.

Algunos robots como Pepper, Nao o ASIMO han sido sincronizados a nivel verbal y no verbal para alcanzar una IPR cada vez mejor. En cualquier caso, esta sincronización está enfocada en atraer la atención de los usuarios y hacer que estos se impliquen en la interacción.

En cambio, durante una IPR las personas sí adaptan su comportamiento a las respuestas de su interlocutor, aunque sea un robot. Además, las respuestas verbales y no verbales de las personas están influidas no solo por el comportamiento del robot, sino también por sus propios rasgos de personalidad y muchos otros factores. Los rasgos de la personalidad humana reflejan las diferencias individuales en cuanto a patrones de pensar, sentir y actuar. Estos afectan al comportamiento de las personas y a la interpretación que hacen de las respuestas de su interlocutor (incluidos robots).

En principio, los robots no son capaces de tales actuaciones. Para que la IPR sea lo más eficaz posible y realista haría falta que un robot sea capaz de captar y analizar las señales sociales de sus interlocutores de manera coherente y similar a como lo hacen los humanos.

En estudios previos se ha observado una fuerte conexión entre personalidad y comportamientos mostrados de un robot. Es decir, las personas infieren rasgos de personalidad de los robots casi como si fueran personas. Estudios con robots Nao mostraron que los usuarios les perciben diferente en función de la extraversión vs introversión y de su profesión. Los robots con comportamientos de introversión y presentados con la profesión de CEO fueron percibidos como más inteligentes. Lo mismo ocurrió con los robots en roles de profesor y extrovertidos. También se ha observado que los usuarios prefieren interaccionar con robots con una personalidad similar a la de uno mismo.

Si las personas son capaces de inferir rasgos de personalidad de los robots, se hace necesario que también los robots sean capaces de inferir los rasgos de personalidad de los usuarios para mejorar la interacción (y que sea similar a la de humano-humano). Este estudio se basa en el desarrollo de un algoritmo eficiente que mida las dimensiones de personalidad de los usuarios, recogidas en el modelo de personalidad Big Five (extraversión, estabilidad emocional, responsabilidad, apertura a la experiencia y amabilidad).

El problema principal consiste en que inferir rasgos de personalidad supone interpretar muchas señales no verbales. La pregunta es ¿cómo conseguir inferencias basadas en lo no verbal de la manera más fácil posible? Es la parte más esencial pero también la más difícil y en otros estudios se plantean modelos de extracción altamente complejos.

En este estudio el robot que interacciona con personas es un semi-humanoide Pepper fabricado por SoftBank Robotics. Antes de la IPR, cada participante que interacciona con Pepper completa un cuestionario de personalidad. Las primeras IPRs aportan los datos necesarios para que se pueda diseñar y entrenar el modelo (proporcionar datos de entrenamiento y crear el algoritmo de aprendizaje adecuado).

Se utiliza la cámara de Pepper para extraer señales no verbales visuales del interlocutor: movimiento de la cabeza, mirada y energía del movimiento de la parte superior del cuerpo. Las señales no verbales auditivas/vocales (tono, energía y MFCCs —coeficientes para la representación del habla en la percepción auditiva humana—) se extraen de la grabación de audio que Pepper obtiene en la interacción. Para cada señal no verbal se utilizan dos tipos de valores: el valor real obtenido y normalizado (Vn) y un valor binario (Vb, 0 y 1). Por ejemplo, el movimiento de la cabeza de un usuario mientras habla con Pepper toma un x valor. En términos binarios se considera que se da el movimiento de la cabeza si ese valor es mayor que 0 y toma el valor de 1.

El último paso consiste en evaluar el modelo de aprendizaje del robot, un modelo que ha sido entrenado con características no verbales obtenidas de las primeras IPRs junto a los rasgos de personalidad de los usuarios obtenidos en los cuestionarios.

Para probar la eficacia del modelo, 12 participantes interaccionan con Pepper ya entrenado. La distancia de interacción es de 1.5-1.7 metros. Pepper pone preguntas sobre quién es el interlocutor, el tiempo actual, el tiempo/clima y descripciones de la ciudad natal del interlocutor. Aunque pueda, el robot en este caso está programado para no mover la cabeza para evitar la recogida de datos no pertinentes. Esto es relevante porque aleja bastante la IPR de una interacción natural entre personas y puede influir en el comportamiento de los participantes.

Se obtienen diferentes valores de precisión en la inferencia de Pepper sobre la personalidad de los usuarios en función del lenguaje no verbal expuesto en las IPRs. Primero, los peores predictores de personalidad (y el menor acierto de Pepper) fueron el tono de voz y el movimiento de la cabeza.

La mejor señal no verbal para la inferencia de rasgos de personalidad fue la energía del habla. Lo que mejor predijo fue la dimensión de personalidad apertura a la experiencia, seguida de responsabilidad. La energía del movimiento de la parte superior del cuerpo también se presentó como la segunda más útil y sirvió para inferir la dimensión amabilidad. Desde los MFCCs se infirió correctamente las dimensiones responsabilidad, estabilidad emocional y apertura a la experiencia. La mirada solo fue relevante en el caso de inferir la extraversión, aunque el valor de precisión obtenido fue bastante menor que todos los demás valores.

Este último resultado puede deberse a que las personas extrovertidas suelen utilizar muchos gestos al hablar y una voz muy enérgica. En cambio, en este estudio se pidió a los participantes que se sentasen muy cerca de la mesa, lo que pudo impedir una expresión libre del movimiento. Por otro lado, para que una persona mire mucho a los ojos de otra se necesita de mayor implicación bidireccional en la interacción. Con un robot se dificulta esta implicación y esa es la posible razón de los valores tan pequeños del registro de la mirada.

Por último y en cuanto a resultados, los valores binarios de las señales no verbales fallaron bastante en el modelo para inferir rasgos de personalidad. En todas las señales no verbales que predijeron significativamente las dimensiones de personalidad los valores resultantes del modelo binario mostraron una disminución importante de la precisión. Por lo tanto, los autores concluyen que utilizar valores binarios no mejoran la precisión.

Este estudio supone un avance importante, mostrando que es posible crear modelos de aprendizaje para las máquinas que las hagan cada vez más similares a los humanos también a nivel cognitivo. Aún queda mucho por hacer, pero el modelo planteado mostró un rendimiento prometedor.

Si quieres aprender más sobre la comunicación no verbal y su relación con la personalidad no te pierdas nuestro Máster en Comportamiento no verbal o nuestro Experto Universitario en Comunicación no verbal y Personalidad, con becas especiales para los lectores del Club del Lenguaje no Verbal

Comportamiento no verbal para reducir el dolor. Club de Lenguaje No Verbal

Amigos del Club de Lenguaje No Verbal, esta semana presentamos el artículo “Nonverbal communication as a pain reliever: the impacto of physician supportive nonverbal behavior on experimentally induced pain” de Ruben M. A., Blanch-Hartigan D. y Hall J. A. (2016), en el cual se analiza si hay diferencias en cómo se experimenta el dolor en función del tipo de comportamiento no verbal (apoyo vs. no apoyo) de los profesionales de la salud.

Los beneficios del apoyo social para la salud están muy bien establecidos. Se puede apoyar verbalmente, pero también a través de comportamientos no verbales como inclinarse hacia delante, tener contacto visual, sonriendo, utilizando un tono de voz cálido, asentir con la cabeza y otros gestos. Tanto la salud física como la salud mental muestran un mejor funcionamiento cuando se interacciona con personas que expresan comportamientos no verbales de apoyo.

El dolor es una experiencia multidimensional. Desde el modelo de comunicación social del dolor (Craig K. D., 2009) se considera que las interacciones sociales modulan la experiencia de dolor tanto subjetiva como objetiva. El dolor subjetivo hace referencia a pensamientos, sentimientos y sensaciones de dolor informados por un sujeto. En cambio, el dolor objetivo se define en términos de índices de comportamiento de dolor, dónde se incluyen la tolerancia y las expresiones no verbales del dolor. Estas últimas cumplen una función comunicativa con el fin de conseguir apoyo y protección.

Las evidencias más destacables en este campo son varias. Por ejemplo, los sujetos informan de menos dolor y lo toleran más tiempo cuando están presentes personas de apoyo. También se observaron menos expresiones faciales cuando un sujeto experimenta el dolor y está acompañado que si esta solo.  Una revisión sistemática indicó que las interacciones sociales con significado positivo (p. ej. sostener la mano) tienen un impacto beneficioso en los que sufren de dolor. Estos beneficios se resumirían en reducción de la intensidad del dolor y aumento de la tolerancia del dolor.

La hipótesis de este estudio es que interaccionar con médicos que expresan comportamientos no verbales (CNV) de apoyo disminuirá tanto el dolor objetivo como el subjetivo en la medición posterior a las pruebas y dos semanas más tarde.

En el estudio, 205 participantes pasan por un procedimiento experimental de inducción del dolor. El procedimiento utilizado (procedimiento del torniquete) consiste en restringir el flujo sanguíneo en un brazo durante un minuto. A continuación, los sujetos deben hacer 20 ejercicios de empuñadura con la mitad de sus fuerzas. Cuando paran estos interaccionan con un/a médico/a anteriormente grabado con CNV de apoyo o de no apoyo. Cuando el CNV del médico es de apoyo, el profesional sonríe, mira a los ojos, se inclina hacia delante, afirma con la cabeza y se expresa con un tono de voz cálido. Cuando el CNV del médico es de no apoyo, el profesional mira abajo a menudo, mira poco a los ojos, se inclina hacia atrás, utiliza un tono frio de voz y dobla los brazos hacia el pecho frecuentemente.

La medición subjetiva consiste en una evaluación de los sujetos del dolor percibido (escala Likert de 1 a 9) cada 30 segundos a lo largo de los ejercicios y después de dos semanas del experimento. También se utiliza una escala con palabras descriptivas del dolor. La medición objetiva consiste en registrar cuándo los sujetos informan de que quieren parar los ejercicios (tolerancia del dolor). Además, dos investigadores entrenados evalúan el nivel de estrés/dolor de los participantes en función de las señales no verbales de dolor que estos expresan.

Por último, también se evalúan las percepciones de los participantes hacia los médicos que les han atendido. Las dimensiones a evaluar son: dominancia, calidez, competencia y disposición de informar sobre procedimientos e instrucciones. La satisfacción con el profesional se mide después del experimento y dos semanas más tarde.

El CNV de apoyo de los profesionales dieron lugar a percepciones de los sujetos de mayor calidez, mayor disposición a compartir información y menor nivel de dominancia. También se registró mayor satisfacción con los profesionales que apoyan tanto cuando se experimentó el dolor como dos semanas más tarde (recuerdo del dolor).

En cuanto a las medidas objetivas del dolor, se observó mayor tolerancia al dolor cuando el profesional que atendió a los sujetos utilizó una comunicación no verbal de apoyo. Lo mismo ocurrió con las expresiones no verbales de dolor en cara y cuerpo: se registraron menos cuando se recibió atención basada en comunicación no verbal de apoyo.

Las medidas subjetivas del dolor mostraron interacciones entre la comunicación no verbal de apoyo vs. de no apoyo y el género de los participantes. Las mujeres atendidas por un profesional que apoya informaron de mayor nivel del dolor comparado con una atención de no apoyo. Asimismo, los hombres atendidos por un profesional que apoya informaron de menor nivel del dolor comparado con una atención de no apoyo. Estas diferencias también se observaron en el registro de la memoria de dolor (evaluación dos semanas más tarde).

Para este ultimo resultado se destaca que ser mujer y atendida por un profesional que apoya mediante CNV de apoyo no implica sentir más dolor por el apoyo percibido, sino porque el contexto de apoyo ofrece más confianza y empatía y hace que las mujeres se sientan más cómodas para compartir lo que sienten. No obstante, también cabe destacar que en esta explicación se parte de un estereotipo de género, dónde la mujer expresa y responde más a la empatía y al apoyo de otros. No se trata de que los autores explican los resultados basándose en estereotipos de género, sino que hace referencia a que las mujeres adoptan ese rol estereotipado por la cultura, aprendizaje, etc.

En cuanto a la memoria del dolor, se destaca que recordar menos dolor después de la experiencia médica puede favorecer que los sujetos sientan menos ansiedad hacia futuros procedimientos médicos, así como mejor adherencia a los tratamientos. Todos los resultados del estudio deben interpretarse con especial cautela debido a unas condiciones experimentales que impiden la generalización de los resultados a la vida real. La inducción experimental del dolor puede mostrar diferencias importantes con el dolor inducido por problemas de salud o situaciones de riesgo reales. Además, tal como hemos mencionado, el dolor es una experiencia multidimensional y existen múltiples tipos de dolor tanto a nivel objetivo como subjetivo.

Como conclusión, los comportamientos no verbales de apoyo son prácticas que se enseñan en las escuelas y prácticas médicas como componentes de la atención centrada en el cliente. Aun así, las implicaciones diferenciales de mostrar apoyo no verbal no recibieron tanta atención en los estudios científicos como la importancia que parecen tener.

Si eres profesional de la salud y quieres aprender cómo mejorar tu comunicación no verbal con tus pacientes no te pierdas nuestro Máster en Comportamiento no verbal o nuestro Experto Universitario en Comunicación no verbal y Personalidad.

¿Sabemos detectar emociones fingidas? Club de Lenguaje No Verbal

Amigos del Club de Lenguaje No Verbal, esta semana presentamos el artículo “When do we see that others misrepresent how they feel? Detecting deception from emotional faces with direct and indirect measures” de Stel M. y van Dijk E. (2018), en el cual se analiza la capacidad de las personas para detectar cuando alguien finge sus emociones, sean positivas o negativas.

Más de una vez expresamos emociones que no reflejan realmente qué sentimos. Disimulamos una sonrisa cuando estamos tristes o cuando alguien nos cae mal. Disimulamos tristeza cuando queremos convencer a alguien que sentimos haber echo algo mal, aunque no lo creemos de verdad.

La expresión emocional consiste, en otras, en mostrar señales no verbales que indican a los demás las emociones que sentimos. Estas señales no verbales son parte de la comunicación no verbal y muchas de ellas son espontáneas y difícil de fingir, especialmente en términos de microexpresiones faciales.

Detectar si las emociones que otros expresan son reales no solo es importante en el contexto de la vida cotidiana, sino también en contextos más profesionales (p. ej. cuando se negocia) o en contextos forenses (p. ej. para detectar mentiras). En este último caso, las evidencias muestran que las personas no son muy buenas en detectar el engaño.

Las posibles razones son la tendencia de las personas a confiar más que desconfiar o las creencias incorrectas y basadas en mitos en cuanto a las señales que indican engaño. Por ejemplo, solemos creer que el que miente debe mostrar signos de nerviosismo, evitar mirar a los ojos, etc. Pero, como ya hemos expuesto en otras publicaciones, muchas señales de engaño son bastante diferentes de las creencias populares. Otros autores consideran que la poca detección del engaño que se consigue en la población normal se debe al hecho de basarse en señales no verbales que predicen muy débilmente el engaño.

En cuanto a la detección de emociones, las evidencias son mixtas, aunque se tiende también hacia una detección muy poco por encima del azar. Curiosamente, parece que de lo que más capaces somos es de detectar la sonrisa Duchenne de la no Duchenne, justo una señal de comunicación no verbal y emocional que se puede fingir más fácilmente que otras.

En los estudios previos sobre la discriminación entre emociones genuinas y no genuinas y detección del engaño se han utilizado muy poco las medidas indirectas. Es decir, se suele preguntar a los sujetos directamente si creen que los sujetos bajo análisis engañan, sea en cuanto a señales de comunicación no verbal, verbal o emocional (medidas directas).

En cambio, en este estudio se utilizan tanto medidas directas como indirectas. Los autores se basan en la hipótesis de que una medida indirecta que requiera a los sujetos elegir qué emoción siente un determinado sujeto podría mostrar un rendimiento más objetivo en cuanto a la capacidad natural de las personas de detectar el engaño.

Se llevan a cabo dos estudios similares. En ambos, los participantes observan unos videos previamente creados, en los cuales una persona le cuenta a otra algo que ha visto, expresando señales emocionales positivas o negativas. Se presentan cuatro tipos de videos: con sujetos que sienten y expresan emociones positivas o negativas y con sujetos que sienten una de estas emociones, pero expresan las opuestas. En el primer estudio, la muestra de videos se compone de 8 y, en el segundo, de 12 videos.

En la medición directa, los participantes evalúan, a través de una escala Likert de 7 puntos, en qué medida creen que los sujetos de los videos dicen la verdad. En el segundo estudio, se añade la misma evaluación, pero sobre la mentira. En la medida indirecta, los participantes deben elegir una emoción de varias, eligiendo a aquella que creen que el sujeto del video realmente siente. En el primer estudio se incluyen ítems relativos a 12 tipos de expresión emocional (tensión, entusiasmo, agrado, preocupación, ira, enfado, confusión, alegría, tristeza, irascibilidad, felicidad, monotonía/melancolía). En el segundo estudio se añaden 6, más relacionadas con el engaño (miedo, asustado, ansiosos, nervioso, culpable, arrepentido o que muestra autocastigo/penitencia).

Dado que la finalidad de haber hecho dos estudios similares es verificar la replicabilidad de los resultados, los autores consiguen este objetivo. En ambos estudios, los participantes detectaron más el engaño cuando los sujetos de los videos expresaban emociones negativas. Estos resultados son consistentes con las evidencias previas sobre la dificultad de detectar el engaño a partir de la expresión de señales no verbales positivos, tales como indicadoras de alegría, satisfacción o entusiasmo.

Una explicación posible de una mejor detección del engaño a partir de emociones negativas (aunque no muy respaldada por las evidencias previas) se daría en términos de estado de ánimo. Por lo general, tanto el estado de ánimo positivo como negativo impacta de una manera particular en el procesamiento de la información y, por lo tanto, en cómo nos expresamos verbal y no verbalmente.

Las personas con un estado de ánimo positivo suelen basarse más en heurísticos. En cambio, las personas con un estado de ánimo más negativo suelen comprometerse en un procesamiento más cauteloso y que conlleva más esfuerzo. Probablemente, de aquí se deriva la idea de que una persona triste reflexiona más y coge mas perspectiva de las cosas, a diferencia de una persona feliz que se enfoca más en las experiencias y menos en el análisis de estas. Es posible que fingir emociones negativas sea mucho más complejo y, por tanto, más fácil detectar cuando se fingen.

Este efecto de las emociones negativas como mejores indicadores de engaño o veracidad se observó solo a través de las medidas indirectas. Cuando se pidió directamente evaluar (medidas directas) si un sujeto observado miente o dice la verdad, no hubo una buena detección independientemente del tipo de emociones expresadas. Una vez más, estos resultados diferenciales en cuanto a medidas directas versus indirectas son consistentes con otros estudios en los cuales las medidas directas de detección del engaño no mostraron un buen rendimiento de los participantes.

Se plantea que las medidas indirectas ofrecen mejor detección del engaño porque en estas se pide explícitamente prestar atención a las emociones. Esto hace que las personas se fijen más en qué sienten y expresan los sujetos de los videos y se facilita detectar discrepancias entre una y otra. También puede ser que los participantes se hayan fijado en señales visuales y afectivas que, posiblemente, difieran entre mentirosos y sinceros.

Como conclusión, la capacidad de distinguir emociones veraces de las simuladas depende tanto de la valencia emocional —negativa vs. positiva—, como del procedimiento de medición —directo vs. indirecto—.

Si quieres saber más sobre la comunicación no verbal, los indicadores no verbales de emoción y la detección de la mentira, no te pierdas nuestro Experto Universitario en Comunicación no verbal y Personalidad   con becas especiales para los lectores del Club del Lenguaje no Verbal.

« Siguientes entradas