Club del Lenguaje no Verbal

Por cortesía de la Fundación Universitaria Behavior & Law

Categoría: Comunicación social (página 1 de 22)

La voz es un reflejo de nuestras emociones. Club de Lenguaje No Verbal

Amigos del Club de Lenguaje No Verbal, esta semana presentamos el artículo “The primacy of categories in the recognition of 12 emotions in speech prosody across two cultures” de Cowen A. S., Laukka P., Elfenbein H. A., Liu R. y Keltner D. (2019), en el cual se analiza el reconocimiento emocional a través de la voz y el significado compartido entre dos culturas.

El reconocimiento de las emociones es fundamental para las interacciones sociales. Los adultos, a través de cara y voz, muestran brevemente emociones que guían a sus descendientes a través del entorno. Estas muestras breves también son importantes para negociar del status, generar confianza o discernir entre afectos y compromisos. Podríamos enumerar decenas de funciones de las emociones. Y no hay dudas sobre la utilidad de ser capaces de reconocerlas en nosotras mismas y en otras personas.

Por tanto, la expresión y el reconocimiento emocional ocupan un lugar central en la vida social. El reconocimiento humano de las expresiones faciales y vocales emocionales se procesa en regiones específicas del cerebro. Este proceso se preserva de manera similar a lo largo de múltiples culturas. Además, tiene a su homologo evolutivo en múltiples especies de primates y otros mamíferos.

Alrededor de los dos años, una persona ya es capaz de identificar 5 emociones positivas a partir de vocalizaciones emocionales. Las personas llegan a poder expresar unas 15 emociones diferentes a través de la voz. La clave de la expresión vocal emocional parece ser la prosodia.

La prosodia es un componente de gran importancia del comportamiento no verbal. Es un patrón no léxico de melodía, ritmo y timbre que se da en el discurso. Añade a las palabras sensaciones emocionales y actitudes hacia aquello de lo que se habla. Diversos estudios han sugerido que a través de la prosodia se pueden expresar hasta 12 categorías emocionales. Además, también puede añadir al mensaje vocal características afectivas más amplias, tales como la valencia o el arousal.

Por ejemplo, cuando alguien nos saluda con un simple hola, somos capaces de detectar cierta valencia emocional (positiva vs negativa). Aun sin ver la cara del emisor, no nos suena igual un hola corto y rápido que un holaaa.

El estudio pretende responder a diferentes cuestiones en cuanto a la relación entre prosodia y reconocimiento emocional. Una es cómo las variaciones en prosodia sirven de representaciones emocionales. Otra es cuántas emociones diferentes se reconocen a través de la prosodia en la vida diaria. Asimismo, ¿reconocemos emociones discretas, continuas o categorías más amplias de afecto (p. ej. valencia o arousal).

En el estudio participan 2.435 sujetos indios y americanos. Cada uno de ellos analiza al menos 30 muestras de discurso. Para el estudio se utilizan 2.519 muestras de discurso seleccionados del corpus VENEC. Las muestras vocales fueron creadas por 100 actores de 5 culturas angloparlantes. Hay dos frases diferentes, cada una con una expresión emocional distinta: Te voy a decir una cosa y Eso es exactamente lo que pasó.

Una parte de la muestra asignó una de 30 categorías emocionales a cada audio (p. ej. desprecio, miedo o adoración). La otra parte de la muestra de participantes no asignó emociones, sino características afectivas (p. ej. dominancia, certeza, seguridad). Así, para el análisis se obtuvieron más un de un millón de evaluaciones voz-emoción.

El uso de participantes de dos culturas distintas, así como de muestras vocales creadas por actores de diferentes países angloparlantes permite analizar las representaciones emocionales a través de la prosodia a nivel inter-cultural.

Los participantes determinaron que la capacidad de detectar emociones a partir de la prosodia se extiende a 22 emociones diferentes. Cinco de ellas fueron detectadas por más de la mitad de los sujetos: diversión, ira, miedo, deseo y tristeza. Asimismo, otras cinco fueron detectadas por un tercio de los sujetos: adoración, confusión, distrés, dolor y alivio.

Dadas las diferencias culturales, sería lógico que la categorización psicológica de las emociones se construya similarmente entre culturas en base a afectos centrales. Por eso, se esperaba que el reconocimiento emocional compartido culturalmente se observe mejor en escala de afectos, tales como arousal. Por ejemplo, personas de EE. UU. y de India coincidirían más que un audio expresa alta activación y no miedo. No obstante, la detección de categorías emocionales se mostró a ser lo compartido entre culturas y no los afectos.

Así, tanto las emociones básicas (p. ej. ira o miedo), como las categorías más complejas (p. ej. amor romántico) se vieron compartidas entre culturas. Ni siquiera la valencia emocional es tan compartida por encima de las categorías emocionales. Un resultado un tanto curioso, siendo considerada la valencia cómo la base de construcción de nuestro mundo emocional.

Por tanto, parece que los afectos se construyen en base a las categorías emocionales y no al revés. Esto se confirma entre los sujetos americanos e indios también de otra manera. Se observó que el reconocimiento de emociones de la muestra india predecía qué emociones va a reconocer la muestra americana. Y no ocurrió lo mismo con predicciones emoción-afecto, ni con predicciones afecto-afecto.

Las categorías emocionales comparten aspectos semánticos entre sí. Por ejemplo, el temor y el miedo podrían ser similares y distintas a la vez. Comparten significado y, por eso, podrían incluirse (o no) en el mismo patrón de reconocimiento o dimensión emocional. Esto ocurre con todas las emociones.

Detectar 22 emociones a través de la prosodia en realidad se puede resumir en menor número de dimensiones. Dicho de otro modo, las variaciones en prosodia para expresar emociones se basan en esas dimensiones. Estas últimas son en realidad las que se comparten entre culturas. Las que marcan las diferencias culturales en el reconocimiento emocional son algo así como matices de significado.

En el estudio se ha observado un reconocimiento emocional compartido a lo largo de 12 dimensiones de la prosodia emocional. Así, el dolor comparte la misma dimensión con la tristeza. El amor romántico la comparte con el deseo. Las 12 dimensiones detectadas son: adoración, diversión, ira, admiración, confusión, distrés, miedo, desprecio, deseo, interés, tristeza y decepción.

Las categorías emocionales podrían ser discretas o continuas. Hay teorías que postulan que los límites de una emoción son claras. Al contrario de estas ideas, en el estudio se ha observado que la prosodia emocional se distribuye a lo largo de gradientes emocionales. Los limites son más bien difuminados. Por ejemplo, hay gradientes desde la tristeza al distrés o desde el interés hasta la confusión.

Este hallazgo conlleva implicaciones para el estudio de las emociones. Los correlatos fisiológicos y neurales u otros indicadores pueden indicar patrones continuos de expresión y activación y no emociones discretas. Asimismo, cuando dos personas no coinciden en el significado de la prosodia emocional, puede deberse a estos gradientes y no a la falta de un significado compartido.

Los hallazgos del estudio se integran en el concepto de espacio semántico del reconocimiento de las emociones. Este espacio semántico está cargado de significado emocional. Como se ha observado en el estudio, en la prosodia hay un espacio semántico compartido entre culturas. Por lo menos, entre las culturas americana e india.

El espacio semántico tiene tres propiedades y son las estudiadas aquí. Primero, su conceptualización, qué categorías emocionales o escalas de afecto contribuyen al reconocimiento emocional a través de la prosodia. Segundo, su dimensionalidad, cuántas emociones diferentes se detectan en la prosodia. Y, tercero, la distribución de estados, cuál es la naturaleza de los límites entre categorías emocionales.

De manera general, los hallazgos de este estudio encajan en dos interpretaciones generales posibles. Una es que somos capaces de detectar de manera innata las variedades de la prosodia emocional. Otra es que esta capacidad sea adquirida. En ambos casos hay una primacía de las categorías emocionales y sus indicadores por encima de los afectos. En cualquier caso, no podemos hablar de universalidad, dado que el estudio se centra en muestras de EE. UU. e India.

Si quieres saber más sobre el comportamiento no verbal y la gran utilidad de conocerlo para nuestras profesiones y para la vida cotidiana, visita nuestro Máster en Comportamiento No Verbal y Detección de la Mentira o nuestro Experto Universitario en Comunicación no verbal y Personalidad, con becas especiales para los lectores del Club del Lenguaje no Verbal.

Expresión emocional a través del movimiento corporal. Club de Lenguaje No Verbal

Amigos del Club de Lenguaje No Verbal, esta semana presentamos el artículo “Ambiguous bodies: the role of displayed arousal in emotion [mis]perception” de Reynolds R. M., Novotny E., Lee J., Roth D. y Bente G. (2019), en el cual se pretende ampliar el conocimiento sobre los procesos perceptivos que llevan a inferencias emocionales a partir de expresiones no verbales mediante el movimiento corporal.

Detectar las emociones de los demás es algo esencial en las interacciones sociales. Por un lado, sirven de explicación para comportamientos pasados y presentes. Por otro lado, guían nuestras expectativas en cuanto a acciones futuras. Así, inferimos emociones que otros sienten y expresan y esas inferencias (junto a otros factores) moldean nuestras respuestas sociales.

Las inferencias emocionales se basan fuertemente en las señales no verbales. El movimiento corporal expresivo (MCE) es una fuente de señales no verbales muy amplia. Por tanto, captamos señales no verbales del EMC y con ellas (además de otras) hacemos inferencias emocionales. No obstante, es difícil determinar de forma exacta qué aspectos del MCE son más cruciales en estas inferencias.

El papel del MCE en el reconocimiento de emociones está aún en debate. Una de las razones es la poca claridad sobre la relación entre la intensidad y la ambigüedad de las expresiones emocionales. Es difícil considerar que haya expresiones emocionales corporales muy específicas para cada emoción. Si fuera el caso, la inferencia sería más fácil. Pero sí hay indicadores emocionales del MCE, aunque la intensidad y la ambigüedad impactan en la detección de estas.

Similarmente, las expresiones faciales emocionales se consideran por algunos autores como universales. En cambio, cuando se evalúa la capacidad de las personas en detectarlas, esa universalidad puede ponerse en duda hasta cierto punto. A mayor intensidad de las expresiones emocionales, más acierto en la detección y menos ambigüedad. No obstante, las señales no verbales no siempre vienen acompañadas de alta intensidad.

Un aspecto que indica la intensidad emocional es el nivel de activación (arousal) mostrado (o expresado). Por ejemplo, alguien puede detectar que hablamos rápido, nuestra respiración acelerada o movimientos gestuales rápidos. Junto a señales contextuales, como que hemos ganado a la lotería, se puede inferir que estamos felices.

Para entender la función del MCE, es de interés averiguar qué aspectos de este informan sobre el nivel de activación. Y de haber indicadores de movimiento que informar sobre el arousal, ¿qué papel juega la ambigüedad?

Lo que siempre interesa es que los juicios, inferencias y conclusiones que extraemos del comportamiento de los demás sean ciertas. En estos procesos participan sesgos, esquemas perceptivos, habilidades y otros aspectos que difieren entre individuos.

Estas diferencias dan lugar a percepciones diferentes de lo que nos rodea. La ambigüedad también puede deberse a estas diferencias internas entre individuos. Por tanto, si muchas personas no interpretan igual una señal no verbal, puede que esta sea ambigua y no específica, puede ser por diferencias interindividuales o por ambas cosas.

Para capturar señales no verbales integrada en el MCE, los autores del estudio utilizan tecnología de detección de movimientos. Con esta generan animaciones que replican el movimiento humano. Así, 363 sujetos observan videos animados de movimientos corporales de ira o alegría. La observación de animaciones permite eliminar estímulos contextuales, indicadores de personalidad o expresiones faciales que impacten en las inferencias.

Los sujetos son asignados a una de cuatro condiciones. Deben evaluar el nivel de activación que captan de los movimientos corporales (1ª), la valencia emocional (positiva o negativa; 2ª), la emoción específica (enfado o alegría, 3ª) y una combinación de calificaciones simultaneas (4ª).

 Hay varios resultados destacables. Los sujetos mostraron una mejor detección de las expresiones de enfado. Incluso se ha inferido incorrectamente el enfado a partir de simulaciones de MCE de alegría de manera significativa.

A primera vista, los sujetos tienen alta sensibilidad para detectar señales de enfado. No obstante, presentan un sesgo hacia emociones negativas, confundiendo movimientos asociados a la alegría con expresiones de enfado. Por tanto, la habilidad de diferenciar entre alegría y enfado a partir de MCE es muy baja. Lo que predominan son las inferencias sesgadas.

Los sujetos determinaron el arousal principalmente a partir del grado de movimiento mostrado por las animaciones. Es decir, a mayor movimiento, infieren mayor activación. No obstante, percibieron mayor activación en las expresiones de alegría que en las expresiones de enfado.

De manera algo opuesta, la ambigüedad se encontró directamente asociada al nivel de activación. Cuanta más activación se infiere del MCE, mayor dificultad para detectar la emoción expresada o su valencia. Este resultado se observó de manera más pronunciada en el caso de la alegría.

Para entenderlo, podemos pensar en las veces que lloramos de alegría. Hay tanta activación que para descargarla mostramos comportamientos comúnmente asociados a emociones negativas. Aunque en este caso no sea exactamente lo mismo, es entendible que, a mayor activación emocional en el comportamiento, sea más difícil decidir que emoción es la que alguien expresa o cuál es su valencia.

Por tanto, observar mayor arousal expresado a través del MCE lleva a inferencias emocionales generalmente incorrectas. Asimismo, genera más ambigüedad para este proceso de detección emocional. Las expresiones emocionales muy intensas son caóticas y divergentes de los indicadores emociónales comúnmente reconocidos.

Cuando estamos muy activados es posible que la coordinación entre actividad neural y motora falle. Por eso, es probable que las expresiones emocionales se vuelvan y se perciban cómo caóticas y ambiguas. No obstante, aspectos del proceso perceptivo también encajan como explicación.

Por cuestiones de evolución, las personas han desarrollado recursos perceptivos para detectar y responder a amenazas y oportunidades. Una información muy saliente es un alto nivel de movimiento. Y cómo decíamos, mucho movimiento corporal se interpreta como alta activación.

Por tanto, cuando hay mucho movimiento, la atención puede enfocarse predominantemente en el arousal del otro. La finalidad es interpretarlo y detectar las amenazas y oportunidades. Asimismo, se pierden recursos perceptivos que puedan dedicarse a la interpretación de la valencia emocional. Y, por eso, fallamos en la detección.

¿Conclusiones? Simplificando mucho, hay que cuidar cuánto es de pronunciado nuestro movimiento corporal. Y, más allá de eso, regular nuestro nivel de activación. Si estamos muy activados y gesticulamos exageradamente, los demás pueden tener dificultades para captar qué es lo que sentimos.

Asimismo, cuidar nuestras inferencias. Mayor conocimiento ayuda a ello y puede ser crucial en profesiones basadas en atención directa a las personas. En cualquier caso, tenemos la gran suerte de estar rodeados de múltiples factores, como los contextuales, que pueden facilitar inferencias acertadas.

Sería muy interesante que se analice cuáles son los movimientos específicos que indican emoción, valencia o arousal. No obstante, empezar por intentar entender procesos subyacentes permite una mejor selección y manipulación de variables en futuras investigaciones.

Si quieres saber más sobre el comportamiento no verbal y la gran utilidad de conocerlo para nuestras profesiones y para la vida cotidiana, visita nuestro Máster en Comportamiento No Verbal y Detección de la Mentira o nuestro Experto Universitario en Comunicación no verbal y Personalidad, con becas especiales para los lectores del Club del Lenguaje no Verbal.

El exceso de confianza: ¿genera beneficios o pérdidas sociales? Club de Lenguaje No Verbal

Amigos del Club de Lenguaje No Verbal, esta semana presentamos el artículo “Is overconfidence a social liability? The effect of verbal versus nonverbal expressions of confidence” de Tenney E. R., Meikle N. L., Hunsaker D., Moore D. A. y Anderson C. (2019), en el cual se analiza cuando el exceso de confianza recibe sanciones sociales y cuándo no representa un problema.

Pensemos en las veces que hemos escuchado a alguien contándonos algo con gran confianza en su propio conocimiento o habilidades. Y cómo, posteriormente, lo que nos contó se mostró totalmente erróneo. ¿Empezamos a desconfiar de lo que dice esa persona?

Cuando se dan estas situaciones hasta cierto punto es normal que se reciba algún tipo de sanción social. La persona con exceso de seguridad en lo que dice y que falla puede perder credibilidad. Si no la pierde, es posible que se enfrente a suspicacia y a un mayor escrutinio de lo que cuenta.

Las evidencias sugieren que cuando un individuo expone su exceso de confianza ante otros, solo a veces y no siempre recibe una sanción social. Aun después de expresar un exceso de confianza, no siempre se daña la reputación de los sobreconfiados. Aquellos que expresan exceso de confianza a través del lenguaje no verbal, como la postura o tono de la voz, adquieren mayor estatus e influencia.

En el trabajo, las personas con sobreconfianza muchas veces mantienen su influencia, aunque tengan un largo historial de reclamos inexactos e incorrectos. Incluso podemos encontrar tales ejemplos en la política. Muchos candidatos ganan las elecciones a pesar de exponer un injustificado exceso de confianza.

Las personas pecan frecuentemente de exceso de confianza. La mayoría de las veces, este es atribuible a una seguridad excesiva de saber la verdad. En cualquier caso, la sobreconfianza no siempre se expresa con palabras. Las personas afirman con la cabeza para enfatizar y hablan alto, como si pusiesen en negrita lo que dicen. Hablan con autoridad, dominan la conversación y muestran poca deferencia hacia los demás.

¿Cuándo se castiga el exceso de confianza? ¿Cuándo permanecen los beneficios en reputación a pesar de la sobreconfianza y de los errores derivados de ello? Los autores del estudio proponen que el canal de expresión del exceso de confianza determina si este último se convierte en una ventaja o desventaja. Con canal de expresión se refieren a una expresión mediante comportamiento no verbal o verbal.

Se lleva a cabo una serie de experimentos diferentes. Todos los participantes creen que participarán en un juego con recompensas monetarias. Para ello, deben evaluar posibles colaboradores o asesores que han practicado en ese juego. En cuatro de los experimentos se pide a los participantes que comparen dos colaboradores potenciales (targets). En el quinto se requiere comparar asesores (targets).

En cada experimento, un target es muy confiado en lo que cuenta y el otro es cauto. Hay targets que muestran su exceso de confianza verbalmente (texto escrito). Dicen, por ejemplo, sentir gran confianza en su rendimiento en la práctica y estar muy seguros de haberlo hecho bien.

También hay targets que expresan su exceso de confianza a través del lenguaje no verbal (video). Cuentan información sobre ellos mismos y no sobre la tarea, con una postura corporal abierta y expansiva. Miran al entrevistador y utilizan un tono de voz firme y de autoconfianza.

Los targets cautos cuentan (canal verbal) que no confían en que lo hayan hecho bien y que pueden haber rendido por debajo de la media. A través del lenguaje no verbal, hablan de sí mismos inclinados hacia delante y con las manos delante del cuerpo. Utilizan una voz suave, tímida y miran más al suelo.

Después de visualizar la información de estos candidatos, los sujetos reciben información sobre el rendimiento real de estos. Lo siguiente es la evaluación.

En los primeros dos experimentos se analiza si las consecuencias sociales del exceso de confianza difieren según el canal de comunicación. En los experimentos de 3 a 5 se comprueba la hipótesis de negación plausible que se basa en lo siguiente.

La sobreconfianza verbal sirve de prueba para imponer castigos sociales. En cambio, la sobreconfianza no verbal no es fácil de detectar. Siempre quedaría el beneficio de la duda. Por eso, lo probable es que no se apliquen castigos sociales ni que haya daños en la reputación del sobreconfiado. Este puede negar su exceso de confianza y a falta de pruebas es algo plausible.

Los resultados generales de estos experimentos muestran lo siguiente. Los participantes evaluaron más negativamente a los targets sobreconfiados y los evitaron como colaboradores. Esto supone una sanción y solo ha ocurrido cuando el exceso de confianza se expresó verbalmente. Tal como se esperaba, no hubo sanción alguna a los candidatos que expresaron su exceso de confianza de manera no verbal.

A lo largo de los cinco experimentos se confirmaron los mismos resultados. Además, se observó que negar explícitamente el exceso de confianza se considera plausible solo en la expresión no verbal. En cualquier caso, la expresión de sobreconfianza a través del lenguaje no verbal no siempre se perdona.

En el experimento 4, los participantes creían ver a algunos colaboradores potenciales evaluando productos online y a otros practicando en la tarea. Por un lado, se evalúan targets con sobreconfianza no verbal asociada a la práctica en la tarea principal. Por otro lado, se evalúan targets con sobreconfianza no verbal asociada a una tarea ajena.

Si un posible colaborador muestra señales no verbales de sobreconfianza cuando practica en el juego y su rendimiento es pobre, la negación plausible ya no tiene efecto. Es decir, cuando no quedan dudas de que la sobreconfianza aparece en la tarea principal, el castigo social aparece. Los colaboradores son evaluados más negativamente que los sobreconfiados en tareas ajenas, aunque también tengan rendimientos bajos en el juego.

Aunque tener mucha confianza en uno mismo se considere una característica deseable socialmente, se castiga cuando no quedan dudas de haber confiar demasiado. Parece ser que casi todo depende de la posibilidad de un beneficio de la duda. No castigamos socialmente cuando dudamos de malas actuaciones de los demás. Por otro lado, es curioso que sí aparece un castigo social, aunque la sobreconfianza no sea algo intencional.

Por último, el experimento 5 difiere de los demás en varias cuestiones, pero por razones de espacio, procedemos con las conclusiones generales. En este caso se ha visto que la sanción social es mayor cuando vemos que un profesional confía mucho en sus decisiones y falla. Si el profesional se muestra muy confiado en su comportamiento general y falla, la sanción social es menor.

Preferimos profesionales muy confiados en sus decisiones, hasta que sepamos que han fallado. Cuando nos enteramos del fallo decisional, cambiamos nuestras preferencias a profesionales más cautos.

El exceso de confianza en un rendimiento superior propio se conoce como overplacement, que  significa auto-atribuirnos mayores capacidades de las que tenemos. El exceso de confianza en la precisión o acierto de nuestras decisiones se conoce como overprecision. Como se puede intuir, es atribuir a nuestras decisiones más precisión de la que tienen.

Estos dos conceptos se diferencian claramente en la literatura científica. No obstante, los autores no encontraron patrones diferentes de consecuencias para diferentes tipos de sobreconfianza verbal. En la vida real probablemente no sea tan fácil diferenciarlas. Las diferencias teóricas no representan cómo las personas comunes perciben la confianza, su expresión y su exageración.

Por último, el comportamiento no verbal parece implicar conductas efectivas y de bajo riesgo en las interacciones sociales. Si es así, ¿cómo es que no predominan? Sin duda, una cuestión interesante para reflexionar.

 

Si quieres saber más sobre la utilidad de conocer en profundidad el lenguaje no verbal, visita nuestro Máster en Comportamiento No Verbal y Detección de la Mentira o nuestro Experto Universitario en Comunicación no verbal y Personalidad, con becas especiales para los lectores del Club del Lenguaje no Verbal.

 

Todos somos mimos: el qué, el cómo y el cuándo de la imitación espontánea. Club de Lenguaje No Verbal

Amigos del Club de Lenguaje No Verbal, esta semana presentamos el artículo “The mimicry amongs us: intra- and inter-personal mechanisms of spontaneous mimicry” de Arnold J. A. y Winkielman P. (2019), en el cual se exploran las evidencias sobre cómo se produce la imitación no verbal espontánea y cómo afecta al procesamiento de información.

En las interacciones sociales hay procesos no verbales que permiten a las personas entenderse, coordinarse entre sí e influir unos en otros. Uno de estos procesos es la imitación (mimicry), un mecanismo que se da tanto de manera intencional como espontánea.

La imitación intencional ocurre cuando una persona replica las acciones de otra de manera deliberada. Este tipo de imitación es un mecanismo de aprendizaje social a través del cual se transmiten normas, rituales, habilidades, tradiciones, valores y similares.

Es clave para llevar a cabo acciones conjuntas. También es crucial en la comunicación social, señalando el deseo de conexión (p.ej. aplaudiendo), la pertenencia a un grupo (p. ej. vestirse igual que otros), afinidades, gustos e incluso burla (p. ej. parodias). Por lo tanto, la aparente simpleza de la imitación da lugar a comportamientos complejos. En estos, se toman en consideración la meta y la utilidad de las acciones inicialmente observadas y posteriormente imitadas.

La imitación espontánea (IE), más rudimentaria, pero no necesariamente más simple, es un fenómeno que no implica consciencia ni voluntad. No proviene de una observación consciente, ni de instrucciones o metas explícitas. Es un fenómeno con raíces filogenéticas, también observado en primates. Ocurre a lo largo de diversas modalidades (p. ej. cara, voz o cuerpo) y en respuesta a diversos estímulos internos o externos (p ej. personas o pensamientos).

Ante un estímulo potencial, las acciones de IE aparecen en un rango temporal entre fracciones de segundo y varios segundos. Por ejemplo, la imitación facial suele aparecer medio segundo más tarde de aquello que la provoca. Varios segundos más tarde suele darse el bostezo o la imitación postural.

En esta investigación, la IE se sitúa en el contexto teórico de la cognición corpórea (embodied cognition). Un concepto que proviene de las llamadas teorías grounded cognition o embodiment (diversas traducciones utilizadas; p. ej. cognición anclada y corporeización).

Tales teorías proponen que el procesamiento de la información de cualquier estimulo tangible (objetos, caras, gestos, etc.) o intangible (p. ej. rasgos de personalidad, conceptos abstractos, emociones, etc.) se basa en recursos perceptivos, somatosensoriales y motores.

Estos recursos tienen implicaciones tanto en un encuentro con un estímulo presente como cuando se piensa en el estímulo (ausente). Como ejemplo del primer caso, si nos sonríen, sonreímos. Los recursos antes mencionados provocan la activación necesaria a nivel cerebral y muscular para imitar esa sonrisa.

Como ejemplo de estímulo ausente, podemos pensar en una mandarina y en sus propiedades y recrear parcialmente la experiencia sensorial (sabor u olor). Esta imitación sensorial supone la activación de recursos periféricos, (p. ej. salivación) y centrales (a nivel cerebral, p ej. el córtex gustativo).

La imitación en ausencia de estímulo se denomina simulación corpórea y no requiere de manifestaciones comportamentales. Se ejecuta en una modalidad cerebral y solo hace falta que su reproducción sea lo suficientemente potente como para que se pueda utilizar en el procesamiento posterior.

Los autores plantean que los recursos que se necesitan para la IE, como la simulación corpórea, dependen de la ambigüedad del estímulo que la provoca. Por lo tanto, el contexto (interno o externo) es el que da las pistas para definir los estímulos y qué recursos entran en juego. En cualquier caso, una vez generadas, las simulaciones podrían influir, asociarse, depender o informar en el procesamiento de la información.

Otro punto clave de las teorías de embodiment es que la IE une las representaciones sensoriomotoras con conceptos de alto nivel (abstractos). En un estudio los participantes evaluaron caras ambiguas como felices o tristes. El registro de la musculatura facial mostró que la evaluación de las caras como felices, activó a menudo los músculos relacionados con la sonrisa. Por lo tanto, la información de alto nivel (i. e. concepto de felicidad) moldeó la respuesta facial espontánea de los sujetos y estos simularon este concepto.

La mera observación de expresiones faciales incrementa la actividad de la corteza somatosensorial del cerebro en el área que representa la cara propia. Como consecuencia, en la cara del observador se generan rápidamente los mismos movimientos faciales de manera espontánea. Además, la imitación facial también se activa ante expresiones faciales presentadas por debajo del umbral de la conciencia.

Por lo tanto, la IE puede ocurrir en base a unas reglas simples de match. No obstante, el contexto social en el cual ocurren las interacciones también influye en los comportamientos de imitación. La imitación espontánea es sensible a señales sociales como el comportamiento prosocial, la pertenencia grupal, el deseo de afiliación, las actitudes, la competición y el nivel de empatía.

La flexibilidad y dependencia al contexto de la imitación facial se ha mostrado en investigaciones sobre el poder. Al observar caras de personas que aparentan alto poder (vs. bajo poder), los participantes fruncieron el ceño rápidamente (< 1 seg) ante expresiones faciales de enfado. No ocurrió lo mismo ante caras que aparentan bajo poder.

Asimismo, los participantes con alto poder (entiéndase el poder como el sentido subjetivo de control y autoridad en una interacción) siguieron con una sonrisa solo ante las caras de enfado y alto poder. Por lo tanto, después de la imitación inicial, apareció una contra-imitación como respuesta de competición. En cambio, los participantes con bajo poder mostraron una sonrisa tanto ante caras de enfado como de alegría de personas aparentemente poderosas.

El efecto de la competición como contexto en la imitación facial también se ha visto en interacciones humano-robot. Por ejemplo, en un estudio, los sujetos mostraron las mismas expresiones faciales que un androide en un juego cooperativo y las opuestas en el juego competitivo.

En otro estudio se comprobó que la simulación de movimiento fue mucho mayor al observar el brazo en movimiento de un androide y de una persona, que al observar un brazo robótico. Estos datos indican un mayor impacto en la IE de la similitud de movimiento, por encima de la similitud física.

En cuanto a las expresiones faciales, la similitud física parece tener más importancia. Cuanto más humanos parecen los androides, más fuerza tiene la imitación espontánea de las expresiones faciales de estos. No obstante, a diferencia de las interacciones humanas, la similitud psicológica y la comodidad emocional no influye en las interacciones con los robots. Los sujetos imitaron las expresiones faciales de los robots incluso si se sintieron incómodos con ellos o si los consideraron siniestros.

Como casos atípicos, se analiza qué ocurre con la imitación en los casos de Trastornos del Espectro Autista (TEA). Los sujetos con TEA pueden mostrar hiper-imitación y a menudo obtienen un buen rendimiento en pruebas de imitación deliberada. No obstante, existen algunas evidencias sobre cierto deterioro de la IE.

Por ejemplo, se ha observado una actividad cerebral asociada al movimiento reducida en casos de TEA al observar movimientos simples de otras personas. Tampoco suelen imitar expresiones faciales con solo verlas, sin instrucción alguna de reconocerlas o reaccionar ante ellas. Además, cuando la imitación facial aparece, suele retrasarse temporalmente.

También existen casos casi opuestos. Por ello, se destaca la posibilidad de que sean la atención a estímulos sociales, la motivación o las habilidades las que tienen mayor influencia en la imitación. Otras explicaciones de una IE diferente en los sujetos con TEA se basan en las diferencias neurobiológicas. Por ejemplo, la desregulación de la oxitocina o de los mecanismos de respuestas ante los refuerzos sociales.

Si la imitación espontánea depende de los refuerzos sociales, se puede pensar que la soledad también puede provocar cambios en la imitación. Las personas buscan interaccionar con personas que les ofrezcan beneficios sociales y que les imiten más. En cambio, una persona con expectativas sociales negativas, que dan lugar a percepciones de soledad y aislamiento social, no necesitaría de la imitación.

En un estudio, se ha observado que sujetos con alta percepción de soledad mostraron una respuesta de imitación muy reducida ante caras sonrientes. No ocurrió lo mismo, sino todo lo contrario, con las caras que expresaban tristeza, miedo o enfado. Respondieron espontánea y correctamente (sonriendo y frunciendo el ceño) ante imágenes muy cargadas emocionalmente. Asimismo, respondieron adecuadamente a nivel de imitación facial deliberada a todas las expresiones faciales. Por lo tanto, la soledad parece estar selectivamente asociada con una capacidad de respuesta reducida para la imitación espontánea de la sonrisa.

A modo de conclusión, la imitación espontánea utiliza y conecta recursos muy variados: perceptivos, conceptuales, motrices y afectivos. Juega un papel clave en el reconocimiento, comprensión y contagio emocional. Quedan pocas dudas de la importancia de la imitación espontanea como uno de los procesos centrales que permiten ahondar un poco más en la cognición social.

Si quieres saber más sobre comunicación no verbal visita nuestro Máster en Comportamiento No Verbal y Detección de la Mentira o nuestro Experto Universitario en Comunicación no verbal y Personalidad, con becas especiales para los lectores del Club del Lenguaje no Verbal.

¿Podría un robot darse cuenta de si eres responsable, extrovertido o amable? Club de Lenguaje No Verbal

Amigos del Club de Lenguaje No Verbal, esta semana presentamos el artículo “Nonverbal behavior cue for recongnizing human personality traits in human-robot social interaction” de Shen Z., Elibol A. y Young Chong N. (2019), en el cual se comprueba la posibilidad de que un robot sea capaz de inferir rasgos de personalidad de las personas con las que interactúa a partir de señales no verbales.

En paralelo a los impresionantes avances en robótica, cada vez más investigadores se enfocaron en mejorar la calidad de la interacción entre personas y robots (IPR). Estas mejoras persiguen dotar a los robots con habilidades para entender intenciones, emociones y otros aspectos del comportamiento de las personas. ¿Es eso posible?

Por lo general, los robots se diseñan con el fin de llevar a cabo varias tareas en numerosos campos de la ciencia y de la vida diaria. En sus tareas, algunos también interaccionan con las personas y serían robots sociales. Estos presentan diseños muy realistas y son muy buenos compañeros de trabajo, de ocio o de ayuda en la vida diaria, pero no tienen las habilidades de interacción típicamente humanas.

Algunos robots como Pepper, Nao o ASIMO han sido sincronizados a nivel verbal y no verbal para alcanzar una IPR cada vez mejor. En cualquier caso, esta sincronización está enfocada en atraer la atención de los usuarios y hacer que estos se impliquen en la interacción.

En cambio, durante una IPR las personas sí adaptan su comportamiento a las respuestas de su interlocutor, aunque sea un robot. Además, las respuestas verbales y no verbales de las personas están influidas no solo por el comportamiento del robot, sino también por sus propios rasgos de personalidad y muchos otros factores. Los rasgos de la personalidad humana reflejan las diferencias individuales en cuanto a patrones de pensar, sentir y actuar. Estos afectan al comportamiento de las personas y a la interpretación que hacen de las respuestas de su interlocutor (incluidos robots).

En principio, los robots no son capaces de tales actuaciones. Para que la IPR sea lo más eficaz posible y realista haría falta que un robot sea capaz de captar y analizar las señales sociales de sus interlocutores de manera coherente y similar a como lo hacen los humanos.

En estudios previos se ha observado una fuerte conexión entre personalidad y comportamientos mostrados de un robot. Es decir, las personas infieren rasgos de personalidad de los robots casi como si fueran personas. Estudios con robots Nao mostraron que los usuarios les perciben diferente en función de la extraversión vs introversión y de su profesión. Los robots con comportamientos de introversión y presentados con la profesión de CEO fueron percibidos como más inteligentes. Lo mismo ocurrió con los robots en roles de profesor y extrovertidos. También se ha observado que los usuarios prefieren interaccionar con robots con una personalidad similar a la de uno mismo.

Si las personas son capaces de inferir rasgos de personalidad de los robots, se hace necesario que también los robots sean capaces de inferir los rasgos de personalidad de los usuarios para mejorar la interacción (y que sea similar a la de humano-humano). Este estudio se basa en el desarrollo de un algoritmo eficiente que mida las dimensiones de personalidad de los usuarios, recogidas en el modelo de personalidad Big Five (extraversión, estabilidad emocional, responsabilidad, apertura a la experiencia y amabilidad).

El problema principal consiste en que inferir rasgos de personalidad supone interpretar muchas señales no verbales. La pregunta es ¿cómo conseguir inferencias basadas en lo no verbal de la manera más fácil posible? Es la parte más esencial pero también la más difícil y en otros estudios se plantean modelos de extracción altamente complejos.

En este estudio el robot que interacciona con personas es un semi-humanoide Pepper fabricado por SoftBank Robotics. Antes de la IPR, cada participante que interacciona con Pepper completa un cuestionario de personalidad. Las primeras IPRs aportan los datos necesarios para que se pueda diseñar y entrenar el modelo (proporcionar datos de entrenamiento y crear el algoritmo de aprendizaje adecuado).

Se utiliza la cámara de Pepper para extraer señales no verbales visuales del interlocutor: movimiento de la cabeza, mirada y energía del movimiento de la parte superior del cuerpo. Las señales no verbales auditivas/vocales (tono, energía y MFCCs —coeficientes para la representación del habla en la percepción auditiva humana—) se extraen de la grabación de audio que Pepper obtiene en la interacción. Para cada señal no verbal se utilizan dos tipos de valores: el valor real obtenido y normalizado (Vn) y un valor binario (Vb, 0 y 1). Por ejemplo, el movimiento de la cabeza de un usuario mientras habla con Pepper toma un x valor. En términos binarios se considera que se da el movimiento de la cabeza si ese valor es mayor que 0 y toma el valor de 1.

El último paso consiste en evaluar el modelo de aprendizaje del robot, un modelo que ha sido entrenado con características no verbales obtenidas de las primeras IPRs junto a los rasgos de personalidad de los usuarios obtenidos en los cuestionarios.

Para probar la eficacia del modelo, 12 participantes interaccionan con Pepper ya entrenado. La distancia de interacción es de 1.5-1.7 metros. Pepper pone preguntas sobre quién es el interlocutor, el tiempo actual, el tiempo/clima y descripciones de la ciudad natal del interlocutor. Aunque pueda, el robot en este caso está programado para no mover la cabeza para evitar la recogida de datos no pertinentes. Esto es relevante porque aleja bastante la IPR de una interacción natural entre personas y puede influir en el comportamiento de los participantes.

Se obtienen diferentes valores de precisión en la inferencia de Pepper sobre la personalidad de los usuarios en función del lenguaje no verbal expuesto en las IPRs. Primero, los peores predictores de personalidad (y el menor acierto de Pepper) fueron el tono de voz y el movimiento de la cabeza.

La mejor señal no verbal para la inferencia de rasgos de personalidad fue la energía del habla. Lo que mejor predijo fue la dimensión de personalidad apertura a la experiencia, seguida de responsabilidad. La energía del movimiento de la parte superior del cuerpo también se presentó como la segunda más útil y sirvió para inferir la dimensión amabilidad. Desde los MFCCs se infirió correctamente las dimensiones responsabilidad, estabilidad emocional y apertura a la experiencia. La mirada solo fue relevante en el caso de inferir la extraversión, aunque el valor de precisión obtenido fue bastante menor que todos los demás valores.

Este último resultado puede deberse a que las personas extrovertidas suelen utilizar muchos gestos al hablar y una voz muy enérgica. En cambio, en este estudio se pidió a los participantes que se sentasen muy cerca de la mesa, lo que pudo impedir una expresión libre del movimiento. Por otro lado, para que una persona mire mucho a los ojos de otra se necesita de mayor implicación bidireccional en la interacción. Con un robot se dificulta esta implicación y esa es la posible razón de los valores tan pequeños del registro de la mirada.

Por último y en cuanto a resultados, los valores binarios de las señales no verbales fallaron bastante en el modelo para inferir rasgos de personalidad. En todas las señales no verbales que predijeron significativamente las dimensiones de personalidad los valores resultantes del modelo binario mostraron una disminución importante de la precisión. Por lo tanto, los autores concluyen que utilizar valores binarios no mejoran la precisión.

Este estudio supone un avance importante, mostrando que es posible crear modelos de aprendizaje para las máquinas que las hagan cada vez más similares a los humanos también a nivel cognitivo. Aún queda mucho por hacer, pero el modelo planteado mostró un rendimiento prometedor.

Si quieres aprender más sobre la comunicación no verbal y su relación con la personalidad no te pierdas nuestro Máster en Comportamiento no verbal o nuestro Experto Universitario en Comunicación no verbal y Personalidad, con becas especiales para los lectores del Club del Lenguaje no Verbal

Antiguas entradas