¿Qué ve un robot cuando nos mira a los ojos?

¿Qué ve un robot cuando nos mira a los ojos?

Emociones y comunicación no verbal en la 4ª Revolución Industrial
15 February 2019

No te creo por mucho que insistas. Tus palabras no valen nada si no hay hechos que las acompañen, no valen nada si tus ojos me dicen todo lo contrario. Lo sé porque tengo empatía y sé descifrar esa aureola de gestos, miradas, tonos de voz, movimientos ….que te acompañan. Hasta puedo sentir la energía que desprendes. Tus silencios me hablan. Soy humana. Y mis compañeros de trabajo también.

Es imposible la no comunicación entre dos o más personas, los silencios también comunican. Comunicamos más con lo que no decimos y la mayoría de veces lo hacemos sin darnos cuenta.

Me explico. Sabemos que la comunicación es la base de las relaciones humanas. Que además la comunicación no verbal (CNV) es más del 90 % de la comunicación entre dos o más personas, y que un porcentaje muy alto de esa comunicación es inconsciente.

Cuando mentimos, seducimos, trabajamos en un proyecto juntos, nos reunimos, negociamos, cuando tenemos miedo, desbordamos ego, estamos felices, etc. en todas las facetas de nuestra vida, emitimos señales no verbales que los demás interpretan y descifran, clarificando el mensaje que intentamos comunicar.

Recomiendo leer un libro muy interesante de Flora Davis “La comunicación no verbal” que nos da pautas para descifrar las señales; sin embargo, normalmente no hacen falta pautas ya que la mayoría de los humanos las desciframos de una forma intuitiva.

Por ejemplo. Es curioso analizar el comportamiento no verbal en una reunión, observar cómo sincronizamos nuestros movimientos y adoptamos posturas similares o en espejo, con aquellos con los que estamos más de acuerdo. O como adoptamos posturas de “demostración de poder”:

“Cuando se reúnen cuatro o más personas, es común descubrir varios grupos de posturas distintos. Rápidamente nos daremos cuenta de que esto no es mera coincidencia. Si una de las personas reacomoda la posición de su cuerpo, los otros miembros de su grupo la imitarán hasta que todas las posturas resulten congruentes. Si escuchamos la conversación nos daremos cuenta que los que opinan igual sobre el tema también se sientan de igual modo.”

 O cuando en una reunión una de las personas adopta una posición de poder – por ejemplo colocando sus manos en la cabeza- quien esté compitiendo adoptará esa misma postura a modo de “lucha por el poder”.

La comunicación no verbal es apasionante y a la vez muy compleja. Numerosos factores nos llevan a adoptar diferentes posturas, tonos de voz, movimientos, miradas. Existen igualmente diferencias culturales, de edad y de sexo, podríamos hablar horas y horas de este tema, y nunca podemos tener la certeza de que estamos comprendiendo bien lo que nos trasmite la otra persona. Ante contradicciones en el mensaje nos fijamos fundamentalmente en la mirada.

La mirada es una de las fuentes más exactas de información y más difíciles de falsear. Jean Paul Sartre sugirió una vez que el contacto visual lo que nos hace real y directamente conscientes de la presencia de otra persona como ser humano, que tiene conciencia e intenciones propias. Cuando los ojos se encuentran se nota una clase especial de entendimiento de ser humano a ser humano.

Nuevos compañeros de trabajo. ¿Qué ocurrirá en el futuro del trabajo cuando miremos a los ojos a ese robot compañero de trabajo? ¿Qué descifrará en nuestra mirada y en el resto de señales no verbales?

Uno de los retos que nos depara el futuro es que los robots puedan entender las emociones de sus compañeros de trabajo humanos (y clientes y proveedores…), emociones que se manifiestan en un elevado porcentaje a través de la CNVLa analítica de las emociones nos va a ayudar ya que permite que la Inteligencia Artificial analice los sentimientos a través de la comunicación tanto verbal como sobre todo no verbal.

Seguramente si desgranamos las señales de CNV y las programamos en un robot, éste sabrá interpretar la comunicación, pero lo fascinante de la CNV justamente es saber interpretar las incongruencias debidas a diferentes factores. ¿Sabrán analizar las incongruencias?

Cuando nos mire a los ojos y esquivemos la mirada, probablemente su programación le llevará a descifrar que estamos ocultando algo, aunque quizás solo sea que algo en la otra punta de la oficina ha llamado nuestra atención y hemos mirado hacia otro lado (ejemplo muy simple).  Nuestro compañero robot podrá aprender rápidamente algunas de las diferentes interpretaciones de nuestro “esquivar la mirada” y, gracias a sofisticados algoritmos, determinará de una forma más exacta el principal motivo.

Cada vez existen más aplicaciones y tecnología que permite detectar, analizar y cuantificar emociones: analizando las expresiones del rostro – Microsoft ‘s Project Oxford -,analizando las emociones a través de la voz – Vokaturi– o analizando las emociones a través de textos escritos y el Procesamiento del Lenguaje Natural (NPL) – Bitext – entre otras.

Sin embargo, este es un ejemplo sencillo -esquivar la mirada- y los humanos somos mucho más complejos, y es en esa complejidad donde aparecen las grandes incógnitas.

Pero ¿llegarán los robots a interpretar la realidad como la mayoría de los humanos? O quizás ¿la pueden interpretar mejor gracias a esos sofisticados algoritmos y “machine learning“?

Comprender a un humano es realmente complicado, y si ya nos cuesta entendernos entre nosotros ¿Cómo lo lograrán ellos? ¿Cómo van a ayudarnos a tomar decisiones con posibles interpretaciones incorrectas?

¿Qué opinas de este artículo?