¿Qué es la computación afectiva?
1 APRIL, 2019Hay varias películas en las que aparecen robots e inteligencias artificiales con emociones, como por ejemplo ‘I Robot’, ‘2001’, ‘WallE’, o ‘Eva’. Algunas veces, estos robots emocionales generan problemas inesperados por su comportamiento que, en ciertas circunstancias, es menos predecible de lo que sería el comportamiento de una máquina puramente racional. En otras ocasiones, sin embargo, es el hecho de tener una componente emocional el que permite a los robots actuar de forma razonable, entender a los humanos y respetar las decisiones que tomamos aunque racionalmente parezca que no son buenas para nosotros. Imaginemos, por ejemplo, un futuro en el que tenemos robots en casa que hacen la compra y cocinan para nosotros. Por un lado nos gustaría que nos ayudaran a controlar la calidad de nuestra dieta, pero no nos gustaría que sistemáticamente nos dejaran sin postres porque no nos conviene tomar demasiado azúcar. Un robot que no entienda las emociones humanas no entendería que un buen postre nos puede hacer felices y que de vez en cuando no pasa nada por sacrificar el equilibrio de nuestra dieta a cambio de la felicidad producida por un trozo pastel o un poco de helado. De alguna forma nos gustaría que nuestro robot culinario tuviera un cierto grado de empatía y pudiera entender la felicidad y el placer que nos produce la buena comida. Pero, ¿puede un robot o una máquina, en general, tener empatía? Esta es una de las preguntas que motivan una área de investigación llamada Computación Afectiva.
La Computación Afectiva (Affective Computing, en inglés), también conocida como Inteligencia Artificial Emocional, es la disciplina que estudia cómo crear máquinas que puedan reconocer, interpretar y responder apropiadamente a las emociones humanas. Como ámbito de investigación se sitúa principalmente dentro de la informática, aunque realmente es una área multidisciplinar que involucra, entre otras áreas, la ciencia cognitiva y la psicología. La Computación Afectiva nace al principio de los años 90 y se consolida como área de investigación en 1997, con la publicación del primer libro sobre Computación Afecitiva, escrito por la profesora del Massachusetts Institute of Technology (MIT) Rosalind Picard. Aunque el crecimiento de la disciplina fue lento al principio, actualmente existen varios laboratorios de investigación en todo el mundo que trabajan en Computación Afectiva, entre ellos el laboratorio de Affective Computing del MIT Medialab, creado y dirigido por la misma Rosalind Picard, en el cual me encuentro en este momento realizando una estancia de investigación.
A nivel general, un sistema de reconocimiento de emociones se basa en captar, con sensores, señales relacionadas con nuestras emociones. Por ejemplo podemos usar cámaras para capturar imágenes o vídeos de las personas, para observar los movimientos faciales, los gestos o la situación en la que se encuentra una persona.
También podemos usar sensores integrados en brazaletes para capturar señales fisiológicas como el ritmo cardíaco o la respiración, o usar micrófonos para captar la voz y los cambios de entonación cuando alguien está hablando. Toda esta información contiene señales sobre el estado emocional de una persona (de hecho nosotros mismos usamos este tipo de información para intentar reconocer las emociones de otras personas). Una vez capturadas estas señales se pueden usar técnicas de Aprendizaje Automático (Machine Learning) para aprender, a partir de muchos datos, patrones en las señales que son informativos sobre el estado emocional de una persona.
Actualmente no hay ningún sistema automático que pueda reconocer y entender perfectamente las emociones de una persona. Sin embargo, este tipo de técnicas sí que se aplican ya para problemas y casos concretos. El análisis de los movimientos y gestos de la cara y su relación con el estado emocional es una de las líneas de investigación que ha sido más activa dentro de la Computación Afectiva, y ya existe software comercial que analiza los movimientos de la cara para reconocer emociones. Además, actualmente se está estudiando cómo usar estas técnicas en diferentes aplicaciones, como por ejemplo al campo de la conducción asistida.
Concretamente se intenta hacer reconocimiento de las emociones del conductor integrando información de la cara, el ritmo cardíaco, la respiración, o la presión con la que se coge el volante, entre otras señales. El objetivo, en el futuro, es poder hacer coches que respondan a nuestras emociones mientras conducimos y puedan intervenir de diferentes formas para mejorar nuestra experiencia al volante, ya sea adaptando la temperatura o la música a nuestro estado emocional, o sugiriendo
rutas que, en media, demuestren generar menos estrés a los conductores.
A nivel más general, las aplicaciones de la Computación Afectiva son múltiples. Hay investigadores trabajando en cómo monitorizar el dolor para intentar entender y reducir el sufrimiento de enfermos que sufren dolor, hay gente trabajando en cómo desarrollar chatbots que puedan ofrecer soporte emocional, o laboratorios que trabajan para hacer detección precoz de depresiones y demencias, desarrollando sistemas que tengan la capacidad de detectar cambios sutiles en el comportamiento emocional de una persona que puedan ser indicativos de algún problema mental.
No hay comentarios:
Publicar un comentario