Blake Lemoine, ingeniero de Google, dio a conocer recientemente que uno de los sistemas de inteligencia artificial más avanzados de la compañía, el modelo lingüístico para aplicaciones conversacionales (LaMDA), podría tener sentimientos propios. Detrás de las impresionantes capacidades verbales de la tecnología, dijo, podría haber una mente sensible. Google lo negó y el ingeniero fue despedido. Pero el mundo de la inteligencia artificial se acerca cada vez más al de las emociones humanas.
¿Puede la IA tener sentimientos?
Los investigadores de inteligencia artificial y los expertos en neurociencia están de acuerdo en que las formas actuales de inteligencia artificial no pueden tener emociones propias, sino que, por el contrario, pueden imitar las emociones gracias a los sistemas de aprendizaje automático. Para acentuar este efecto, también está el lenguaje sintético de muchos asistentes que ayuda a enfatizar el tono humano con el que operan muchos de estos servicios y emiten emociones más realistas.
Al ser capaces de masticar y procesar infinidad de datos, el Big Data y la inteligencia artificial hacen que algunos dispositivos de asistencia sean increíblemente humanos. Ejemplos de ello son los asistentes de voz para el hogar y los que se encuentran en los smartphones o incluso los robots que cuidan a los ancianos, que son capaces de ofrecer una interacción extremadamente eficaz e incluso anticiparse a ciertas peticiones del usuario.
En efecto, los programadores han avanzado mucho en el diseño haciendo que los procesos de aprendizaje automático sean cada vez más refinados. Pero el impulso de ver la réplica de las emociones humanas en las máquinas también tiene que ver con un proceso de humanización de la tecnología. Que, por un lado, tiene como objetivo hacer que se parezca a los humanos y, por otro, también interactuar mejor con ellos.
Descodificar las emociones
Por otro lado, la inteligencia artificial también está evolucionando cada vez más en su capacidad de reconocer las emociones humanas. La informática afectiva sirve precisamente para estudiar, analizar y desarrollar herramientas informáticas basadas en el reconocimiento y la generación de emociones normalmente atribuidas a los seres humanos.
Como explica The Conversation, aunque las respuestas de LaMDA de Google son ciertamente similares a las humanas, esto significa que estamos ante una tecnología avanzada de aprendizaje automático y no ante sentimientos reales. Es el ser humano directamente implicado quien atribuye humanidad al robot a través de la interacción y la comunicación que inicia con la máquina, y no la máquina que tiene sentimientos propios.
De hecho, existen varios programas informáticos capaces de comprender las emociones y los estados cognitivos de las personas mediante el análisis de las expresiones faciales, las miradas, los gestos y el tono de voz. De este modo, la máquina no sólo reconoce si estamos contentos, tristes, cansados o serenos. Pero a su vez aprende los datos asociados a las emociones. Y es capaz de replicarlos.