La inteligencia artificial forma parte cada vez más de nuestras vidas y, según experimentos realizados con 119 participantes, los robots con comportamientos similares a los humanos pueden ser percibidos como si tuvieran estados mentales.

Cuando los robots parecen relacionarse con las personas y muestran emociones similares a las humanas, los individuos pueden percibirlos como capaces de “pensar” o de actuar conforme a sus propias creencias y deseos y no de sus propios programas informáticos, concluye la investigación publicada en la revista Technology, Mind, and Behavior.

No obstante, la relación entre la forma antropomórfica, el comportamiento similar al de los humanos y la tendencia a atribuir a los robots un pensamiento independiente y un comportamiento intencionado está aún por entender, afirma Agnieszka Wykowska, investigadora del Instituto Italiano de Tecnología y autora del estudio.

“A medida que la inteligencia artificial forma parte cada vez más de nuestras vidas, es importante entender cómo la interacción con un robot que muestra comportamientos similares a los humanos podría inducir una mayor probabilidad de atribución de acción intencional al robot”, añade.

Publicidad

El equipo hizo tres pruebas distintas con 119 participantes para examinar cómo percibían estos a un robot de aspecto humano, el iCub, después de socializar con él y ver videos juntos.

Antes y después de interactuar con el robot, los voluntarios completaron un cuestionario que les mostraba imágenes del robot en diferentes situaciones y les pedía que eligieran si la motivación de la máquina en cada situación era mecánica o intencionada.

Por ejemplo, los participantes vieron tres fotos que mostraban al robot seleccionando una herramienta y luego eligieron si este “agarraba el objeto más cercano o estaba fascinado por el uso de la herramienta”, detalla una nota de la American Psychological Association.

En los dos primeros experimentos, se controlaron a distancia las acciones de iCub para que se comportara de forma gregaria, saludando a los voluntarios, presentándose y preguntando sus nombres; las cámaras situadas en sus ojos eran capaces de reconocer las caras de los participantes y mantener el contacto visual.

Publicidad

A continuación, los voluntarios vieron tres videos documentales cortos con el robot, que estaba programado para responder a los videos con sonidos y expresiones faciales de tristeza, asombro o felicidad.

En el tercer experimento, los investigadores programaron a iCub para que se comportara más como una máquina mientras veía los videos con los participantes: se desactivaron las cámaras de los ojos para que no pudiera mantener el contacto visual y todas las reacciones emocionales a las imágenes se sustituyeron por un “pitido” y movimientos repetitivos de su torso, cabeza y cuello.

El equipo constató que los participantes que veían los vídeos con el robot de aspecto humano eran más propensos a calificar las acciones de este como intencionadas en lugar de programadas, mientras que los que solo interactuaban con el robot más maquinal no lo hacían.

Esto demuestra que la mera exposición a un robot de aspecto humano no es suficiente para que la gente crea que es capaz de tener pensamientos y emociones; es el comportamiento similar al humano lo que podría ser crucial para ser percibido como un agente intencional.

Publicidad

Según Wykowska, esto podría servir de base para el diseño de los robots sociales del futuro: el vínculo social con ellos podría ser beneficioso en algunos contextos, como con los robots de asistencia social.

Por ejemplo, en el cuidado de ancianos la vinculación social con estos podría inducir un mayor grado de cumplimiento de las recomendaciones sobre la toma de medicamentos. (I)