Perciben "estados mentales" en robots que se comportan como humanos
ESTUDIO. Una investigación con 119 participantes evidencia que cuando los humanoides parecen "relacionarse" con las personas, los individuos pueden verlos como capaces de "pensar" o moverse de acuerdo a sus propias creencias.
Agencias
La inteligencia artificial forma parte cada vez más de nuestras vidas y, según experimentos realizados con 119 participantes, los robots con comportamientos similares a los humanos pueden ser percibidos como si tuvieran estados mentales.
Cuando los robots parecen relacionarse con las personas y muestran emociones similares a las humanas, los individuos pueden percibirlos como capaces de "pensar" o de actuar conforme a sus propias creencias y deseos y no de sus propios programas informáticos, concluye la investigación publicada en la revista Technology, Mind, and Behavior.
No obstante, la relación entre la forma antropomórfica, el comportamiento similar al de los humanos y la tendencia a atribuir a los robots un pensamiento independiente y un comportamiento intencionado, está aún por entenderse, afirma Agnieszka Wykowska, del Instituto Italiano de Tecnología y autora del estudio.
"A medida que la inteligencia artificial forma parte cada vez más de nuestras vidas, es importante entender cómo la interacción con un robot que muestra comportamientos similares a los humanos podría inducir una mayor probabilidad de atribución de acción intencional al robot", añade.
El estudio
El equipo hizo tres pruebas distintas con 119 participantes para examinar cómo percibían a un robot de aspecto humano, el iCub, después de socializar con él y ver videos juntos.
Antes y después de interactuar con el robot, los voluntarios completaron un cuestionario que les mostraba imágenes del robot en diferentes situaciones y les pedía que eligieran si la motivación de la máquina en cada situación era mecánica o intencionada.
Por ejemplo, los participantes vieron tres fotos que mostraban al robot seleccionando una herramienta y luego eligieron si este "agarraba el objeto más cercano o estaba fascinado por el uso de la herramienta", detalla una nota de la American Psychological Association.
En los dos primeros experimentos se controlaron a distancia las acciones de iCub para que se comportara de forma gregaria, saludando a los voluntarios, presentándose y preguntando sus nombres; las cámaras situadas en sus ojos eran capaces de reconocer las caras de los participantes y mantener el contacto visual.
A continuación, los voluntarios vieron tres videos documentales cortos con el robot, que estaba programado para responder con sonidos y expresiones faciales de tristeza, asombro o felicidad.
Tercera prueba
En el tercer experimento, se programó a iCub para que se comportara más como una máquina mientras veía los videos con los participantes: se desactivaron las cámaras de los ojos para eliminar el contacto visual y todas las reacciones emocionales a las imágenes se sustituyeron por un "pitido" y movimientos repetitivos de su torso, cabeza y cuello.
El equipo constató que los participantes que veían los videos con el robot de aspecto humano eran más propensos a calificar sus acciones como intencionadas en lugar de programadas, mientras que los que sólo interactuaban con el robot más maquinal no lo hacían.
Hallazgos
Esto demuestra que la mera exposición a un robot de aspecto humano no es suficiente para que la gente crea que es capaz de tener pensamientos y emociones; es el comportamiento similar al humano lo que podría ser crucial para ser percibido como un agente intencional.
Según Wykowska, esto podría servir de base para el diseño de los robots sociales del futuro: el vínculo social con ellos podría ser beneficioso en contextos como con los robots de asistencia social. Por ejemplo, en el cuidado de ancianos, donde se podría inducir un mayor grado de cumplimiento de las recomendaciones sobre la ingesta de medicamentos.