Agencias / InsurgentePress, Ciudad de México.- La ilusión de la mano de goma es un conocido experimento en el que se hace creer a los participantes que una extremidad de plástico es la suya propia ha cobrado vida en un humanoide con inteligencia artificial desarrollado en Alemania.

Se oculta un brazo, se sustituye por otro de pega y se estimulan los dos a la vez con un pincel o una pluma. Pasado poco tiempo, muchos voluntarios reaccionan cuando se golpea la mano falsa, a la que ya consideran parte de su cuerpo.

El doctor en inteligencia artificial Pablo Lanillos (Madrid, 1981) está realizando el mismo experimento con un humanoide del Instituto de Sistemas Cognitivos de la Universidad Tecnológica de Múnich, en Alemania, donde ha conseguido replicar estas reacciones humanas en las máquinas. El proyecto, denominado Selfception, está financiado por la Unión Europea a través de una beca Marie Curie.

Pablo Lanillos investiga con humanoides en el Instituto de Sistemas Cognitivos de la Universidad Tecnológica de Múnich (Alemania). / ICS-TUM

¿Cuál es el objetivo de este proyecto?
Tratamos de que los robots puedan responder a la pregunta: “¿Es este mi cuerpo?”. El objetivo de este proyecto de dos años –ahora estamos justo en la mitad– es conseguir que las máquinas aprendan a reconocer su propio cuerpo y distinguirlo de otros elementos que les rodean. Mediante algortimos de aprendizaje, intentamos que las máquinas entiendan la relación entre lo que perciben y las acciones que realizan.

¿Y por qué eligieron la ilusión de la mano de goma para investigar?
Este famoso test se utiliza para estudiar cómo los humanos procesamos la información sensorial. Con él se descubrió que la percepción de nuestro cuerpo es muy plástica y casi instantánea: en menos de un minuto te pueden hacer creer que una mano que no es tuya lo es. Esto lo aplicamos en un robot –llamado TUMM– con capacidad de visión, tacto y de sentir su brazo a través de sensores. Como modelo teórico usamos el de Karl Friston, uno de los neurocientíficos que más ha influido en computación, y que asume que nuestro cerebro es una máquina bayesiana.

¿Han conseguido ya algún resultado?
Sí. Por primera vez hemos logrado replicar la ilusión de la mano de goma en robots, en concreto uno de sus efectos: el desplazamiento del esquema general del cuerpo, que se adapta a las nuevas sensaciones. En el experimento con humanos, cuando se les pregunta a los participantes dónde está su mano escondida, en lugar de indicar la posición real señalan una posición desplazada hacia la mano de plástico; y con TUMM ocurre lo mismo.

¿Cómo les informa el humanoide de lo que ‘siente’?
Por supuesto, al robot no le podemos preguntar si cree que su mano es suya o dónde la siente. Lo que hicimos es realizar un experimento con personas para ver cuánto se desplazaba porcentualmente el eje corporal si poníamos la mano de plástico a distintas distancias. Repetimos el ejercicio con el robot y comprobamos que los gráficos seguían un mismo patrón. De momento es un modelo simplificado, que iremos complicando con redes neuronales.

¿Esto es lo que has presentado esta semana en Madrid durante la feria de robótica IROS 2018?
Este estudio se ha publicado en el marco del congreso, pero además he participado en un workshop donde he explicado el algoritmo que utilizo para modelar la percepción del robot, un modelo matemático inspirado en el funcionamiento del cerebro. La parte más interdisciplinar del proyecto la presenté el mes pasado en el congreso ICDL-Epirob de Japón, donde están más acostumbrados a mezclar disciplinas distintas, como la robótica con la psicológica y la neurociencia. En última estancia lo que queremos es aprender del cerebro y del cuerpo para desarrollar una versión mejorada de la inteligencia artificial.

¿Para aplicarlo en los futuros robots…?
Ahora disponemos de robots cilíndricos o industriales relativamente sencillos, pero los humanoides se enfrentan a dos problemas. Por un lado tienen que saber en todo momento dónde está su cuerpo. Esto de momento se soluciona con diseños perfectos, muy costosos, pero estas técnicas no funcionan en el momento que surge cualquier deficiencia de fabricación o que se use ‘músculos’ robóticos en lugar de los motores estándar.

Aquí es donde entra su solución bioinspirada…
Sí. Hay gente que lo intenta solucionar desde la ingeniería pura, con algoritmos que no tienen nada que ver con la biología. Nosotros nos fijamos en cómo funcionan los humanos para desarrollar esa inteligencia artificial mejorada. Además, si conseguimos que el robot tenga una percepción que biológicamente tenga sentido, lo que encontremos se podría usar en psicología. Aunque esto es controvertido, considero que las ilusiones del cuerpo nos dan unas medidas objetivas que podemos usar para cuantificar lo reales que son los modelos.

¿Estos estudios nos pueden ayudar a conocernos a nosotros mismos?
El proyecto Selfception trata de implementar en los robots lo que llamamos el ‘yo’, un concepto un tanto abstracto. Mi hipótesis, basada en la de otras personas, es que existen unos patrones que no reflejan el conocido yo reflexivo (“pienso, luego existo”), sino que subyacen debajo ayudando a identificar el propio cuerpo de forma inconsciente. Se trata de un yo sensomotor, cuyo aprendizaje –además de sus aplicaciones en la aceptación de prótesis y el tratamiento de trastornos neurobiológicos donde interviene el ‘yo’, como la esquizofrenia y el autismo–  permitirá que algún día los humanoides puedan distinguir entre máquinas y humanos, algo esencial para que los dos se puedan relacionar de forma integral en el futuro.

La investigadora pasa una pluma sobre el brazo falso colocado a un robot, mientras se oculta el auténtico, para simular el experimento de la ilusión de la mano de goma. / ICS-TUM
Comentarios desactivados en Reconoce robot con inteligencia artificial las partes de su cuerpo