Por Tom Siegfried.
Como ese niño emotivo David, interpretado por Haley Joel Osment, en la película A.I. o WALL-E, que obviamente sentía algo por EVE-uh. Robby el Robot sonaba muy emotivo cada vez que le advertía a Will Robinson del peligro. Por no hablar de todos esos robots locos y desquiciados de Westworld.
Pero en la vida real los robots no tienen más sentimientos que una roca sumergida en novocaína.
Sin embargo, podría haber una manera de dar sentimientos a los robots, dicen los neurocientíficos Kingson Man y Antonio Damasio. Simplemente construya el robot con la capacidad de sentir el peligro de su propia existencia. Entonces tendría que desarrollar sentimientos para guiar los comportamientos necesarios para asegurar su propia supervivencia.
«Los robots de hoy en día carecen de sentimientos», escriben el hombre y Damasio en un nuevo artículo (se requiere suscripción) en Nature Machine Intelligence. «No están diseñados para representar el estado interno de sus operaciones de una manera que les permita experimentar ese estado en un espacio mental.»
Así que Man y Damasio proponen una estrategia para imbuir a las máquinas (como los robots o los androides humanos) con el «equivalente artificial del sentimiento». En su esencia, esta propuesta pide máquinas diseñadas para observar el principio biológico de la homeostasis. Esa es la idea de que la vida debe regularse a sí misma para permanecer dentro de un rango estrecho de condiciones adecuadas, como mantener los equilibrios químicos y de temperatura dentro de los límites de la viabilidad. La conciencia de una máquina inteligente de las características análogas de su estado interno equivaldría a la versión robótica de los sentimientos.
Tales sentimientos no sólo motivarían el comportamiento auto conservador, creen el hombre y Damasio, sino que también inspirarían la inteligencia artificial para emular más de cerca lo real.
Las típicas máquinas «inteligentes» están diseñadas para realizar una tarea específica, como diagnosticar enfermedades, conducir un coche, jugar al Go o ganar en Jeopardy! Pero la inteligencia en un campo no es lo mismo que la inteligencia humana más general que se puede desplegar para hacer frente a todo tipo de situaciones, incluso a aquellas que nunca antes se habían encontrado. Los investigadores han buscado durante mucho tiempo la receta secreta para hacer que los robots sean más inteligentes de una manera más general.
Para Man y Damasio, los sentimientos son el ingrediente que falta.
Los sentimientos surgen de la necesidad de sobrevivir. Cuando los humanos mantienen un robot en un estado viable (cables conectados, cantidad adecuada de corriente eléctrica, temperatura confortable), el robot no tiene que preocuparse por su propia conservación. Así que no tiene necesidad de sentimientos – señales de que algo necesita ser reparado.
Los sentimientos motivan a los seres vivos a buscar estados óptimos de supervivencia, ayudando a asegurar que los comportamientos mantengan el equilibrio homeostático necesario. Una máquina inteligente con un sentido de su propia vulnerabilidad debe actuar de manera similar de manera que minimice las amenazas a su existencia.
Sin embargo, para percibir tales amenazas, un robot debe estar diseñado para comprender su propio estado interno.
Man y Damasio, de la Universidad del Sur de California, dicen que las perspectivas de construir máquinas con sentimientos han sido mejoradas por los recientes desarrollos en dos campos de investigación clave: robótica suave y aprendizaje profundo. El progreso en robótica blanda podría proporcionar las materias primas para máquinas con sentimientos. Los métodos de aprendizaje profundo podrían permitir la computación sofisticada necesaria para traducir esos sentimientos en comportamientos que sustentan la existencia.
El aprendizaje profundo es un descendiente moderno de la vieja idea de las redes neuronales artificiales – conjuntos de elementos informáticos conectados que imitan las células nerviosas que trabajan en un cerebro vivo. Las entradas en la red neural modifican las fuerzas de los enlaces entre las neuronas artificiales, permitiendo que la red detecte patrones en las entradas.
El aprendizaje profundo requiere múltiples capas de redes neuronales. Los patrones en una capa expuestos a la entrada externa pasan a la siguiente capa y luego a la siguiente, lo que permite a la máquina discernir patrones en los patrones. El aprendizaje profundo puede clasificar esos patrones en categorías, identificando objetos (como gatos) o determinando si una tomografía computarizada revela signos de cáncer u otra enfermedad.
Un robot inteligente, por supuesto, necesitaría identificar muchas características en su entorno, al mismo tiempo que mantiene un seguimiento de su propio estado interno. Al representar computacionalmente los estados ambientales, una máquina de aprendizaje profundo podría fusionar diferentes aportaciones en una evaluación coherente de su situación. Una máquina tan inteligente como ésta, nota de Man y Damasio, podría «tender un puente entre las modalidades sensoriales», aprendiendo, por ejemplo, cómo los movimientos de los labios (modalidad visual) se corresponden con los sonidos vocales (modalidad auditiva).
Del mismo modo, ese robot podía relacionar las situaciones externas con sus condiciones internas, sus sentimientos, si los tenía. Vincular las condiciones externas e internas «es una pieza crucial del rompecabezas de cómo entrelazar los estados homeostáticos internos de un sistema con sus percepciones y comportamiento externos», anotan el hombre y Damasio.
Sin embargo, la capacidad de percibir estados internos no importaría mucho, a menos que la viabilidad de esos estados sea vulnerable a las agresiones del medio ambiente. Los robots de metal no se preocupan por las picaduras de mosquitos, cortes de papel o indigestión. Pero si está hecho de materiales blandos apropiados incrustados con sensores electrónicos, un robot podría detectar tales peligros – digamos, un corte a través de su «piel» amenazando sus entrañas – y poner en marcha un programa para reparar la lesión.
Un robot capaz de percibir los riesgos existenciales podría aprender a idear nuevos métodos para su protección, en lugar de basarse en soluciones preprogramadas.
«En lugar de tener que codificar un robot para cada eventualidad o equiparlo con un conjunto limitado de políticas de comportamiento, un robot preocupado por su propia supervivencia podría resolver de forma creativa los desafíos que se le presentan», sospechan Man y Damasio. «Los objetivos y valores básicos serían descubiertos orgánicamente, en lugar de ser diseñados extrínsecamente.»
La creación de nuevas capacidades de autoprotección también puede conducir a una mejora de las habilidades de pensamiento. El hombre y Damasio creen que el pensamiento humano avanzado puede haberse desarrollado de esa manera: El mantenimiento de estados internos viables (homeostasis) requería la evolución de una mejor capacidad cerebral. «Consideramos la cognición de alto nivel como una consecuencia de los recursos que se originaron para resolver el antiguo problema biológico de la homeostasis», escriben el hombre y Damasio.
Por lo tanto, proteger su propia existencia podría ser la motivación que un robot necesita para emular eventualmente la inteligencia general humana. Esa motivación recuerda a las famosas leyes de la robótica de Isaac Asimov: Los robots deben proteger a los humanos, los robots deben obedecer a los humanos, los robots deben protegerse a sí mismos. En la ficción de Asimov, la autoprotección estaba subordinada a las dos primeras leyes. En los futuros robots de la vida real, por lo tanto, es posible que se necesiten algunas precauciones para proteger a las personas de los robots autoprotectores.
«Las historias sobre robots a menudo terminan mal para sus creadores humanos», reconocen Man y Damasio. Pero, ¿realmente un robot superinteligente (con sentimientos) plantearía peligros como los de Terminator? «Sugerimos que no,» dicen, «siempre y cuando, por ejemplo, además de tener acceso a sus propios sentimientos, pueda conocer los sentimientos de los demás, es decir, si está dotado de empatía».
Así que Man y Damasio sugieren sus propias reglas para los robots: 1. Sentirse bien. 2. Siente empatía.
«Asumiendo que un robot ya capaz de sentir genuinamente, un vínculo obligatorio entre sus sentimientos y los de los demás resultaría en su comportamiento ético y sociable», sostienen los neurocientíficos.
Eso puede parecer un poco optimista. Pero si es posible, tal vez haya esperanza de un futuro mejor. Si los científicos logran inculcar empatía en los robots, tal vez eso sugiera una forma de hacerlo también en los humanos.