El equipo de Saptarshi Das y Muhtasim Ul Karim Sadaf, de la Universidad Estatal de Pensilvania en Estados Unidos, se ha inspirado en el modo biológico de integrar los sentidos para aplicarlo a la inteligencia artificial y desarrollar la primera neurona artificial multisensorial integrada.
Los robots toman decisiones en función del entorno y circunstancias en que se encuentran, pero sus sensores no suelen comunicarse entre sí. Una decisión que tenga en cuenta la información de los sentidos puede tomarse mediante una unidad de procesamiento central, pero eso resta eficiencia al sistema.
Por ejemplo, un coche puede tener un sensor que busque obstáculos y otro que detecte la oscuridad para modular la intensidad de los faros.
Cada uno de estos sensores transmite información a una unidad central que ordena al coche frenar o ajustar los faros. Este proceso consume más energía. Permitir que los sensores se comuniquen directamente entre sí puede resultar más eficiente en términos de energía y de velocidad.
En un bosque oscuro, dependemos más del oído que de la vista, pero no tomamos decisiones basándonos en un solo sentido. Nuestras decisiones se basan en la integración de lo que vemos, oímos, tocamos o percibimos con los otros sentidos. Los sentidos evolucionaron juntos en la biología, pero en cambio han evolucionado por separado en la inteligencia artificial.
Fuente: noticiasdelaciencia.com
En su columna en Infobae a la Tarde, el politólogo Tomás Trapé advirtió que la…
EL PAÍS ha puesto en marcha GuIA - IA avanzada para el sistema editorial, un…
El Departamento de Defensa de los Estados Unidos acordó con siete empresas líderes en inteligencia…
Frutas y verduras generados por inteligencia artificial (IA) son los protagonistas de las 'frutinovelas', un…
La Comisión de Ciencia y Tecnología del Senado presenta un nuevo marco normativo para regular…
La inteligencia artificial no solo sirve para estudiar o trabajar. También puede dar lugar a…