El equipo de Saptarshi Das y Muhtasim Ul Karim Sadaf, de la Universidad Estatal de Pensilvania en Estados Unidos, se ha inspirado en el modo biológico de integrar los sentidos para aplicarlo a la inteligencia artificial y desarrollar la primera neurona artificial multisensorial integrada.
Los robots toman decisiones en función del entorno y circunstancias en que se encuentran, pero sus sensores no suelen comunicarse entre sí. Una decisión que tenga en cuenta la información de los sentidos puede tomarse mediante una unidad de procesamiento central, pero eso resta eficiencia al sistema.
Por ejemplo, un coche puede tener un sensor que busque obstáculos y otro que detecte la oscuridad para modular la intensidad de los faros.
Cada uno de estos sensores transmite información a una unidad central que ordena al coche frenar o ajustar los faros. Este proceso consume más energía. Permitir que los sensores se comuniquen directamente entre sí puede resultar más eficiente en términos de energía y de velocidad.
En un bosque oscuro, dependemos más del oído que de la vista, pero no tomamos decisiones basándonos en un solo sentido. Nuestras decisiones se basan en la integración de lo que vemos, oímos, tocamos o percibimos con los otros sentidos. Los sentidos evolucionaron juntos en la biología, pero en cambio han evolucionado por separado en la inteligencia artificial.
Fuente: noticiasdelaciencia.com
Meta (Facebook), el gigante de redes sociales, se está posicionando en lugar de privilegio en…
La inteligencia artificial ya sirve como una herramienta para realizar ciberataques. El Informe Internacional Sobre…
Vivir de la creatividad en México ha sido durante décadas una lógica de resistencia más…
El Gobierno estadounidense podría haber utilizado herramientas de Anthropic, una empresa de inteligencia artificial con…
El papa León XIV pidió a los sacerdotes que no utilicen herramientas de inteligencia artificial…
La inteligencia artificial que usamos a diario funciona como un gigantesco cerebro virtual. Aprende analizando…