El equipo de Saptarshi Das y Muhtasim Ul Karim Sadaf, de la Universidad Estatal de Pensilvania en Estados Unidos, se ha inspirado en el modo biológico de integrar los sentidos para aplicarlo a la inteligencia artificial y desarrollar la primera neurona artificial multisensorial integrada.
Los robots toman decisiones en función del entorno y circunstancias en que se encuentran, pero sus sensores no suelen comunicarse entre sí. Una decisión que tenga en cuenta la información de los sentidos puede tomarse mediante una unidad de procesamiento central, pero eso resta eficiencia al sistema.
Por ejemplo, un coche puede tener un sensor que busque obstáculos y otro que detecte la oscuridad para modular la intensidad de los faros.
Cada uno de estos sensores transmite información a una unidad central que ordena al coche frenar o ajustar los faros. Este proceso consume más energía. Permitir que los sensores se comuniquen directamente entre sí puede resultar más eficiente en términos de energía y de velocidad.
En un bosque oscuro, dependemos más del oído que de la vista, pero no tomamos decisiones basándonos en un solo sentido. Nuestras decisiones se basan en la integración de lo que vemos, oímos, tocamos o percibimos con los otros sentidos. Los sentidos evolucionaron juntos en la biología, pero en cambio han evolucionado por separado en la inteligencia artificial.
Fuente: noticiasdelaciencia.com
Hitachi anunció la creación de una Fábrica Global de Inteligencia Artificial (IA), construida sobre la…
Miles de líderes mundiales se reunieron en la Semana del Clima de Nueva York 2025,…
El comercio electrónico mantiene un crecimiento constante y, con la incursión de la inteligencia artificial,…
“Hay una especie de burbuja publicitaria en el espacio de capital de riesgo en etapa…
HONOR acaba de inaugurar la HONOR ALPHA Store, un espacio definido por la compañía como…
América Latina y el Caribe muestra una adopción de inteligencia artificial que supera su peso…