El equipo de Saptarshi Das y Muhtasim Ul Karim Sadaf, de la Universidad Estatal de Pensilvania en Estados Unidos, se ha inspirado en el modo biológico de integrar los sentidos para aplicarlo a la inteligencia artificial y desarrollar la primera neurona artificial multisensorial integrada.
Los robots toman decisiones en función del entorno y circunstancias en que se encuentran, pero sus sensores no suelen comunicarse entre sí. Una decisión que tenga en cuenta la información de los sentidos puede tomarse mediante una unidad de procesamiento central, pero eso resta eficiencia al sistema.
Por ejemplo, un coche puede tener un sensor que busque obstáculos y otro que detecte la oscuridad para modular la intensidad de los faros.
Cada uno de estos sensores transmite información a una unidad central que ordena al coche frenar o ajustar los faros. Este proceso consume más energía. Permitir que los sensores se comuniquen directamente entre sí puede resultar más eficiente en términos de energía y de velocidad.
En un bosque oscuro, dependemos más del oído que de la vista, pero no tomamos decisiones basándonos en un solo sentido. Nuestras decisiones se basan en la integración de lo que vemos, oímos, tocamos o percibimos con los otros sentidos. Los sentidos evolucionaron juntos en la biología, pero en cambio han evolucionado por separado en la inteligencia artificial.
Fuente: noticiasdelaciencia.com
La inteligencia artificial comienza a posicionarse como una aliada para fortalecer la planeación financiera y…
El Gobierno de Indonesia ha anunciado el bloqueo provisional de la inteligencia artificial de la…
Telefónica Movistar México advirtió que el nuevo proceso de identificación obligatoria de líneas móviles implica…
Spotify emitió una declaración tras la decisión de Café Tacvba de solicitar el retiro de…
Inteligencia Artificial (IA) se ha convertido en parte del día a día de las personas,…
El director de Divinity, el nuevo título de Larian Studios recién anunciado, habló recientemente sobre…