El equipo de Saptarshi Das y Muhtasim Ul Karim Sadaf, de la Universidad Estatal de Pensilvania en Estados Unidos, se ha inspirado en el modo biológico de integrar los sentidos para aplicarlo a la inteligencia artificial y desarrollar la primera neurona artificial multisensorial integrada.
Los robots toman decisiones en función del entorno y circunstancias en que se encuentran, pero sus sensores no suelen comunicarse entre sí. Una decisión que tenga en cuenta la información de los sentidos puede tomarse mediante una unidad de procesamiento central, pero eso resta eficiencia al sistema.
Por ejemplo, un coche puede tener un sensor que busque obstáculos y otro que detecte la oscuridad para modular la intensidad de los faros.
Cada uno de estos sensores transmite información a una unidad central que ordena al coche frenar o ajustar los faros. Este proceso consume más energía. Permitir que los sensores se comuniquen directamente entre sí puede resultar más eficiente en términos de energía y de velocidad.
En un bosque oscuro, dependemos más del oído que de la vista, pero no tomamos decisiones basándonos en un solo sentido. Nuestras decisiones se basan en la integración de lo que vemos, oímos, tocamos o percibimos con los otros sentidos. Los sentidos evolucionaron juntos en la biología, pero en cambio han evolucionado por separado en la inteligencia artificial.
Fuente: noticiasdelaciencia.com
México desarrollará su propio lenguaje de inteligencia artificial (IA) con el apoyo de Nvidia. La…
El codirector ejecutivo de Netflix, Ted Sarandos, declaró que se empleó inteligencia artificial (IA) en…
WeTransfer, la popular plataforma para enviar archivos de gran tamaño, anunció un cambio significativo en…
El presidente estadounidense, Donald Trump, acompañado del senador republicano por Pensilvania Dave McCormick, anunció una…
La compañía de inteligencia artificial de Elon Musk, xAI, firmó un contrato con el Departamento…
Menores de edad, quienes practican videojuegos 10 horas o más, presentan signos de ansiedad y…