La compañía Tesla exigió que se eliminen los videos que muestran a sus autos atropellando a maniquíes de tamaño infantil, debido a un supuesto malfuncionamiento del sistema FSD.
Los videos fueron publicados en la cuenta de Twitter de Dan O’Dowd, director de la organización The Dawn Project que busca visibilizar y prohibir el uso de software inseguro. En pocas palabras, busca prohibir el sistema de autoconducción de Tesla por considerarlo riesgoso.
En la página web refiere que “en promedio, aproximadamente cada 36 minutos de conducción en la ciudad, los defectos de seguridad en el software Full Self-Driving causan un mal funcionamiento en la dirección, el frenado o el acelerador, que si no es corregido por el conductor probablemente causaría un accidente».
O’Dowd y su equipo analizaron horas y horas de videos de los coches operando y cometiendo errores, pese a que fueron probados durante el día y en condiciones climáticas favorables.
Por eso, Tesla ha reclamado la publicación de los videos de The Dawn Project y exigido que sean bajados de las diversas redes en donde han sido publicados por considerarlos falsos y tendenciosos.
Fuente: Entrepreneur
Hitachi anunció la creación de una Fábrica Global de Inteligencia Artificial (IA), construida sobre la…
Miles de líderes mundiales se reunieron en la Semana del Clima de Nueva York 2025,…
El comercio electrónico mantiene un crecimiento constante y, con la incursión de la inteligencia artificial,…
“Hay una especie de burbuja publicitaria en el espacio de capital de riesgo en etapa…
HONOR acaba de inaugurar la HONOR ALPHA Store, un espacio definido por la compañía como…
América Latina y el Caribe muestra una adopción de inteligencia artificial que supera su peso…