La compañía Tesla exigió que se eliminen los videos que muestran a sus autos atropellando a maniquíes de tamaño infantil, debido a un supuesto malfuncionamiento del sistema FSD.
Los videos fueron publicados en la cuenta de Twitter de Dan O’Dowd, director de la organización The Dawn Project que busca visibilizar y prohibir el uso de software inseguro. En pocas palabras, busca prohibir el sistema de autoconducción de Tesla por considerarlo riesgoso.
En la página web refiere que “en promedio, aproximadamente cada 36 minutos de conducción en la ciudad, los defectos de seguridad en el software Full Self-Driving causan un mal funcionamiento en la dirección, el frenado o el acelerador, que si no es corregido por el conductor probablemente causaría un accidente».
O’Dowd y su equipo analizaron horas y horas de videos de los coches operando y cometiendo errores, pese a que fueron probados durante el día y en condiciones climáticas favorables.
Por eso, Tesla ha reclamado la publicación de los videos de The Dawn Project y exigido que sean bajados de las diversas redes en donde han sido publicados por considerarlos falsos y tendenciosos.
Fuente: Entrepreneur
Crypto.com, el exchange de monedas digitales, lanzó un nuevo producto basado en IA para educar a…
Google cuenta con 61 cursos online, algunos de ellos son gratuitos y otros de pago,…
Galicia se posiciona en la élite de la inteligencia artificial. La creación del nuevo Laboratorio…
En los círculos financieros de Wall Street y la City londinense, la inteligencia artificial (IA)…
Andy Jassy, director ejecutivo de Amazon, escribió este jueves en una carta dirigida a accionistas…
La compañía Anthropic postergó el lanzamiento de su nuevo modelo de inteligencia artificial (IA) Claude…