La compañía Tesla exigió que se eliminen los videos que muestran a sus autos atropellando a maniquíes de tamaño infantil, debido a un supuesto malfuncionamiento del sistema FSD.
Los videos fueron publicados en la cuenta de Twitter de Dan O’Dowd, director de la organización The Dawn Project que busca visibilizar y prohibir el uso de software inseguro. En pocas palabras, busca prohibir el sistema de autoconducción de Tesla por considerarlo riesgoso.
En la página web refiere que “en promedio, aproximadamente cada 36 minutos de conducción en la ciudad, los defectos de seguridad en el software Full Self-Driving causan un mal funcionamiento en la dirección, el frenado o el acelerador, que si no es corregido por el conductor probablemente causaría un accidente».
O’Dowd y su equipo analizaron horas y horas de videos de los coches operando y cometiendo errores, pese a que fueron probados durante el día y en condiciones climáticas favorables.
Por eso, Tesla ha reclamado la publicación de los videos de The Dawn Project y exigido que sean bajados de las diversas redes en donde han sido publicados por considerarlos falsos y tendenciosos.
Fuente: Entrepreneur
El codirector ejecutivo de Netflix, Ted Sarandos, declaró que se empleó inteligencia artificial (IA) en…
WeTransfer, la popular plataforma para enviar archivos de gran tamaño, anunció un cambio significativo en…
El presidente estadounidense, Donald Trump, acompañado del senador republicano por Pensilvania Dave McCormick, anunció una…
La compañía de inteligencia artificial de Elon Musk, xAI, firmó un contrato con el Departamento…
Menores de edad, quienes practican videojuegos 10 horas o más, presentan signos de ansiedad y…
La Universidad Nacional Autónoma de México (UNAM) ha desarrollado un proyecto pionero que utiliza inteligencia…