El desarrollo de la Inteligencia Artificial está en cada rincón ya sea que se use para generar música, videojuegos, encontrar tratamientos médicos y ahora para predecir quién se convertirá en un delincuente, lo que despertó la curiosidad de los expertos en esta tecnología.
Es por esto que se reunió un equipo de más de 2 mil investigadores, académicos y especialistas en inteligencia artificial, lo que incluye también empleados de Facebook, Google y Microsoft, que se han pronunciado para dar a conocer su descontento en contra del uso de redes neuronales para predecir la criminalidad de una persona.
Los autores dueños de esta investigación afirman y aseguran que su software de reconocimiento facial automatizado puede decir de manera segura si una persona se convertirá en un delincuente, por lo que están buscando que haya un organismo que tenga la aplicación de la ley.
“Al automatizar la identificación de posibles amenazas eliminando los prejuicios y las respuestas emocionales se podrá garantizar una mejor impartición de la ley” señaló el profesor y coautor de la Universidad de Harrisburg, Nathaniel JS Ashby.
Sin embargo, los expertos en inteligencia artificial expresaron que puede haber «graves preocupaciones» ya que el uso del reconocimiento facial y la tecnología de predicción de delitos deben abordarse con extrema precaución para que esta no pueda aprovecharse contra las masa.
Además de que dicen que es poco ético sino que est basada en premisas, e investigaciones y métodos científicos poco confiables.
“Los programas de aprendizaje automático no son neutrales. Las agendas de investigación y los conjuntos de datos con los que trabajan a menudo heredan creencias culturales dominantes sobre el mundo”, advierten los autores de la carta.