La inteligencia artificial (IA) tiene límites, sesgos algorítmicos, se trata de una mediación, de un artefacto; no es una deidad, un actor humano y tampoco puede tomar decisiones, sostuvo el investigador del Centro de Investigaciones Interdisciplinarias en Ciencias y Humanidades (CEIICH) de la UNAM, Luis Josué Lugo Sánchez.
Es necesario, dijo, pasar del acceso a su apropiación, integrarla a los procesos y transformarla en prácticas pedagógicas y de investigación éticas; es decir, del pánico a la coproducción de conocimiento.
Hay que asumir responsabilidades en su utilización y pugnar por marcos éticos que cada día se declaren más detrás de los modelos que empleamos, añadió al participar en la sesión Uso ético de la Inteligencia Artificial en la Investigación, como parte de la Cátedra Extraordinaria de Bioética.
El también director del Laboratorio de Inteligencia Artificial, Sociedad e Interdisciplina de la UNAM comentó que se apuesta por un modelo híbrido donde la IA es parte de diversos entornos, incluido el educativo y el de investigación.
La pregunta es cómo incorporarla de un modo ético y crítico, de tal manera que el pensamiento creativo, humano, tenga un lugar central, recalcó en la sesión virtual organizada por el Programa Universitario de Bioética (PUB).
De acuerdo con un estudio publicado este año por Benavides Lara, Rendón, Escalante, del Pilar Martínez y Sánchez, la IA es una realidad entre la comunidad de la UNAM.
¿Por qué la inteligencia artificial (IA) funciona con una lengua dominante como el inglés y…
Decenas de países, entre ellos Estados Unidos y China, abogaron por una inteligencia artificial "segura,…
Un poste negro de aproximadamente ocho metros de altura pasa desapercibido entre las conocidas columnas…
La inteligencia artificial (IA) es un instrumento que se está desarrollando muy rápido y que…
OpenAI prepara su salto más ambicioso fuera del software, una línea completa de dispositivos físicos…
IA y armas de destrucción masiva: la brecha de seguridad que preocupa al mundo. En…