La inteligencia artificial (IA) tiene límites, sesgos algorítmicos, se trata de una mediación, de un artefacto; no es una deidad, un actor humano y tampoco puede tomar decisiones, sostuvo el investigador del Centro de Investigaciones Interdisciplinarias en Ciencias y Humanidades (CEIICH) de la UNAM, Luis Josué Lugo Sánchez.
Es necesario, dijo, pasar del acceso a su apropiación, integrarla a los procesos y transformarla en prácticas pedagógicas y de investigación éticas; es decir, del pánico a la coproducción de conocimiento.
Hay que asumir responsabilidades en su utilización y pugnar por marcos éticos que cada día se declaren más detrás de los modelos que empleamos, añadió al participar en la sesión Uso ético de la Inteligencia Artificial en la Investigación, como parte de la Cátedra Extraordinaria de Bioética.
El también director del Laboratorio de Inteligencia Artificial, Sociedad e Interdisciplina de la UNAM comentó que se apuesta por un modelo híbrido donde la IA es parte de diversos entornos, incluido el educativo y el de investigación.
La pregunta es cómo incorporarla de un modo ético y crítico, de tal manera que el pensamiento creativo, humano, tenga un lugar central, recalcó en la sesión virtual organizada por el Programa Universitario de Bioética (PUB).
De acuerdo con un estudio publicado este año por Benavides Lara, Rendón, Escalante, del Pilar Martínez y Sánchez, la IA es una realidad entre la comunidad de la UNAM.