La inteligencia artificial (IA) tiene límites, sesgos algorítmicos, se trata de una mediación, de un artefacto; no es una deidad, un actor humano y tampoco puede tomar decisiones, sostuvo el investigador del Centro de Investigaciones Interdisciplinarias en Ciencias y Humanidades (CEIICH) de la UNAM, Luis Josué Lugo Sánchez.
Es necesario, dijo, pasar del acceso a su apropiación, integrarla a los procesos y transformarla en prácticas pedagógicas y de investigación éticas; es decir, del pánico a la coproducción de conocimiento.
Hay que asumir responsabilidades en su utilización y pugnar por marcos éticos que cada día se declaren más detrás de los modelos que empleamos, añadió al participar en la sesión Uso ético de la Inteligencia Artificial en la Investigación, como parte de la Cátedra Extraordinaria de Bioética.
El también director del Laboratorio de Inteligencia Artificial, Sociedad e Interdisciplina de la UNAM comentó que se apuesta por un modelo híbrido donde la IA es parte de diversos entornos, incluido el educativo y el de investigación.
La pregunta es cómo incorporarla de un modo ético y crítico, de tal manera que el pensamiento creativo, humano, tenga un lugar central, recalcó en la sesión virtual organizada por el Programa Universitario de Bioética (PUB).
De acuerdo con un estudio publicado este año por Benavides Lara, Rendón, Escalante, del Pilar Martínez y Sánchez, la IA es una realidad entre la comunidad de la UNAM.
La inteligencia artificial (IA) debe dejar de verse como una herramienta casi mágica o una…
Los trabajadores se enfrentan a un nuevo desafío para su bienestar: la IA anxiety o…
La Inteligencia Artificial (IA) ya forma parte de la vida cotidiana en México, está en…
Durante años dimos por sentado que, con los años, las memorias RAM (Random Access Memory/…
El gran crecimiento de la demanda de talento en IA en México (95%), aunque con…
La comisión del Senado de análisis, seguimiento y evaluación sobre la aplicación y desarrollo de…