En febrero de 2025, líderes y expertos en inteligencia artificial (IA) de todo el mundo se reunieron en París, Francia, durante la primera Cumbre de Acción sobre Inteligencia Artificial.
El objetivo: sentar bases científicas, normativas y éticas para hacer más sostenible esta tecnología que, si bien es poderosa, también plantea desafíos legales y morales.
De acuerdo con Pedro Salazar Ugarte, académico del Instituto de Investigaciones Jurídicas de la UNAM, cualquier intento de regulación debe partir de tres pilares fundamentales:
Ética y transparencia: algoritmos comprensibles y sin sesgos
Protección de datos: seguridad de la información personal utilizada por sistemas de IA
Supervisión y responsabilidad: mecanismos de control que garanticen la rendición de cuentas
Salazar subrayó la necesidad de definir claramente qué es y qué no es inteligencia artificial, ya que muchos productos se promueven con esta etiqueta sin cumplir con los criterios reales. “Una mala propuesta puede ser costosa; se requiere un diálogo amplio entre expertos, legisladores, empresas y sociedad civil”, dijo.
En la era de la digitalización, la industria alimentaria se enfrenta a retos que requieren…
Aunque originalmente nació como una plataforma para gamers, Discord se ha reinventado silenciosamente como una…
Colombia enfrenta un sistema de salud que funciona con información fragmentada y actores que operan…
Luis Alberto Valle Rueda, ingeniero en sistemas de la empresa Fortinet México, dio a conocer…
Desde el primer minuto quedó claro: la IA generativa no será solo una herramienta en…
La Inteligencia Artificial (IA) está transformando el panorama laboral en México y redefiniendo lo que…