En febrero de 2025, líderes y expertos en inteligencia artificial (IA) de todo el mundo se reunieron en París, Francia, durante la primera Cumbre de Acción sobre Inteligencia Artificial.
El objetivo: sentar bases científicas, normativas y éticas para hacer más sostenible esta tecnología que, si bien es poderosa, también plantea desafíos legales y morales.
De acuerdo con Pedro Salazar Ugarte, académico del Instituto de Investigaciones Jurídicas de la UNAM, cualquier intento de regulación debe partir de tres pilares fundamentales:
Ética y transparencia: algoritmos comprensibles y sin sesgos
Protección de datos: seguridad de la información personal utilizada por sistemas de IA
Supervisión y responsabilidad: mecanismos de control que garanticen la rendición de cuentas
Salazar subrayó la necesidad de definir claramente qué es y qué no es inteligencia artificial, ya que muchos productos se promueven con esta etiqueta sin cumplir con los criterios reales. “Una mala propuesta puede ser costosa; se requiere un diálogo amplio entre expertos, legisladores, empresas y sociedad civil”, dijo.
La transformación del sector Fintech no se limita a nuevos productos, sino a una reconfiguración…
La Inteligencia Artificial (IA) ha provocado un cambio generacional en el mercado laboral estadounidense y…
Alemania lanzó la semana pasada un importante proyecto de inteligencia artificial (IA) para reducir su…
En 10 años, la productividad acumulada de 106 economías será 15 por ciento mayor en…
Un equipo de investigadores creó una red de sensores para monitorizar en tiempo real la…
Tres estudiantes de secundaria obtuvieron la medalla de oro en una de las competencias científicas…