En febrero de 2025, líderes y expertos en inteligencia artificial (IA) de todo el mundo se reunieron en París, Francia, durante la primera Cumbre de Acción sobre Inteligencia Artificial.
El objetivo: sentar bases científicas, normativas y éticas para hacer más sostenible esta tecnología que, si bien es poderosa, también plantea desafíos legales y morales.
De acuerdo con Pedro Salazar Ugarte, académico del Instituto de Investigaciones Jurídicas de la UNAM, cualquier intento de regulación debe partir de tres pilares fundamentales:
Ética y transparencia: algoritmos comprensibles y sin sesgos
Protección de datos: seguridad de la información personal utilizada por sistemas de IA
Supervisión y responsabilidad: mecanismos de control que garanticen la rendición de cuentas
Salazar subrayó la necesidad de definir claramente qué es y qué no es inteligencia artificial, ya que muchos productos se promueven con esta etiqueta sin cumplir con los criterios reales. “Una mala propuesta puede ser costosa; se requiere un diálogo amplio entre expertos, legisladores, empresas y sociedad civil”, dijo.
El codirector ejecutivo de Netflix, Ted Sarandos, declaró que se empleó inteligencia artificial (IA) en…
WeTransfer, la popular plataforma para enviar archivos de gran tamaño, anunció un cambio significativo en…
El presidente estadounidense, Donald Trump, acompañado del senador republicano por Pensilvania Dave McCormick, anunció una…
La compañía de inteligencia artificial de Elon Musk, xAI, firmó un contrato con el Departamento…
Menores de edad, quienes practican videojuegos 10 horas o más, presentan signos de ansiedad y…
La Universidad Nacional Autónoma de México (UNAM) ha desarrollado un proyecto pionero que utiliza inteligencia…