En febrero de 2025, líderes y expertos en inteligencia artificial (IA) de todo el mundo se reunieron en París, Francia, durante la primera Cumbre de Acción sobre Inteligencia Artificial.
El objetivo: sentar bases científicas, normativas y éticas para hacer más sostenible esta tecnología que, si bien es poderosa, también plantea desafíos legales y morales.
De acuerdo con Pedro Salazar Ugarte, académico del Instituto de Investigaciones Jurídicas de la UNAM, cualquier intento de regulación debe partir de tres pilares fundamentales:
Ética y transparencia: algoritmos comprensibles y sin sesgos
Protección de datos: seguridad de la información personal utilizada por sistemas de IA
Supervisión y responsabilidad: mecanismos de control que garanticen la rendición de cuentas
Salazar subrayó la necesidad de definir claramente qué es y qué no es inteligencia artificial, ya que muchos productos se promueven con esta etiqueta sin cumplir con los criterios reales. “Una mala propuesta puede ser costosa; se requiere un diálogo amplio entre expertos, legisladores, empresas y sociedad civil”, dijo.
Crypto.com, el exchange de monedas digitales, lanzó un nuevo producto basado en IA para educar a…
Google cuenta con 61 cursos online, algunos de ellos son gratuitos y otros de pago,…
Galicia se posiciona en la élite de la inteligencia artificial. La creación del nuevo Laboratorio…
En los círculos financieros de Wall Street y la City londinense, la inteligencia artificial (IA)…
Andy Jassy, director ejecutivo de Amazon, escribió este jueves en una carta dirigida a accionistas…
La compañía Anthropic postergó el lanzamiento de su nuevo modelo de inteligencia artificial (IA) Claude…