polifonIA.org | Carlos Macías. La mayoría de los esfuerzos latinoamericanos para regular la Inteligencia Artificial se centran en el Enfoque de riesgo IA, que se planteó en Europa desde la primera etapa de su Ley IA (2021-2024).
Hace algunas semanas, presentamos aquí una revisión de las iniciativas latinoamericanas en curso y de los avances de regulación en Europa y Estados Unidos. En cada bloque geopolítico se percibe un claro contraste.
¿Por qué importa precisar el enfoque de la regulación IA?
En el caso de Estados Unidos, las Órdenes Ejecutivas emitidas hasta ahora por la Administración del Presidente Donald Trump, privilegian el Enfoque de innovación. Pero también el control federal. Si se juzgara por su énfasis, diríamos que las Órdenes Ejecutivas anteponen la hegemonía federal frente a las legislaciones estatales de fomento de la IA.
Hasta ahora, Estados Unidos ha eludido proponer un Enfoque centrado en riesgo de la IA.
En cambio, la ruta de trabajo en el viejo continente fue establecida por el Parlamento Europeo (y la Comisión Europea), desde su Reglamento de 2021.
Y se ha consolidado en su forma actual, como Ley IA («Act AI» de 2024).
La ley IA de Europa, con proyección a 2031, se centra en el Enfoque de riesgo. En ese plano han trabajado con consistencia y gradualidad.
Cuentan con un cronograma ajustable y una estrategia conjunta de gobernanza. Han avanzado en una norma flexible, por lo que -se prevé- estará preparada para el futuro.
Quizá con el tiempo emerjan algunas disyuntivas difíciles, desde nuestro punto de vista. Son las que se derivan de las sucesivas etapas del Enfoque de riesgo, las estrategias y su marco para ser aplicados. Resultan demasiado complejos e insertos en tiempos de alternancia institucional en el viejo continente. En seguida ampliaremos esta impresión.
Grado de avance de iniciativas de ley de IA, por país
Legislación sobre inteligencia artificial · Panorama global 2026
Grado de avance de iniciativas de ley de IA por país
Grado de avance
Pasa el cursor sobre los países
Fuentes: IAPP Global AI Law & Policy Tracker (feb. 2026); Comisión Europea; OneTrust Outlook 2026; Eversheds-Sutherland Global AI Bulletin (abr. 2026); NCSL; Ministerio de Ciencia, TIC y Futuro de Corea; MIC de Japón.
Mapa interactivo y tridimensional: diseñado por Claude Opus 4.7, de Anthropic.
¿Cuál es el estado actual de la regulación latinoamericana IA?
El apremio por regular la IA, al que han estado sometidos los poderes públicos en América Latina, desde hace un par de años, ha sido sofocante.
Ello ha transcurrido a tono con el crecimiento y la masificación de los modelos de lenguaje ampliado (LLMs).
La expectativa creada para normar la IA en América Latina, estimulada por sectores de interés, ha sido creciente.
Suele apurarse a los Congresos y/o a las Asambleas Nacionales para contar con una regulación de IA. Una regulación que pueda cubrir los ámbitos que han resultado más sensibles: el educativo, el laboral, el corporativo y los que corresponden a los derechos de autoría y doblaje.
Pero debe aceptarse: detrás de tal presión se agazapa una sombra de interés adverso hacia el ámbito de la «expresión humana». Una «expresión humana» emergente que se ha beneficiado de la tecnología, para potenciar sus reacciones en las redes sociales.
Por ello, los actores políticos de todos los colores suelen confundir y, a veces fusionar, el empleo creciente de la IA con los efectos de la expresión en las redes. Les desafía el uso empoderado con que se pueden expresar las personas, y desconfían de la multiplicación de los códigos de lenguaje. En especial, los gráficos.
No debe extrañar, por ello, que los Congresos y las Asambleas de los países latinoamericanos hayan avanzado con el espejo pre elaborado que les ofrece Europa y su precursora Ley IA.
La mayoría de los parlamentos en los países latinoamericanos se decantan, en sus iniciativas, por apelar al Enfoque de riesgo. El mismo que Europa ha priorizado desde el desarrollo inicial de su Ley, en 2021.
Predominio del Enfoque de riesgo en América Latina
También resulta alentador ver Asambleas y Congresos latinoamericanos que ya cuentan con versiones de iniciativas basadas en Enfoque de riesgo, pero que se han mostrado precavidas: muestran una notable apertura y gradualidad. (La iniciativa chilena es un buen ejemplo).

Existen, en cambio, otras iniciativas guiadas por el apremio de legislar IA. Buscan imprimir un enfoque político a su iniciativa de IA (no público, como se esperaría).
Parecen dirigir el contenido de su iniciativa al ámbito moral y conductual de las redes sociales. Como réplica a la propagación multimodal de la opinión individual -con renovadas alternativas tecnológicas-. Permanecen así distantes, en el fondo, del Enfoque de riesgo europeo.
Pero quizá el verdadero riesgo pueda recaer en aquellos ambientes nacionales que no gozan por completo de instituciones democráticas arraigadas. Que cuentan con insuficientes condiciones institucionales para acoger la diversidad de idearios y de proyectos.
Vale decir, la Ley IA de Europa no se aplica a las expresiones y opiniones que puedan valerse de la IA. Está dirigida centralmente a los sistemas IA, en sus cuatro niveles de riesgo.
Esto es, no está habilitada para pronunciarse acerca de la conveniencia (o no) de publicar un meme generado por IA, con objeto de ser difundido en las redes sociales.
La Ley Europea es de naturaleza progresiva. Proyecta que a su culminación, el 2 de agosto de 2031, la Comisión Europea lleve «a cabo una evaluación de la aplicación del presente Reglamento e informará al respecto al Parlamento Europeo, al Consejo y al Comité Económico y Social Europeo».
Por ello, la Comisión Europea reconoce que su gradual desarrollo habrá de ser necesariamente enmendable.
¿Por qué debe ser de aplicación gradual todo proyecto de Ley IA?
Comencemos por acentuar que La Ley de IA de Europa «no se aplica a todas las soluciones de IA, sino solo a aquellas que cumplen la definición de sistema de IA«. (Artículo 3, 1).
El Parlamente Europeo reconoce que «la mayoría de los sistemas de IA presentan riesgos mínimos o nulos y pueden contribuir a resolver muchos problemas sociales». Pero ciertos sistemas de IA podrían generar riesgos «que debemos abordar para evitar resultados indeseables«.
Adapta su aplicación a los niveles de riesgo. El riesgo mayor, que merece más atención es el que se define como «inaceptable»: para la salud, la seguridad y los derechos constitucionales.
Colocan como prioridad la protección a la no discriminación «puntuación social», la seguridad (control fronterizo, vehículos autónomos).
Definitivamente, sancionar un meme en redes sociales con IA, no parece interesar a la Ley IA de Europa.
Algunos sistemas de IA deben cumplir requisitos de transparencia (por ejemplo, las falsificaciones profundas deberán etiquetarse como generadas por IA; los chatbots deberán informar de que una persona no se está comunicando con un ser humano).
El resto de sistemas de IA permanecen sin regular y pueden comercializarse, ponerse en servicio o utilizarse en la UE sin ningún requisito; en el momento de la elaboración de la propuesta de la Ley de IA, se estimaba que estos representarían el 85 %. (Véase Ley IA).
Recomendamos simplificar las Leyes IA latinoamericanas. Quizá no es funcional «una» sola Ley IA nacional
Tan progresiva e intrincada es la Ley IA de Europa (2024) que, para ser aplicada en la actualidad, se le ha ha añadido una propuesta de simplificación en 2026. Vamos a citar lo más relevante:
El Paquete Digital sobre Simplificación propone enmiendas para simplificar la implementación de la Ley de IA y garantizar que las normas sigan siendo claras, sencillas y favorables a la innovación.
La Comisión propone ajustar el plazo de aplicación de las normas de alto riesgo a un máximo de 16 meses. Esto garantiza que las normas se apliquen cuando las empresas cuenten con las herramientas de apoyo adecuadas para facilitar su implementación, como por ejemplo, las normas.
La Comisión Europea está proponiendo, en estos días, enmiendas específicas a su Ley de IA.
En marzo de 2026, el Parlamento Europeo aún discutía la propuesta de simplificación. Se reconsideraron las fechas de aplicación para los sistemas de más riesgo y el veto de los desnudos falsos. (Véase ambos temas en el sitio del Parlamento Europeo).
¿Quién aplica los términos de la Ley IA europea?
Es muy importante señalar que la Ley IA europea confiere al comité científico el papel preponderante «a la hora de garantizar la correcta aplicación de la Ley». Éste podrá emitir una alerta a la Oficina de IA en caso de que «se sospeche que un modelo de IA general (GPAI) plantea un riesgo concreto e identificable a escala de la UE o cuando un modelo GPAI constituya un modelo GPAISR» (artículo 90).
Según el artículo 18, apartado 1, del acto de ejecución de la Comisión relativo al comité científico, para poder emitir cualquier alerta cualificada, se requiere -como mínimo- la mayoría simple de los miembros del comité científico.
La aplicación de la Ley IA europea reserva un conjunto de mecanismos para garantizar la imparcialidad de la decisión.
Cuando el comité científico envíe la «alerta cualificada» a la Oficina de IA, ésta aún cuenta con un par de semanas para decidir si ejerce sus facultades.
Se trata, de acuerdo con la Comisión Europea, de «un procedimiento ágil, [que] hace que el mecanismo de las alertas cualificadas resulte especialmente útil en el marco de la aplicación de la Ley de IA.
Vamos por partes.
The Brussels Effect y el Enfoque de Cuatro Riesgos

Todavía hace seis años, la profesora Anu Bradford, de la Escuela de Derecho de Columbia, aludía a la fuerte prevalencia de Europa.
Su libro de 2020 acudió al actual papel influyente de Europa. Lo tituló de nuevo The Brussels Effect: How the European Union Rules the World, Faculty Books (2020).
(Recuérdese que a raíz de su artículo de 2012 -«The Brussels Effect»-, Bradford se volvió una autora de referencia. Como se sabe, la sede de la Unión Europea se ubica en Bruselas).
Anne Bradford definió -en 2020- a Europa como…
«una superpotencia influyente que moldea el mundo a su imagen.«
«Al promulgar regulaciones que moldean el entorno empresarial internacional, eleva los estándares a nivel mundial, conduce a una notable europeización de muchos aspectos importantes del comercio global.«
«La UE ha logrado dar forma a las políticas en áreas como la privacidad de los datos, la salud y seguridad del consumidor, la protección del medio ambiente, la lucha contra la competencia y el discurso de odio en línea.”
[Véase la descripción de la obra, en Columbia Law School].
Por ahora, la visión de Bradford es convergente con la manera en que Europa ha marcado la agenda IA -con sus ejes de regulación-, para ayudar a modelar las propuestas en los países emergentes.
El enfoque de cuatro riesgos (que llegó para quedarse)
Vale señalar que la ruta de trabajo para regular la IA inició en Europa desde 2021. En ese momento, la Comisión Europea culminó una propuesta legislativa para considerar el Reglamento General de IA.
Ahí nació justo el Enfoque basado en cuatro riesgos: inaceptable, alto, limitado y mínimo.
Tres años más tarde, en mayo de 2024, el Consejo de la Unión Europea decidió su aprobación.
El Enfoque de cuatro riesgos no está dirigido en esencia a los ciudadanos. Está dirigido a los sistemas IA, que pueden ser dirigidos por personas físicas y morales
Las prohibiciones del artículo 5 de la Ley de IA incluyen lo siguiente. Ciertas prácticas manipuladoras, la puntuación social, la vigilancia predictiva basada únicamente en la elaboración de perfiles, la extracción de datos de internet y de material de CCTV para crear o ampliar bases de datos de reconocimiento facial. El reconocimiento de emociones en la educación y el lugar de trabajo. La categorización biométrica para inferir atributos sensibles como la opinión política o la orientación sexual; y la identificación biométrica remota en tiempo real con fines policiales en espacios de acceso público (con algunas excepciones limitadas).
[Véase Comisión Europea].
Los cuatro niveles del Enfoque de riesgo europeo
Nivel 1. Riesgo inaceptable
Todos los sistemas de IA considerados una clara amenaza para la seguridad, el sustento y los derechos de las personas están prohibidos. La Ley de IA prohíbe ocho prácticas, a saber:
- Manipulación y engaño dañinos basados en IA
- Explotación dañina de vulnerabilidades basada en IA
- Puntuación social
- Evaluación o predicción del riesgo de delitos individuales
- Extracción no dirigida de material de internet o de cámaras de videovigilancia para crear o ampliar bases de datos de reconocimiento facial.
- Reconocimiento de emociones en lugares de trabajo e instituciones educativas
- Categorización biométrica para deducir ciertas características protegidas
- Identificación biométrica remota en tiempo real para fines policiales en espacios de acceso público
Las prohibiciones entraron en vigor en febrero de 2025. La Comisión publicó dos documentos clave para respaldar la aplicación práctica de las prácticas prohibidas:
- Las directrices sobre prácticas de IA prohibidas en virtud de la Ley de IA , que ofrecen explicaciones legales y ejemplos prácticos para ayudar a las partes interesadas a comprender y cumplir con las prohibiciones.
- Las directrices sobre la definición de sistema de IA de la Ley de IA , para ayudar a las partes interesadas a determinar el alcance de la Ley de IA.
Nivel 2. Alto riesgo
Los casos de uso de IA que pueden suponer riesgos graves para la salud, la seguridad o los derechos fundamentales se clasifican como de alto riesgo. Estos casos de uso de alto riesgo incluyen:
- Componentes de seguridad de IA en infraestructuras críticas (por ejemplo, el transporte), cuyo fallo podría poner en riesgo la vida y la salud de los ciudadanos.
- Soluciones de IA utilizadas en instituciones educativas que pueden determinar el acceso a la educación y el rumbo de la vida profesional de una persona (por ejemplo, la calificación de exámenes).
- Componentes de seguridad de productos basados en inteligencia artificial (por ejemplo, la aplicación de la IA en la cirugía robótica).
- Herramientas de IA para el empleo, la gestión de trabajadores y el acceso al autoempleo (por ejemplo, software de clasificación de currículos para la contratación).
- Ciertos casos de uso de la IA se utilizan para dar acceso a servicios públicos y privados esenciales. (Por ejemplo, la calificación crediticia niega a los ciudadanos la oportunidad de obtener un préstamo).
- Sistemas de IA utilizados para la identificación biométrica remota, el reconocimiento de emociones y la categorización biométrica. (Por ejemplo, un sistema de IA para identificar retroactivamente a un ladrón de tiendas).
- Casos de uso de la IA en la aplicación de la ley que pueden interferir con los derechos fundamentales de las personas (por ejemplo, la evaluación de la fiabilidad de las pruebas).
- Casos de uso de la IA en la gestión de la migración, el asilo y el control de fronteras (por ejemplo, el examen automatizado de las solicitudes de visado).
- Soluciones de IA utilizadas en la administración de justicia y los procesos democráticos (por ejemplo, soluciones de IA para la elaboración de sentencias judiciales).

Los sistemas de IA de alto riesgo
Están sujetos a estrictas obligaciones antes de poder ser comercializados:
- sistemas adecuados de evaluación y mitigación de riesgos
- alta calidad de los conjuntos de datos que alimentan el sistema para minimizar los riesgos de resultados discriminatorios.
- registro de la actividad para garantizar la trazabilidad de los resultados
- documentación detallada que proporcione toda la información necesaria sobre el sistema y su propósito para que las autoridades puedan evaluar su cumplimiento.
- información clara y adecuada para el desplegador
- medidas de supervisión humana adecuadas
- alto nivel de robustez, ciberseguridad y precisión
Las normas para la IA de alto riesgo entrarán en vigor en agosto de 2026 y agosto de 2027.
Nivel 3. Riesgo de transparencia
Esto se refiere a los riesgos asociados con la necesidad de transparencia en el uso de la IA. La Ley de IA introduce obligaciones de divulgación específicas para garantizar que las personas estén informadas cuando sea necesario para preservar la confianza. Por ejemplo, al usar sistemas de IA como los chatbots, las personas deben ser conscientes de que están interactuando con una máquina para que puedan tomar una decisión informada.
Además, los proveedores de IA generativa deben garantizar que el contenido generado por IA sea identificable. Asimismo, cierto contenido generado por IA debe estar etiquetado de forma clara y visible. Como por ejemplo los deepfakes y los textos publicados con el fin de informar al público sobre asuntos de interés público.
Las normas de transparencia de la Ley de IA entrarán en vigor en agosto de 2026.
Nivel 4. Riesgo mínimo o nulo
La Ley de IA no establece normas para la inteligencia artificial que se considera de riesgo mínimo o nulo. La gran mayoría de los sistemas de IA que se utilizan actualmente en la UE entran en esta categoría. Esto incluye aplicaciones como videojuegos con IA o filtros de spam. (Véase: ¿Por qué necesitamos normas sobre la IA?).
Conclusión
La Inteligencia Artificial debe verse como el resultado de una amplia confluencia tecnológica y lingüística, que cubrirá de modo transversal a una buena parte de las actividades humanas.
Diseñar una sola ley que pretenda cubrir toda la proyección transversal de la IA en numerosos espacios de actuación y atención humana, podría ser un trabajo sin fin (y generar roces desgastantes en los círculos de opinión).
La realidad aconseja crear una ruta de trabajo, con base en las mayores experiencias nacionales. El reto habrá de ser atender en el plano normativo, con gradualidad, el avance de los distintos componentes y usos de la IA, en los espacios de mayor incidencia.
¿Qué dice la Ley de IA europea de 2024 sobre la publicidad política electoral?
Estipula que las obligaciones de la Ley IA «no afectan al contenido de los anuncios políticos, ni a otros aspectos de la publicidad política, como la conducción de las campañas políticas, que se rigen por las normas nacionales».
Tampoco cubre, comprensiblemente, los contenidos «bajo responsabilidad editorial», ni «las opiniones expresadas a título personal». (Véase «Resúmenes de la legislación de la UE«).
¿Qué enfoque acentuarías en tu país: el Enfoque de innovación, el Enfoque de riesgo o un Enfoque híbrido?
Fuentes:
Asamblea Legislativa de la República de Costa Rica. Comisión Permanente Especial Derechos Humanos. Ley para la Promoción Responsable de la Inteligencia Artificial en Costa Rica, Expediente núm. 23.919, Dictamen afirmativo de mayoría, 6 de marzo de 2025.
Biblioteca del Congreso de la Nación, Argentina. Dossier Legislativo: Inteligencia Artificial, Buenos Aires, año XIII, núm. 312, julio de 2025.
Bradford, Anu, «The Brussels Effect«, Northwestern University Law Review, Vol. 107, Núm. 1 (2012).
Bradford, Anu, The Brussels Effect: How the European Union Rules the World, Faculty Books (2020), Faculty Books. 232.
Cámara de Diputados. México. Propuesta que presentan las diputadas y diputados de los partidos Morena y Verde Ecologista de México: Iniciativa con Proyecto de Decreto por el que se expide la Ley Federal para el Desarrollo Ético, Soberano e inclusivo de la Inteligencia Artificial, México, abril de 2025.
Cámara de Senadores. México. Iniciativa presentada por el senador Ricardo Monreal, Iniciativa con proyecto de decreto por el que se expide ley federal que regula la inteligencia artificial, México, abril de 2024.
Congreso Nacional. Brasil. Projeto de Lei de 2023 Dispõe sobre o uso da Inteligência Artificial, F/23833.90768-1, Senado federal, 17 de marzo, 2025.
Endal, Oystein; Andrea Vcric; Sidsel Nag; Nick Malter; y Daylan Araz, “Modificación de la IA con arreglo a la Ley de IA de la UE: Lecciones prácticas sobre clasificación y cumplimiento”, en EU Artificial Intelligence Act, 5 de Noviembre, 2025.
EU Artificial Intelligence Act, “Resumen de alto nivel de la Ley AI”, 27 Feb, 2024 (Actualizado el 30 de mayo, de acuerdo con la versión Corrigendum de la Ley AI).
Filipova, I. A., “Legal Regulation of Artificial Intelligence: Experience of China”, Journal of Digital Technologies and Law, Vol. 2, núm.1, 2024.
G
Gaceta Parlamentaria, México. Iniciativa que reforma y adiciona diversas disposiciones de las Leyes Federales de Cinematografía; del Derecho de Autor, y del Trabajo, en materia de medidas de protección para las y los actores de doblaje en México frente al uso de inteligencia artificia. A cargo del diputado Santiago González Soto, del Grupo Parlamentario del PT. Año XXVIII, número 6768-II-4, jueves 24 de abril de 2025.
Kokotajlo, Daniel, Scott Alexander, Thomas Larsen, Eli Lifland y Romeo Dean, IA 2027, The AI Futures Project, 3 de abril, 2025.
Lagunes A., Martínez Y., Cárdenas C., De la Peña S., Mancilla D., Xilotl R., Sánchez O., Moguel A., Cárdenas J., Propuesta de agenda nacional de la Inteligencia Artificial para México (2024-2030). Alianza Nacional de Inteligencia Artificial (ANIA), mayo 2024.
Meza Ruiz, Ivan Vladimir, El camino hacia una regulación de la IA en México, en Blog turing.iimas.unam.mx, 7 de julio, 2024.
Official Journal of the European Union, “Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024”, 12 de julio, 2024.
Presidencia de la República. México. Acuerdo por el que se expide la Estrategia Digital Nacional 2021-2024, Diario Oficial de la Federación, 6 de septiembre, 2021.
Presidencia de la República. Perú. Ley de Protección de Datos Personales, Lima, Decreto Supremo Núm. 019-2017-JUS, publicado el 15 de setiembre de 2017.
Presidencia de la República. Perú. Decreto Supremo que aprueba el Reglamento de la Ley Nº 31814, Ley que promueve el uso de la inteligencia artificial en favor del desarrollo económico y social del país. Lima, Decreto Supremo Núm. 115-2025-PCM, publicado el 9 de setiembre de 2025.
S
Secretaría General de la Presidencia. Chile. Política Nacional de Ciencias, Tecnología, Conocimiento e Innovación, Santiago, octubre de 2020.
Secretaría General de la Presidencia. Chile. Mensaje de S. E. el Presidente de la República por el que inicia un Proyecto de Ley de Inteligencia Artificial, Santiago, 7 de mayo de 2024.
Secretaría General de la Presidencia. Chile. Proyecto de ley que Regula los sistemas de Inteligencia Artificial, Santiago, 7 de mayo de 2024.
Secretaría General de la Presidencia. Chile. Ley 21719. Regula la protección y el tratamiento de los datos personales y crea la agencia de protección de datos personales. Promulgada el 25 de noviembre de 2024; publicada el 13 de diciembre de 2024.
Soto, Á., Durán, R., Moreno, A., Adasme, S., Rovira, S., Jordán, V. y Poveda, L. (Coords.) (2025). Índice Latinoamericano de Inteligencia Artificial (ILIA) 2025. Documentos de Proyectos (LC/TS.2025/68). Comisión Económica para América Latina y el Caribe y Centro Nacional de Inteligencia Artificial.
Trump, Donald, “Statement by President-elect Donald J. Trump Announcing the Appointment of David O. Sacks as White House A.I. & Crypto Czar«, 5 de Diciembre, 2024.
Zhang, Lu y Mimi Zou, “Navigating China’s regulatory approach to generative artificial intelligence and large language models”, publicado en línea por Cambridge University Press, 6 de enero, 2025.
Imagen de la portada: Gemini 3 pro.











