miércoles, 4 de febrero de 2026

Ley de IA de la Unión Europea

 
 

La Ley de Inteligencia Artificial de la Unión Europea, representa el primer marco legal integral y vinculante para la regulación de la tecnología de IA a nivel mundial. Esta legislación implementa una estructura regulatoria basada en el riesgo que categoriza las tecnologías en niveles que van desde mínimos hasta inaceptables. Las aplicaciones específicas consideradas una amenaza para la seguridad o las libertades civiles están estrictamente prohibidas, mientras que los sistemas de alto riesgo deben cumplir rigurosos estándares de transparencia y seguridad para acceder al mercado. El texto explica que la ley también se centra en los modelos de IA de propósito general, exigiendo a los desarrolladores que divulguen la documentación técnica y se adhieran a las normas europeas de derechos de autor. Para fomentar la innovación regional, la ley introduce entornos de pruebas regulatorios donde se pueden probar nuevas herramientas bajo supervisión gubernamental. En definitiva, el marco busca promover un enfoque centrado en el ser humano que equilibre los beneficios económicos de la automatización con la protección de los derechos fundamentales.

Enlace al documento original, para aquellos interesados en profundizar en el tema: "Artificial Intelligence Act", por el Parlamento Europeo.


Resumen

Beto
Sabes, durante mucho tiempo, al mirar el mundo de la inteligencia artificial, se sentía un poco como ver una vieja película del Oeste.

Alicia
Ajá.

Beto
Tenías esas vastas fronteras abiertas, búsquedas de oro, vaqueros tecnológicos construyendo lo que querían y absolutamente ningún sheriff en el pueblo. Era el salvaje oeste.

Alicia
Es una imagen vívida. Y honestamente, no estuvo mal durante una década. La velocidad del desarrollo superó por completo la capacidad de cualquier gobierno para entenderlo. Para controlarlo.

Beto
Pero hoy hablamos del momento en que el sheriff finalmente derribó las puertas de la cantina. Hacemos una inmersión profunda en la Ley de Inteligencia Artificial de la Unión Europea.

Alicia
Mmm-hmm.

Beto
Y mira, normalmente cuando la gente oye “regulación de la UE”, se le nublan los ojos. Piensan en banners de cookies ...

Alicia
... o en el mandato del puerto de carga USB-C.

Beto
Exacto. Pero esto se siente diferente. Esto parece el fin de toda esa era de “muévete rápido y rompe cosas”.

Alicia
Oh, es distinto. Tienes que entender la magnitud. Esto no es solo protección al consumidor. La AI Act es la primera regulación horizontal vinculante en todo el mundo sobre IA.

Beto
Horizontal significa que lo cubre todo.

Alicia
Todo. Atraviesa todos los sectores: seas un banco, un hospital, una escuela, una fuerza policial. Si usas IA en la UE, esta ley te toca.

Beto
Y aunque estemos aquí en 2026, mirando hacia atrás a cuando empezó a aplicarse en agosto de 2024, realmente apenas estamos sintiendo todo su peso.

Alicia
Sí. No fue un interruptor que se encendiera de golpe. Ha sido un despliegue lento. Pero da la sensación de que la UE intenta hacer por la IA lo que hizo por la privacidad de datos con el GDPR.

Beto
Quieren fijar las normas de la carretera para todo el planeta.

Alicia
Esa es la ambición explícita. Es el “efecto Bruselas”. Redactan las reglas y, porque el mercado de la UE es tan grande, empresas globales como Microsoft o Google acaban adoptando esas reglas en todas partes. Es más sencillo.

Beto
Así que nuestra misión hoy es averiguar si estas reglas tienen sentido.

Alicia
Mmm-hmm.

Beto
No vamos a leer el texto legal. Nadie tiene tiempo para eso.

Alicia
Por favor, no.

Beto
Necesitamos entender la filosofía. Y parece que todo descansa en este enfoque basado en el riesgo.

Alicia
Sí. Los legisladores europeos se dieron cuenta pronto de que no podían decir simplemente “la IA es buena” o “la IA es mala”. Un filtro de spam es IA. Un arma autónoma letal es IA.

Beto
No puedes regularlos con el mismo párrafo.

Alicia
No se puede. Así que construyeron una pirámide.


La Pirámide de Riesgos de la Ley de IA de la UE

Beto
Una pirámide de riesgos.

Alicia
Exacto. Imagínate cuatro niveles: en la base, riesgo mínimo; en la cima absoluta, riesgo inaceptable. Y a medida que subes por la pirámide, las reglas se vuelven más estrictas hasta que llegas al techo donde la tecnología está prohibida por completo y punto.

Beto
Bien, empecemos por ahí, en el techo, la categoría de riesgo inaceptable. ¿Cuáles son las líneas rojas absolutas? ¿Qué es tan peligroso que la UE dijo “bajo ninguna circunstancia”?

Alicia
Esos son los usos que, según consideran, violan derechos fundamentales. Y una de las más extrañas pero importantes es las técnicas subliminales.

Beto
Suena a película de ciencia ficción de los años 50. ¿Hablamos de anuncios de palomitas parpadeando en un cine?

Alicia
Suena retro, ¿verdad? Pero con la IA es mucho más sofisticado. La ley prohíbe la IA diseñada para manipular tu comportamiento usando estímulos auditivos o visuales que estén por debajo de tu percepción.

Beto
Básicamente lavado de cerebro vía algoritmo.

Alicia
Buena forma de decirlo. Cualquier cosa que te impida tomar una decisión informada sin que siquiera sepas que está pasando.

Beto
Bien. Entonces si una IA intenta que compre un coche mostrando imágenes demasiado rápidas para que mi cerebro las procese, eso es ilegal.

Alicia
Totalmente fuera de juego. Sí.

Beto
Entendido.

Luego vi lo de la puntuación social. Esta me confundió porque quieren evitar una sociedad al estilo Black Mirror donde el gobierno te da una puntuación. ¿Pero acaso ya no tenemos puntajes de crédito? ¿No es eso una puntuación social?

Alicia
Ese es un punto de confusión muy común. La prohibición es muy específica. Apunta a las autoridades públicas.

Beto
Al gobierno.

Alicia
Al gobierno. Sí, puntuar a los ciudadanos basándose en su conducta o personalidad de una forma que derive en un trato perjudicial en áreas totalmente no relacionadas.

Beto
Así que un banco privado compruebe si pagaste tu hipoteca a tiempo está bien.

Alicia
Eso está bien. Pero que el gobierno baje tu “puntuación de ciudadanía” porque publicaste algo grosero online y eso te impida comprar un billete de tren, ...

Beto
Eso está prohibido.

Alicia
Eso está prohibido. Intentan poner un cortafuegos contra ese tipo de vigilancia estatal totalizante.

Beto
Bien. Veo ahora la distinción. Se trata del gobierno conectando todos los puntos.

Ahora la pelea más grande en todo este acto pareció ser la biometría, el reconocimiento facial.

Alicia
Oh, ese fue el campo de batalla más sangriento en el Parlamento. Quiero decir, tenías a grupos por los derechos civiles pidiendo una prohibición total. Nada de cámaras escaneando caras en público nunca.

Beto
Y la policía diciendo ...

Alicia
...diciendo que necesitan estas herramientas para atrapar terroristas y encontrar niños desaparecidos.

Beto
¿Quién ganó?

Alicia
Fue un compromiso sucio, para ser honesto. En principio, la identificación biométrica remota en tiempo real en espacios públicos está prohibida para las fuerzas del orden.

Beto
En principio, siento un “gran pero” viniendo.

Alicia
Pero hay excepciones. Grandes. La policía puede usar estas herramientas si buscan niños desaparecidos o víctimas de secuestro.

Beto
Vale, eso tiene sentido.

Alicia
Pueden usarlas para prevenir una amenaza terrorista inminente y sustancial. O, y esto preocupa a la gente, para identificar sospechosos de delitos graves.

Beto
“Delitos graves” suena como una puerta trasera bastante grande. ¿Quién decide qué es grave?

Alicia
El acto los enumera: terrorismo, trata, asesinato, ya sabes, lo gordo. Pero tienes razón en ser escéptico. Requiere que un juez lo autorice.

Beto
Así que la policía no puede simplemente accionar un interruptor.

Alicia
No. Pero para los activistas por los derechos civiles, esa puerta ahora está abierta, aunque sea una rendija.

Beto
Y es una rendija que tiende a ensancharse con el tiempo.

Alicia
Sí.

Beto
Bien. Esas son las grandes prohibiciones. Pero seamos honestos, la mayoría de las empresas no están construyendo control mental o racismo. Están haciendo herramientas para recursos humanos o bancos, lo que nos lleva un nivel abajo, a la IA de alto riesgo.

Alicia
Y ese es el meollo real de la regulación. Aquí es donde la industria está sudando porque estos sistemas no están prohibidos, pero pueden arruinarte la vida si se equivocan.

Beto
Así que tienen que pasar por un montón de aros. Y la lista de lo que es de alto riesgo es enorme: infraestructuras críticas, educación, empleo, concesión de crédito.

Alicia
Piénsalo así: si una IA toma una decisión que determina tu acceso a un empleo o a una plaza universitaria, ...

Beto
Es de alto riesgo.

Alicia
Es de alto riesgo.

Beto
Bien. Supongamos que soy una startup. He creado una IA que escanea CVs para ayudar a reclutadores. Eso es alto riesgo.

Alicia
Sí, casi con seguridad.

Beto
¿Qué tengo que hacer realmente? No puedo simplemente lanzar el código.

Alicia
Oh, ya no. Tienes que someterte a lo que llaman "una evaluación de conformidad". Y eso no es solo un formulario. Primero, calidad de datos: tienes que demostrar que tus datos de entrenamiento son relevantes, representativos y libres de errores.

Beto
Lo cual suena increíblemente caro. No puedes simplemente raspar Internet y darlo por hecho.

Alicia
No. Si tu escáner de CVs está entrenado mayormente con currículos de hombres y empieza a rechazar a mujeres cualificadas, no solo eres mal empresario. Ahora eres incumplidor de la ley de la UE.

Beto
Vaya. Bien. Luego está el requisito de humano en el ciclo. Esto suena bien en el papel, pero en realidad, ¿no es eso solo un empleado pobre dándole a “aprobar” mil veces por hora?

Alicia
Ese es el riesgo. La ley incluso lo llama "sesgo de automatización". Tendemos a confiar en la máquina. Así que el acto exige que la persona que supervisa tenga realmente la competencia técnica y la autoridad para detener el sistema.

Beto
No pueden ser simples selladores de papel.

Alicia
Exacto. Tienen que ser capaces de entender la salida lo suficiente como para decir: “espera, esto está mal”. Y necesitas registros detallados de todo. Si una IA te niega un préstamo, tienes que poder reconstruir por qué.

Beto
Bien. Pero tengo que preguntar por algo que seguía saliendo en la investigación: la "disposición de filtrado". Sonaba como una carta para salir gratis de la cárcel de estas normas de alto riesgo.

Alicia
Es menos “carta para salir gratis” y más “no debería haber estado en la cárcel en primer lugar”.

Beto
Vale.

Alicia
Permite a una empresa argumentar que, aunque su sistema esté en una categoría de alto riesgo como Recursos Humanos, no debería regularse así porque no toma decisiones significativas.

Beto
Dame un ejemplo. ¿Cómo no toma una decisión una IA de Recursos Humanos?

Alicia
Bien. Imagínate dos sistemas de IA.

Sistema A lee un CV y puntúa al candidato, por ejemplo 8 de 10. Eso es perfilado. Eso influye en la decisión de contratación. Eso es definitivamente alto riesgo.

Sistema B lee el mismo CV, pero su único trabajo es extraer el número de teléfono y el correo electrónico y formatear la fuente para que quede bonito en la base de datos.

Beto
Solo hace una tarea procedimental. No está juzgando a la persona exactamente.

Alicia
Precisamente. Toca los mismos datos sensibles, pero no hace un juicio. Entonces el sistema B en teoría podría acogerse a la disposición de filtrado.

Beto
Pero me imagino que hay una trampa.

Alicia
Una muy grande. No puedes usar el filtro si el sistema realiza cualquier tipo de perfilado. No puedes decir que eres solo una grapadora si en realidad eres un juez.

Beto
Entendido. Ahora todo esto de alto riesgo. Ese era el plan original.

Alicia
Sí.

Beto
Pero justo en medio de redactar todo esto, llegó ChatGPT.

Alicia
La sorpresa del chatbot.

Beto
Y de repente la UE tuvo que decidir qué hacer con los modelos de propósito general. Estos modelos que pueden hacer cualquier cosa.

Alicia
Causó pánico total en Bruselas. La ley original era vertical, basada en el caso de uso, pero un modelo de base como GPT-4 no tiene un solo uso. Puede escribir un poema, puede programar un virus.

Beto
¿Cómo lo solucionaron?

Alicia
Crearon un nuevo sistema por niveles solo para estos modelos de propósito general. Todos ellos tienen algunas reglas básicas sobre derechos de autor y transparencia, pero luego crearon una categoría especial para modelos con riesgo sistémico.

Beto
Y lo definen con una ecuación matemática: 10 elevado a la 25 FLOP.

Alicia
FLOP siendo operaciones en coma flotante. Es básicamente una medida del cómputo bruto necesario para entrenar el modelo.

Beto
¿Por qué potencia de cálculo? ¿Por qué no por lo “inteligente” que sea?

Alicia
Porque “inteligencia” es subjetivo y difícil de medir. La potencia de cálculo es un número. La suposición es que si inviertes esa cantidad de energía en entrenar un modelo — 1025 es una cifra astronómica — será capaz de cosas que no puedes predecir.

Beto
Las llamadas "capacidades emergentes".

Alicia
Exacto. Cosas que podrían desestabilizar mercados financieros o ayudar a construir armas biológicas. Así que si eres lo bastante grande como para quemar esa cantidad de recursos, tienes deberes extra.

Beto
¿Y cuáles son esos deberes?

Alicia
Trabajo duro. Tienes que hacer pruebas adversarias, lo que llaman red teaming: contratar “hackers” para intentar romper tu propio modelo y encontrar fallos antes del lanzamiento. Tienes que rastrear y notificar incidentes graves a la UE.

Beto
Bien, pero ampliemos a la economía porque cuando leo todos esos requisitos — calidad de datos, supervisión humana, red teaming — solo veo signos de moneda, euros por todas partes.

Alicia
Te entiendo; no estás solo.

Beto
Los grupos de la industria estaban gritando por esto. El Center for Data Innovation dijo que esto podría costarle a la economía de la UE 31.000 millones. Dicen que la UE se está regulando fuera de la carrera de la IA.

Alicia
Esa es la tensión. Esa es la gran pregunta.

Beto
Si soy un fundador europeo, ¿por qué no me mudaría simplemente a Silicon Valley?

Alicia
Bueno, el argumento de la UE es que la confianza es una ventaja competitiva. La idea es que la gente querrá comprar IA europea porque saben que es segura y no sesgada. Pero para ayudar a las startups a sobrevivir los costes, introdujeron "sandboxes", "cajas de arena" regulatorias.

Beto
Me encanta ese término. Suena a bebés jugando con palas.

Alicia
Y en cierto modo, lo es. Es un espacio seguro establecido por las autoridades nacionales. Una startup puede entrar en el sandbox y probar su IA bajo supervisión regulatoria.

Beto
Sin recibir una multa masiva de inmediato.

Alicia
Exacto. El regulador actúa más como entrenador que como policía dentro del sandbox. Y para las pequeñas y medianas empresas, la ley obliga a dar acceso prioritario a estos sandboxes. Para que no las aplasten.

Beto
Lo cual sería la ironía suprema, ¿no?, si las únicas compañías que pudieran permitirse cumplir fuesen los gigantes estadounidenses a los que precisamente estaban tratando de controlar.

Alicia
Exactamente.

Beto
Pero hablemos de cuando aparece el policía, porque una ley sin castigo es solo una sugerencia. ¿Qué sucede si una empresa ignora todo esto?

Alicia
Entonces cae el martillo y es muy, muy pesado. Las multas pueden llegar hasta 35 millones de euros o el 7% de la facturación global total.

Beto
Espera. El 7% de la facturación global de una empresa como Google o Microsoft.

Alicia
Son miles de millones de dólares.

Beto
Miles de millones.

Alicia
Está diseñado para pegar fuerte, para hacerlos llorar. Querían asegurarse de que el coste de la multa siempre fuese mayor que el beneficio que puedas obtener infringiendo las normas.

Beto
¿Quién impone la multa? ¿Hay una única oficina de IA en Bruselas?

Alicia
Sí y no. Crearon una nueva oficina europea de IA. Se encarga de los grandes modelos de propósito general, los de riesgo sistémico.

Beto
Los “ChatGPT” del mundo.

Alicia
Para todo lo demás, el software de Recursos Humanos, los algoritmos bancarios, lo hacen cumplir las autoridades nacionales en cada Estado miembro.

Beto
Así que las autoridades alemanas, las francesas, etc., imponen y vigilan sus propios países.

Alicia
Correcto.

Beto
Bien. Pero aquí quiero presionar un poco. Hemos hablado de multas para empresas. ¿Y yo, como individuo? Si una IA me discrimina, ¿puedo demandar al proveedor de IA bajo esta ley?

Alicia
Ése es un punto de crítica importante. Los análisis académicos señalan una laguna bastante significativa. La AI Act es principalmente una ley de seguridad del producto, no una ley de derechos.

Beto
¿Qué significa eso para un ciudadano?

Alicia
Significa que no tienes un derecho individual directo para demandar a una empresa bajo la AI Act solo porque no fueron conformes. Puedes presentar una queja ante la autoridad y ellos pueden investigar.

Beto
Pero no puedo llevar fácilmente al algoritmo a los tribunales por mi cuenta.

Alicia
No fácilmente. No bajo esta legislación específica. Los críticos dicen que deja al individuo algo desamparado.

Beto
Eso se siente como una pieza que hace falta. Una multa no necesariamente me ayuda a recuperar un préstamo o un empleo.

Alicia
Es una pieza faltante, sin duda.

Beto
Así que aquí estamos en 2026. Las bandas están en su lugar. Las reglas para los grandes modelos están activas. Y más adelante este año, las reglas de alto riesgo entran plenamente en vigor. Estamos viendo cómo se fragua esto.

Alicia
Y las empresas están corriendo. Si recuerdas el pánico por el GDPR de 2018, esto es eso, pero para ingenieros en lugar de abogados.

Beto
Para resumirlo, tenemos una pirámide: en la cima, riesgo inaceptable; en el medio, alto riesgo, donde necesitas toda la supervisión; luego riesgo limitado.

Alicia
Donde solo tienes que decirle a la gente que está hablando con un bot o que está viendo un deepfake;

Beto
Y en la base, riesgo mínimo, como filtros de spam que a nadie le importan mucho.

Alicia
Ese es el marco. Y manteniendo la idea del “efecto Bruselas”, deberías vigilar cómo reacciona el resto del mundo. Otros países ya miran esta pirámide de riesgos y piensan: oye, no está mal como forma de organizar este lío.

Beto
Podría convertirse en el lenguaje global para la seguridad de la IA.

Pero antes de despedirnos, había algo que se notó ausente. Hemos hablado de derechos humanos, sesgos, seguridad. Pero apenas tocamos la realidad física de estos sistemas.

Alicia
El impacto ambiental.

Beto
Correcto. Mencionamos ese umbral de 1025 FLOP. Eso representa un estacionamiento lleno de GPUs funcionando a toda máquina durante meses. El consumo de energía es enorme.

Alicia
Es el elefante en la habitación. La ley se centra casi por completo en el riesgo para los derechos humanos y la seguridad. Pero entrenar un solo modelo grande puede consumir tanta energía como la que usa un pueblo pequeño en un año.

Beto
¿Por qué no reguló la UE eso?

Alicia
Probablemente sea una mezcla de política y, francamente, miedo a sofocar la innovación. Si pones un tope al consumo energético, efectivamente pones un tope a la inteligencia. Pararías el avance de los modelos. Y la UE tiene pavor de quedarse todavía más atrás respecto a EE. UU. y China.

Beto
Así que decidieron domar el comportamiento de la máquina, pero le dieron carta blanca para comer toda la electricidad que quiera.

Alicia
Por ahora. Pero el acto exige que los grandes modelos informen sobre su consumo energético, y la información suele ser el paso uno. La regulación suele ser el paso dos. Sospecho que la próxima gran batalla regulatoria no será sobre el sesgo. Será sobre la huella de carbono de la inteligencia.

Beto
Bueno, con eso en mente, algo para pensar la próxima vez que le pidas a un chatbot un haiku y las luces parpadeen en algún centro de datos. Esta ha sido la inmersión profunda en la AI Act. Es complejo. Está viciado, pero es el único mapa que tenemos para este nuevo territorio. Gracias por escuchar.

Alicia
Cuídense.