El Comité Europeo de Protección de Datos (EDPB) ha publicado la Opinión 28/2024, un documento que busca sentar las bases para el desarrollo ético de la inteligencia artificial en Europa, garantizando el respeto a la protección de datos personales bajo el Reglamento General de Protección de Datos (RGPD).
El presidente del CEPD, Anu Talus, lo dejó claro:
“Las tecnologías de IA pueden brindar muchas oportunidades y beneficios a diferentes industrias y áreas de la vida. Tenemos que asegurarnos de que estas innovaciones se realicen de forma ética, segura y de una manera que beneficie a todos.”
Sin embargo, desde el Observatorio de IA de Torre Juana OST hemos analizado este dictamen y nos preguntamos: ¿Estamos ante un marco que impulsa la innovación o ante una regulación que pone frenos en una carrera global que Europa no puede permitirse perder?

🧩 PUNTOS CLAVE DEL DICTAMEN
1️⃣ ¿Cuándo es “anónimo” un modelo de IA?
- Los modelos entrenados con datos personales no siempre son realmente anónimos.
- La evaluación debe realizarse caso por caso para valorar el riesgo de extraer información personal.
2️⃣ Intereses legítimos como base legal:
- El análisis debe seguir tres pasos:
- Interés lícito.
- Necesidad del procesamiento.
- Equilibrio con los derechos de los interesados.
3️⃣ Impacto de datos procesados ilícitamente:
- El uso indebido de datos personales durante el desarrollo puede comprometer la legalidad futura de los modelos.
4️⃣ Recomendaciones del CEPD:
- Implementar técnicas avanzadas de privacidad como la privacidad diferencial.
- Garantizar transparencia sobre el uso de datos.
- Realizar evaluaciones de impacto y pruebas de resistencia a ataques.
🚨 ANÁLISIS CRÍTICO: ¿UN MARCO INSPIRADOR O UN OBSTÁCULO MÁS?
El dictamen busca un equilibrio entre proteger los derechos de los ciudadanos y permitir el desarrollo de la IA, pero ¿lo consigue realmente?
🔍 Ambigüedades que paralizan:
Evaluar caso por caso el nivel de anonimización o interpretar conceptos como “interés lícito” genera un alto nivel de incertidumbre para las empresas. En lugar de promover la innovación, esto puede desincentivar a desarrolladores, especialmente a startups y pymes que no tienen recursos para enfrentar estos retos regulatorios.
💰 Un sesgo hacia las grandes tecnológicas:
Requerimientos como implementar técnicas avanzadas de privacidad o realizar evaluaciones de impacto son herramientas costosas y complejas. Esto podría favorecer a los gigantes tecnológicos, dejando fuera a los pequeños innovadores europeos.
🌍 Falta de visión global:
Mientras Europa se enfoca en endurecer sus marcos regulatorios, otras regiones, como EE. UU. y China, apuestan por un enfoque más pragmático. ¿Está Europa sacrificando su competitividad global en aras de ser excesivamente conservadora?
🔮 ¿QUÉ PUEDE MEJORAR?
Para que este dictamen no sea un obstáculo al progreso, proponemos:
- Mayor claridad: Reducir la ambigüedad en los criterios regulatorios con guías más prácticas y directas.
- Apoyo a las startups: Ofrecer incentivos y recursos que permitan a los pequeños innovadores cumplir con el RGPD sin quedar excluidos del mercado.
- Equilibrio realista: Aprender de enfoques globales que combinan protección de datos e impulso a la innovación.
📌 Conclusión:
El dictamen del CEPD representa un paso importante hacia una IA ética y responsable, pero también evidencia los desafíos de Europa para equilibrar regulación e innovación. Si no se ajustan estos marcos regulatorios, Europa corre el riesgo de quedar relegada en la carrera tecnológica global.
Desde el Observatorio de IA de Torre Juana OST, seguiremos analizando y aportando perspectivas críticas que contribuyan a una regulación que no solo proteja, sino que también permita avanzar hacia un futuro tecnológico competitivo y justo.
🔗 Más información: https://europa.eu/!Y6Ngyt
NOTICIAS RELACIONADAS: