España quiere que todo el contenido generado por IA, esté etiquetado de manera obligatoria.

La famosa imagen del Papa Francisco luciendo un abrigo blanco de Balenciaga, en marzo de 2023, ha sido una de las imágenes generadas por IA más virales, difuminando los límites entre lo real y lo artificial. Este caso, más allá de su aparente banalidad, inició un debate por toda Europa. Ahora, España avanza con un anteproyecto de ley que exige etiquetar cualquier texto, audio o vídeo creado con inteligencia artificial.

 

La pregunta es si esta medida podrá frenar la desinformación, sin obstaculizar el desarrollo.

El Consejo de Ministros ha dado el primer paso para regular el uso ético de la IA, adaptando el reglamento europeo vigente desde agosto de 2024. La norma, que tramitará por vía de urgencia, plantea sanciones de hasta 35 millones de euros para quienes no identifiquen contenidos generados mediante sistemas automatizados. Óscar López, ministro de Transformación Digital, insistió en rueda de prensa en el doble filo de la tecnología: «la inteligencia artificial es una herramienta muy poderosa, pero puede tener buenos y malos usos»

 

¿Cómo distinguir lo humano de lo artificial? 

Pues más allá de jugar a ver si al personaje generado le falta algún dedo, el desafío técnico es monumental. Plataformas como Meta o YouTube ya ensayan marcas de agua invisibles y metadatos incrustados, y gigantes como Google y Adobe desarrollan estándares como SynthID y Content Credentials. Pero la fragmentación de soluciones complica la adopción universal. El estándar C2PA (Coalition for Content Provenance and Authenticity), respaldado por empresas como Microsoft y Amazon, busca unificar criterios mediante certificados criptográficos que registren el historial de edición. Curiosamente, Apple brilla por su ausencia en esta batalla, un vacío que podría ralentizar su implementación masiva.  

 

SynthID

 

Pero es que incluso con las herramientas, su aplicación real sigue siendo ínfima. Instagram y Facebook intentan etiquetar publicaciones antiguas, pero tropiezan con la escala del problema. Fabricantes como Sony incorporan etiquetado en cámaras profesionales, pero hay millones de dispositivos móviles que usan IA para mejorar fotos. La propuesta más ambiciosa sugiere que todo contenido, ya sea asistido por algoritmos o no, lleve un sello. Algo que permita diferenciar entre «hecho a mano» e «industrial» en el mundo digital, lo que se presume muy complicado. 

Multas millonarias y el rol de la AESIA 

El anteproyecto además de afectar a creadores individuales, también incluye a empresas. Incumplir la normativa puede costar hasta el 7% de la facturación global anual, algo preocupante sobre todo para las grandes tecnológicas. La AESIA, nueva agencia de supervisión, tendrá la última palabra sobre cómo y cuándo aplicar estas etiquetas. Pero hay muchas dudas cómo: ¿quién verificará los millones de contenidos que se suben cada minuto? ¿Cómo evitar que las marcas de agua sean eliminadas con herramientas?…

 

deepfake

 

Es cierto que en determiandos ámbitos los deepfakes o los fraudes con suplantación de voz empiezan a ser un problema. La Unión Europea dice que el etiquetado es solo el primer paso hacia una transparencia algorítmica más amplia.

Mientras, España se posiciona entre los países pioneros en adaptar estas directrices, aunque el éxito de la propuesta dependerá de algo más complejo que una ley, y será imprescindible contar con la cooperación global entre gobiernos y empresas.  

 

Si quieres estar a la última en tecnología y conocer todo lo que se mueve en el sector, ¡suscríbete a nuestro boletín!

Logotipo de acenews

Déjanos un comentario o cuéntanos algo.

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.