Polémica con la regulación de la UE que obliga a revisar mensajes privados para combatir la pedofilia, pues “creará capacidades para la vigilancia, el control y la censura”

La Unión Europea se encuentra discutiendo un reglamento para combatir la difusión de contenido de abuso sexual infantil (CSAM) en servicios de mensajería como WhatsApp y Telegram. Esta propuesta, que se debate hoy en Bruselas, obliga a las plataformas a revisar mensajes privados antes de su envío para detectar contenido ilegal, lo que afecta a todos los usuarios dentro del territorio europeo. La medida genera controversia porque implica la eliminación de la encriptación de extremo a extremo, lo que garantiza la privacidad de los mensajes entre emisor y receptor.
Debido a esto, más de 600 expertos en criptografía y seguridad digital han enviado una carta abierta a la presidencia del Consejo de la UE expresando su rechazo. Aseguran que esta regulación creará “capacidades sin precedentes para la vigilancia, el control y la censura” y que existe un riesgo de abuso, especialmente en regímenes menos democráticos. Según ellos, socava las décadas de esfuerzo por proteger la privacidad en las comunicaciones digitales.
La presidencia danesa ha reactivado el debate para fijar la postura de los países miembros. Hasta ahora, seis países se oponen (Austria, Bélgica, Finlandia, Países Bajos, República Checa y Polonia), mientras que España se encuentra entre los que apoyan el texto. La norma impone a las empresas de mensajería la obligación de escanear sus comunicaciones en busca de imágenes y enlaces pedófilos antes de que sean encriptados y enviados.
El método para detectar el material CSAM incluye comparar los archivos con una base de datos de contenidos previamente identificados. Sin embargo, los expertos advierten que la detección no es precisa ni factible a gran escala, y que se puede burlar con cambios mínimos en las imágenes o URLs. Además, denuncian que cualquier revisión previa a la encriptación abre una puerta para la vigilancia masiva, vulnerando el derecho fundamental a la privacidad.
La propuesta ha reducido su alcance al enfocarse solo en imágenes y sitios web, eliminando textos y audios por ahora, aunque podrían reincorporarse en el futuro. También se plantea usar inteligencia artificial para detectar contenido no fichado, pero no existen algoritmos confiables que eviten una alta tasa de falsos positivos, lo que puede derivar en investigaciones injustificadas e invasivas. Los expertos insisten en que esta regulación, diseñada para proteger a menores, podría ser contraproducente, pues “tiene poco potencial de impacto en el abuso perpetrado contra los niños”, y a cambio pone en riesgo la seguridad de las comunicaciones y la privacidad de millones de personas en Europa.
Despues de leer, ¿qué te pareció?