¡No te pierdas de nada! 👽

Sucribirme! Let's go!

Un resumen de historias para leer, mirar y escuchar cada semana. 0% Spam. GDPR.

No quiero, gracias

Es inválido 💣

Mental Health
¡Espera un poco!
Read and listen
Ayy, close that door, we blowin' smoke
Society

Polémica con la regulación de la UE que obliga a revisar mensajes privados para combatir la pedofilia, pues “creará capacidades para la vigilancia, el control y la censura”

Una persona revisa su teléfono móvil. Fotografía: 9to5google
Words mor.bo Reading 3 minutos

La Unión Europea se encuentra discutiendo un reglamento para combatir la difusión de contenido de abuso sexual infantil (CSAM) en servicios de mensajería como WhatsApp y Telegram. Esta propuesta, que se debate hoy en Bruselas, obliga a las plataformas a revisar mensajes privados antes de su envío para detectar contenido ilegal, lo que afecta a todos los usuarios dentro del territorio europeo. La medida genera controversia porque implica la eliminación de la encriptación de extremo a extremo, lo que garantiza la privacidad de los mensajes entre emisor y receptor.

Debido a esto, más de 600 expertos en criptografía y seguridad digital han enviado una carta abierta a la presidencia del Consejo de la UE expresando su rechazo. Aseguran que esta regulación creará “capacidades sin precedentes para la vigilancia, el control y la censura” y que existe un riesgo de abuso, especialmente en regímenes menos democráticos. Según ellos, socava las décadas de esfuerzo por proteger la privacidad en las comunicaciones digitales.

Los depredadores están usando IA para generar imágenes y vídeos de abuso sexual infantil

La presidencia danesa ha reactivado el debate para fijar la postura de los países miembros. Hasta ahora, seis países se oponen (Austria, Bélgica, Finlandia, Países Bajos, República Checa y Polonia), mientras que España se encuentra entre los que apoyan el texto. La norma impone a las empresas de mensajería la obligación de escanear sus comunicaciones en busca de imágenes y enlaces pedófilos antes de que sean encriptados y enviados.

El método para detectar el material CSAM incluye comparar los archivos con una base de datos de contenidos previamente identificados. Sin embargo, los expertos advierten que la detección no es precisa ni factible a gran escala, y que se puede burlar con cambios mínimos en las imágenes o URLs. Además, denuncian que cualquier revisión previa a la encriptación abre una puerta para la vigilancia masiva, vulnerando el derecho fundamental a la privacidad.

Tras críticas, Apple da marcha atrás en su plan de escanear iPhones para detectar imágenes de abuso sexual infantil

La propuesta ha reducido su alcance al enfocarse solo en imágenes y sitios web, eliminando textos y audios por ahora, aunque podrían reincorporarse en el futuro. También se plantea usar inteligencia artificial para detectar contenido no fichado, pero no existen algoritmos confiables que eviten una alta tasa de falsos positivos, lo que puede derivar en investigaciones injustificadas e invasivas. Los expertos insisten en que esta regulación, diseñada para proteger a menores, podría ser contraproducente, pues “tiene poco potencial de impacto en el abuso perpetrado contra los niños”, y a cambio pone en riesgo la seguridad de las comunicaciones y la privacidad de millones de personas en Europa.

Despues de leer, ¿qué te pareció?

  • Me gustó
  • Me prendió
  • Lo amé
  • Me deprime
  • WTF!
  • Me confunde
   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido

Utilizamos cookies propias y de terceros para ofrecerte una mejor experiencia y servicio. Si continúas navegando, consideramos que aceptas su uso.

Aceptar
NIGHT MODE DAY MODE