El Consejo de la Unión Europea se prepara para reabrir un debate crucial el próximo 14 de octubre sobre el controvertido proyecto de ley conocido como ‘Control de Chat’. Esta propuesta, formalmente denominada Reglamento de la UE sobre Abuso Sexual Infantil (ASI), busca combatir la difusión de material de abuso sexual infantil en las redes digitales. Sin embargo, sus implicaciones en la privacidad y la seguridad de las comunicaciones han generado una oleada de críticas desde su presentación en 2022. Activistas, expertos en ciberseguridad y organizaciones de derechos digitales advierten que podría transformar la UE en un régimen de vigilancia masiva, afectando a miles de millones de usuarios y poniendo en riesgo la libertad de expresión.
El reglamento fue introducido por la Comisión Europea en mayo de 2022 con el objetivo declarado de actualizar las herramientas para detectar y prevenir el abuso sexual infantil en línea, adaptándose a las nuevas tecnologías como la inteligencia artificial y el cifrado de extremo a extremo. Según datos de la Comisión, el abuso sexual infantil afecta a uno de cada cinco niños en la UE, y el material relacionado se propaga rápidamente a través de plataformas digitales. La propuesta inicial obligaba a los proveedores de servicios de comunicación y almacenamiento en la nube a escanear activamente el contenido de los usuarios en busca de imágenes, videos o textos que pudieran clasificarse como material abusivo. Para ello, se promovería el uso de tecnologías como el ‘escaneo del lado del cliente’ (Client-Side Scanning, CSS), que analiza el contenido directamente en el dispositivo del usuario antes de su envío o cifrado.
Este mecanismo ha sido el epicentro de la polémica. El CSS implica instalar software en los dispositivos que compara el contenido con bases de datos de hashes conocidos de material abusivo, pero sin romper formalmente el cifrado. No obstante, críticos argumentan que, en la práctica, crea una puerta trasera que socava la integridad de las comunicaciones seguras. «En la práctica, la propuesta consiste en la vigilancia de chats y funciona mediante el acceso a todo el contenido de un dispositivo y su monitorización indiscriminada», denunció la Electronic Frontier Foundation (EFF), una organización líder en defensa de los derechos digitales, observando que si las autoridades obtienen acceso a uno de los extremos de las comunicaciones, la interacción deja de ser segura.
La controversia radica en el equilibrio entre la protección infantil y los derechos fundamentales. Proponentes, como la presidencia danesa del Consejo, que ha impulsado la revisión del texto durante su mandato en 2025, sostienen que el reglamento es esencial para abordar un problema creciente. Según informes de Europol, el número de informes de CSAM (Child Sexual Abuse Material) ha aumentado drásticamente, con más de 85 millones de archivos detectados en 2024 solo en la UE. La versión actualizada del texto, que se debatirá el 14 de octubre, incluye medidas como la verificación de edad en plataformas de riesgo y la obligación de reportar contenidos sospechosos a un centro europeo coordinado. Dinamarca ha logrado el apoyo de 19 de los 27 Estados miembros, argumentando que el escaneo selectivo no equivale a vigilancia masiva, sino a una herramienta proporcional contra un delito atroz.
Sin embargo, las formas propuestas para su implementación han alarmado a un amplio espectro de actores. Activistas de derechos digitales, como los de la European Digital Rights (EDRi), denuncian que el reglamento podría perjudicar especialmente a periodistas, denunciantes anónimos, activistas de derechos humanos y hasta padres que comparten fotos familiares inocentes. El riesgo de falsos positivos es alto: algoritmos de IA podrían malinterpretar imágenes benignas, como fotos de playa o arte médico, generando denuncias injustificadas que invaden la privacidad. Un grupo de más de 35 científicos y expertos en ciberseguridad de todo el mundo firmó una carta abierta en septiembre de 2025, advirtiendo que el CSS representa un «riesgo existencial catastrófico» para la encriptación, ya que facilita el abuso por parte de regímenes autoritarios o hackers.
Para periodistas y whistleblowers, el impacto sería devastador. Plataformas como Signal o WhatsApp, que utilizan cifrado de extremo a extremo, se verían obligadas a implementar escaneos que comprometen la confidencialidad de las fuentes. «Esto socavaría las promesas de privacidad de las herramientas de comunicación encriptadas», enfatiza la EFF, destacando que profesionales como abogados, activistas y periodistas dependen de estas para proteger sus interacciones. En países con tensiones políticas, como Hungría o Polonia, donde la libertad de prensa ya está bajo presión, el reglamento podría usarse para silenciar disidentes. Incluso en democracias estables, el «efecto chilling» –el miedo a ser monitoreado– podría inhibir la libertad de expresión, violando el artículo 11 de la Carta de Derechos Fundamentales de la UE.
Expertos como Oliver Laas, filósofo y experto en ética digital, argumentan que el enfoque refleja una concepción errónea de la privacidad, asociándola con el secreto o la culpa en lugar de un derecho inherente. Además, la propuesta choca con el Reglamento General de Protección de Datos (RGPD), que prohíbe el procesamiento masivo de datos sin consentimiento explícito. Organizaciones como Privacy Guides advierten de un «mission creep»: una vez implementado, el sistema podría expandirse para monitorear drogas, protestas o disidencia política, como ya ha sugerido Europol.
El debate en el Consejo ha revelado divisiones entre los Estados miembros. Alemania, Bélgica, Italia y Suecia han ajustado sus posiciones recientemente, mostrando reservas sobre el debilitamiento de la encriptación. Austria, Países Bajos y Polonia se oponen firmemente, argumentando que viola principios constitucionales. En contraste, Francia y España apoyan versiones más estrictas, priorizando la seguridad infantil. El Parlamento Europeo, en su posición adoptada en junio de 2025, respaldó actualizaciones a la directiva relacionada, elevando penas y eliminando periodos de prescripción para delitos de CSA, pero rechazó el escaneo masivo.
En el ecosistema digital, empresas como Apple y Meta han expresado preocupaciones, temiendo que el reglamento las obligue a salir del mercado europeo o enfrentar multas millonarias. Vitalik Buterin, cofundador de Ethereum, ha criticado públicamente la propuesta, advirtiendo que amenaza la privacidad en el mundo cripto y Web3. En redes sociales como X (anteriormente Twitter), el debate se ha intensificado, con usuarios y expertos como Julian Hayes explicando técnicamente cómo funcionaría el escaneo y sus riesgos para la privacidad en telecomunicaciones.
Alternativas propuestas por 48 organizaciones de protección infantil y derechos humanos incluyen vigilancia dirigida con órdenes judiciales, fortalecimiento de servicios de apoyo a víctimas y educación digital, en lugar de escaneo indiscriminado. La Comisión ha lanzado una Red para la Prevención del Abuso Sexual Infantil en agosto de 2025, enfatizando la prevención, pero críticos ven esto como un complemento insuficiente al reglamento invasivo.
Si se aprueba el 14 de octubre, el reglamento marcaría la mayor expansión de vigilancia en la historia de la UE, potencialmente fracturando la unidad digital del bloque. Para sus detractores, representa un paso hacia un estado orwelliano, donde la noble causa de proteger a los niños se usa como pretexto para erosionar libertades. Como resume la Gesellschaft für Freiheitsrechte (GFF), el escaneo masivo viola la esencia del derecho a la privacidad y podría extenderse más allá de sus intenciones originales. El debate no solo define el futuro de la privacidad en Europa, sino también el rol de la UE en el equilibrio global entre seguridad y derechos humanos.
Este artículo ha sido redactado y/o validado por el equipo de redacción de Revista Rambla.





