miércoles, 5 de enero de 2022

Tu nube está en el ordenador de Google: por qué pueden bloquear tu contenido en Drive

Se ha repetido eso de que “la nube es el ordenador de otro” hasta la saciedad. Y, para más de mil millones de personas en todo el mundo, ese “otro” se llama Google Drive. La tecnológica ha comenzado a restringir el acceso a los contenidos ilegales o que incumplan su normativa interna, de modo que los usuarios que los hayan subido no podrán hacerlos públicos ni tampoco compartir enlaces con otras personas.

Cuando Google detecte que se han violado estas reglas, se lo notificará al propietario por correo electrónico, además de mostrar una bandera de advertencia junto al archivo en Drive. Contactados por Teknautas, en la compañía matizan que el escaneo de los archivos en la nube ya se llevaba a cabo para las personas que usaban el servicio a título individual —"se hacía para evitar 'phishing', 'spam', 'malware' o contenido de abuso a menores"—, pero que la novedad es que ahora se amplía a las empresas que tienen contratado este producto. Eso sí, únicamente afectará lo que se comparta con cuentas externas al dominio corporativo.

M. MC.

Estos cambios, anunciados a mediados del pasado diciembre, se están implementando de forma gradual en la nube de Google, que este año cumple una década de vida. ¿Por qué han decidido llevarlos a cabo? “Tenemos evidencias de que nuestro anterior método, que no escaneó en esta área, fue el principal impulsor del 'spam' en nuestros productos”, responde una portavoz de la tecnológica, que apostilla que funciona “de manera similar a como Gmail analiza los correos electrónicos entrantes en busca de abusos”.

En Google también destacan que el contenido que se sube a Drive se configura como “privado de forma predeterminada”, pero que “el hecho de que se comparta el contenido intencionalmente aumenta la visibilidad (y el escrutinio) que recibirá”. No dan más detalles sobre cómo constatan que un contenido que incumple sus normas y la legislación, más allá de que la mayoría de las veces proviene de “los informes de los usuarios, el análisis de máquinas y las técnicas de 'hash' que preservan la privacidad”.

Ejemplo de la notificación que enviará Google a los usuarios a los que bloquee archivos.Ejemplo de la notificación que enviará Google a los usuarios a los que bloquee archivos. Ejemplo de la notificación que enviará Google a los usuarios a los que bloquee archivos.

“La verdadera novedad es que se le va a notificar al usuario, que así se va a dar cuenta de que están revisando sus contenidos. Con la actualización de políticas de uso de las plataformas, te enteras de cosas que antes se hacían y no las sabías, como ese escaneo de contenidos”, comenta Borja Adsuara, abogado especializado en protección de datos.

Google, o cualquier otra empresa, tiene la obligación de bloquear o eliminar cualquier contenido ilegal del que tenga conocimiento (por ejemplo, si un usuario lo denunciaba), pero la clave está en la adopción de un papel activo a la hora de detectar este tipo de contenido. “La Directiva de Comercio electrónico, del año 2000, y la Ley de Servicios de la Sociedad de la Información, del 2002, ya establecían que había que suprimir o bloquear el acceso si los prestadores de servicios de alojamiento tenían conocimiento efectivo de que un contenido era ilegal”, recuerda este experto.

"Si no es ilegal, ¿por qué lo restringen?"

La cuestión está en que los contenidos restringidos no son únicamente aquellos que incumplen la ley, sino que hay también otros dos supuestos: que vayan en contra de los términos de uso o de las llamadas ‘políticas de uso aceptable’. En las segundas, se incluyen actividades ilegales, como los ciberataques mencionados, pero también cuestiones mucho más peliagudas, como el contenido “sexualmente explícito”. Por ejemplo, ¿qué ocurriría con alguien que tiene alojadas fotos íntimas en Google Drive?

“Al aplicar estas políticas, puede que hagamos excepciones basándonos en consideraciones de carácter artístico, educativo, documental o científico, o en caso de que el hecho de no tomar medidas contra el contenido resulte beneficioso para el público”, indican en su web, donde no queda claro dónde está la línea que separa una cosa de la otra. “Si es ilegal, deben borrarlo y denunciar a la Policía, como podría ser un caso de contenidos de pornografía infantil, pero la pregunta es: si no es ilegal, ¿por qué lo restringen?”, indica Adsuara, que considera que “la libertad de expresión tiene como límite la ley, tal y como establece la Constitución y la Carta de los Derechos Fundamentales de la Unión Europea”.

Mario Escribano

En cualquier caso, si se bloquea el contenido de un usuario por error, este puede exigir una revisión de su caso para poder volver a compartirlo. No obstante, no han trascendido detalles sobre cómo será ese proceso ni qué plazos conllevará. Cabe recordar que los antecedentes de este tipo de procesos en las tecnológicas suele dejar mucho que desear. Sin ir más lejos, las reclamaciones de propiedad intelectual en YouTube, un proceso totalmente automatizado que ha traído auténticos quebraderos de cabeza a personas que, en realidad, no habían incumplido normas.

¿Puede hacerlo por ser una empresa privada?

Algún lector ya lo estará pensando: al fin y al cabo, Google es una empresa privada y puede hacer lo que quiera. Y, a quien no le guste, que no lo use y busque otras alternativas, como puede ser montarse su propia nube en casa. Adsuara matiza esto: “Es una gestión privada de un espacio público, porque desde ahí puedes enlazar contenido”. “Cuando alquilas un trastero, tengo dudas de que el casero pueda mirar qué guardas en él”, ejemplifica.

Este letrado pone como ejemplo el derecho de admisión de los locales de restauración —"tiene como límite los derechos fundamentales de la persona”— y subraya que “las multinacionales también tienen que adaptarse a la ley de cada país, igual que hace la pyme más pequeña”. “Si no lo hace, no tendrían que operar, igual que se hace en China con las tecnológicas que no cumplen sus normas. En Europa estamos acomplejados: ¿por qué les exigimos más a las empresas de aquí que a las multinacionales?”.

El comisario europeo de Mercado Interior, Thierry Breton, durante una rueda de prensa sobre la Ley de Servicios Digitales en la sede de la Comisión Europea en Bruselas. (EFE/EPA /Olivier Matthys)El comisario europeo de Mercado Interior, Thierry Breton, durante una rueda de prensa sobre la Ley de Servicios Digitales en la sede de la Comisión Europea en Bruselas. (EFE/EPA /Olivier Matthys) El comisario europeo de Mercado Interior, Thierry Breton, durante una rueda de prensa sobre la Ley de Servicios Digitales en la sede de la Comisión Europea en Bruselas. (EFE/EPA /Olivier Matthys)

En cualquier caso, no se trata solo de una política de las plataformas y Adsuara también señala que "los gobiernos les están presionando a hacerlo". Aquí es donde vuelve a aparecer el nombre de la directiva de comercio electrónico, que pronto será sustituida por la Ley de Servicios Digitales (DSA, por sus siglas en inglés), aún en negociación. “La DSA va en la línea de dar carta libre a las plataformas para que incluyan en sus políticas lo que no consideren apropiado más allá de la ley y al margen de los Parlamentos. Es como decir que, como los jueces no pueden estar al tanto, que las plataformas restrinjan, pero eso es el suicidio del Estado de derecho”, sostiene Adsuara, que lo ve una forma de “reconocer la incompetencia digital europea”.

En este sentido, explica que “esto nos lleva a la discrecionalidad, que era lo que ocurría en la Edad Media con los señores feudales: cada uno ponía sus leyes”. De momento, son solo unos precedentes, pero Adsuara tiene claro que por ahora solo se han sentado las bases. “Esto es como el rascar: todo es empezar”.



PUBLICADO EN Tecnología https://ift.tt/3sXeyFR
via IFTTT

No hay comentarios.:

Publicar un comentario