¿Hasta qué punto son aceptables las tecnologías invasivas?

11-08-2021
Ciencia, Tecnología e Innovación
Ojalá, República Dominicana
Compartir:
Compartir:

Lo hemos comentado varias veces: vivimos en un mundo hiperconectado donde la privacidad es una mera ilusión, ya sea por vía de explayar nuestras vidas en redes sociales o a través del incesante rastreo a que nos someten Google, Facebook y demás.

Si hay una compañía que se percibe como protectora del derecho a la privacidad, esa es Apple, y la evidencia la tenemos en los extensivos controles que a lo largo de los años ha venido introduciendo en sus sistemas operativos.

Esa lucha de Apple por proteger la privacidad de los usuarios es legendaria, y tan solo ha aumentado en los últimos años. iOS 14, por ejemplo, introdujo una suerte de etiqueta nutricional de privacidad para que la gente sepa qué tan invasivas son las aplicaciones que bajan a sus equipos.

Asimismo, introdujo alertas puntuales para saber en qué momento estas aplicaciones activan micrófono y cámara y así poder tomar las medidas de lugar. En iOS 15, que estará disponible para el otoño, todo esto se refuerza. 

Apple también es conocida por negarse a colaborar con las autoridades cuando estas le piden acceso a los teléfonos de sus usuarios en casos puntuales de investigación y sometimiento criminal, y es por eso que la más reciente movida ha generado toda clase de críticas y debates en torno a la pertinencia de tecnologías invasivas y sus potenciales beneficios y desviaciones.

Hace unos días, Apple anunció que estarían debutando en iOS 15 y demás sistemas operativos actualizados una serie de herramientas diseñadas para ayudar en el combate de la explotación sexual infantil, un problema grave de alcance mundial. 

Podría decirse que las intenciones de Apple son nobles, pero la herramienta en cuestión funciona haciendo un escaneo a nivel de equipos de las fotos almacenadas en la nube de la compañía. Es aquí donde empieza a desvanecerse la línea de la privacidad y donde inicia el debate respecto a la utilidad y pertenencia de este tipo de soluciones tecnológicas. 

No es que Apple estará revisando las fotos de un usuario de iPhone una por una, sino que esas fotos se convierten a códigos hash (bloques de datos) que luego son comparados con una base de datos de imágenes y videos de abuso sexual infantil provista por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC).

El sistema desarrollado por Apple busca coincidencias entre imágenes a este nivel, y en caso de encontrarlas, genera alertas que implican una revisión más a fondo por parte de un equipo humano. 

De antemano, se informa que fotos de niños en la bañera mientras reciben un baño -una ocurrencia común entre padres- y otras similares no corren riesgo de ser marcadas como posibles ofensas.

Asimismo, se reitera que el sistema está diseñado para no invadir la privacidad, tanto que quienes guarden fotos en aplicación de fotos del iPhone quedan exentas de cualquier revisión porque solo funciona en iCloud. 

Pese a estas garantías, las dudas no se han hecho esperar, sobre todo porque hay el temor de que organismos o, incluso, países, busquen la forma de abusar de la herramienta para adaptarla a sus intereses. 

Se teme, asimismo, que esta sea una forma de Apple ir a cediendo a las presiones de antaño de otorgar acceso a sus sistemas a través de puertas traseras.

¿Es esta la mejor forma de combatir la explotación sexual infantil? Está por verse si ayuda o desayuda. Un dato importante es que, de por sí, Facebook, Google y demás hacen este tipo de escaneos, solo que a nivel de sus servidores y no de equipos individuales.