Carmela Troncoso: "La digitalización también trae inconvenientes y aún no entendemos el impacto que va a tener"

Carmela Troncoso, ingeniera viguesa.
photo_camera Carmela Troncoso, ingeniera viguesa.

Carmela Troncoso es una ingeniera viguesa especializada en el área de la privacidad en las telecomunicaciones que trabaja como profesora en la Escuela Politécnica de Lausana, donde desarrolló un protocolo que permitía utilizar aplicaciones móviles para facilitar el rastreo de contactos de covid sin usar geolocalización. Un trabajo por el que fue reconocida por la revista Fortune como una de las 40 personas más influyentes del mundo.

¿Cómo recibió este reconocimiento?

Fue una sorpresa, no solo por la valoración de la privacidad, sino también por tener en cuenta contribución conceptual a la hora de cambiar el diseño y no tanto a la hora de generar beneficio económico. En la lista de tecnología era de las pocas personas que no había fundado una empresa multimillonaria.

La aplicación Radar Covid tuvo una baja adopción. ¿Se debió a la desconfianza de la gente?

Las aplicaciones han tenido menos adopción que la esperada, que es la principal causa de que tuviesen menos impacto. Sin embargo hay cada vez más estudios que indican que tienen un efecto positivo, no es muy grande porque si solo la usa un 20% de la población no puede llegar más lejos. En cuanto a la desconfianza de la gente, sigue siendo una de las razones por las que no instalan las aplicaciones.

¿Hay riesgos para la privacidad en otras alternativas como los códigos QR?

Es el mismo problema, depende de dónde se ponga esta información y cómo creas el sistema para que recoja esos datos. En España dependiendo de la comunidad autónoma se han hecho cosas más o menos invasivas, que yo sepa ha tenido muy poco recorrido, pero hemos visto por ejemplo en Alemania como empezó siendo más optativo y luego una de las regiones lo hizo obligatorio para todo tipo de edificios desde colegios hasta edificios religiosos y esto quiere decir que vas dejando un rastro de a dónde vas y hay sitios en los que es extremadamente importante para nuestra libertad de reunión y de expresión que ésto no exista. De hecho diseñamos un protocolo en la misma línea que el primero que está implementado en la aplicación de Suiza para utilizar los códigos QR sin caer en esos problemas.

¿Estamos avanzando hacia la digitalización sin tener en cuenta sus consecuencias?

Hay muy poca conversación en general con la sociedad civil. La digitalización está muy bien pero también trae inconvenientes y a veces con la tecnología aún no entendemos el impacto que va a tener. Una vez que creas el sistema se queda. En Suiza utilizaron herramientas digitales para inscribirse a la vacunación y mucha gente mayor tuvo problemas.  Tenemos la idea de que la tecnología tiene que valer para todo y que todas las aplicaciones son buenas. A lo mejor algunas no lo son y hay cosas que no se deberían hacer. También hay que valorar cuánto nos hace depender la digitalización de las grandes tecnológicas y cuánta libertad perderemos, ya que se convierten en los mediadores de la sociedad. Si todo lo que hacemos está en la nube de Amazon o en las ‘apps’ de Google va a ser muy fácil pero luego vas a depender de ellos para manejar tu sociedad y eso es muy problemático. Apple ya ha anunciado que escaneará las fotos en los teléfonos como medida de protección contra la pornografía infantil y ahora vamos a tener a Apple en el medio en decidir qué tiene que ir a las autoridades y qué no. Por otro lado la administración pública no está preparada tecnológicamente entre otras cosas porque el capitalismo y la economía de escala hace que externalice servicios digitales. España tiene el servidor de Radar Covid en la nube de Amazon.

¿Noticias como la del uso del ‘software’ Pegasus para espiar a políticos y periodistas evidencian que la falta de privacidad puede poner en riesgo derechos básicos?

Tenemos la tendencia de intentar solucionar con tecnología y monitorización muchos problemas, y al final lo que hacemos con eso es generar la infraestructura que permite que aplicaciones de este tipo existan. Por ejemplo, sabemos que la tecnología de control parental la usan mucho los abusadores de violencia de género para vigilar a sus víctimas.  Introducir estas tecnologías sin pensar puede cambiar las dinámicas sociales que tenemos.

¿Qué respondería a la gente que dice que no hay nada que esconder?

La privacidad no es un fin es un medio que tenemos para protegernos de presiones externas. Creo que el caso de Cambridge Analítica es algo que ha abierto los ojos a mucha gente, la información que utilizaron fue la edad, la dirección y los ‘likes’ en Facebook, mucha gente dirá que no hay nada que esconder ahí pero esas tres cosas le permitieron a esta gente decidir qué tipo de anuncios van a enseñar para cambiar cómo piensas. 

Te puede interesar