Cómo ha cambiado nuestro «yo» en Internet

De la máscara al ‘Gran Hermano’: cómo ha cambiado nuestro «yo» en Internet

gran-hermano-internet

©Antoine Beauvillain / Unsplash

Actualizado 21 | 05 | 2019 07:00

Internet ha cumplido 30 años. En solo tres décadas, todo ha evolucionado y nuestro «yo» en la web también. Cuando era casi de dos colores y hacía ruido mientras se conectaba, «los usuarios jugaban con la idea de la máscara y de aparentar ser quienes no eran; más tarde, con las redes sociales llegaron las formas de expresión personal y de afirmación», explica Gemma San Cornelio, profesora de los Estudios de Ciencias de la Información y de la Comunicación de la UOC.

Hoy, en China, el banco Open Sesame, una de las entidades principales del país, dispone de un sistema de clasificación social que puntúa a sus usuarios con un valor de entre 350 y 950 puntos. Según los puntos que dé el algoritmo, se podrá acceder a mejores condiciones educativas, conseguir mayores beneficios al pedir un crédito bancario o alquilar bicicletas gratuitamente, por ejemplo. «Actualmente la preocupación son los datos y los algoritmos, y es positivo que seamos conscientes de las implicaciones y busquemos fórmulas mejores para relacionarnos con la red», añade San Cornelio.

«En estos treinta años, hemos tejido nuestra identidad en internet sobre la base de mostrar nuestro “yo calificado” (qualified self) y nuestro “yo cuantificado” (quantified self), este último engrandecido por los macrodatos», afirma San Cornelio. El primero, desarrollado por Lee Humphreys (2018), aporta datos que compartimos en las redes sobre nuestra vida, fotos, detalles que podrían considerarse insignificantes pero que documentan nuestra identidad. «El uso, la construcción y la distribución que hacen los usuarios del “yo calificado” digital son similares a lo que se hacía con los álbumes de fotos familiares antes», afirma San Cornelio. En cambio, el «yo cuantificado» es el que tiene que ver con los datos que se recogen de nosotros mismos gracias a la tecnología: pulsaciones, grupo sanguíneo, edad, patrones de sueño, etc.

«Hoy en día, nuestra actividad diaria, en todas sus dimensiones, produce datos que quedan registrados y que posteriormente pueden ser utilizados por terceros con finalidades diversas», alerta la profesora. Desde la geolocalización de nuestros movimientos hasta operaciones en línea y datos institucionales relativos a salud o a hacienda que después pueden ser usados por empresas de seguros, del sector bancario o del comercial.

Las tres capas de la identidad digital en la red

«Todos somos datos y la sociedad se mide y se juzga por esos datos», afirma San Cornelio, también investigadora del grupo Mediaccions de la UOC. Muchas decisiones que afectan nuestra vida están dictadas por la interpretación de los datos de nuestro perfil en lugar de serlo por las interacciones personales. Esto tiene repercusiones en nuestro futuro, más allá de que los anuncios publicitarios sean personalizados o de que Facebook nos muestre noticias con las que estamos de acuerdo. A modo de ejemplo, la compañía Amazon ya trabaja con el aprendizaje automático (machine learning) y conoce las pausas que sus trabajadores hacen para ir al baño, su frecuencia y duración, y basándose en ello valora su productividad y su continuidad en la empresa.

Llegados a este punto, ¿qué dicen los datos de nosotros? Y, lo más importante ¿aciertan? Según un artículo existen «tres capas en nuestra identidad digital en internet»: la primera es la que responde a la información que los usuarios comparten, la segunda es lo que nuestro comportamiento dice de nosotros, y la tercera, lo que la máquina piensa sobre el usuario. La primera se nutre de lo que compartimos en las redes sociales de manera voluntaria, nuestras fotos, me gustas, etc. «En la segunda, se observa el comportamiento, es decir, el tipo de películas que miramos en Netflix, la música que escuchamos, la publicidad que recibimos según las búsquedas que hacemos en Google, etc.», afirma la experta. Además de otros datos que se capturan y de los que no somos tan conscientes, advierte, como la velocidad con la que tecleamos, el tamaño del navegador que usamos, etc.

«La tercera capa es la más periférica y, por tanto, la más difícil de controlar: no sabemos a quién llegan estos datos y de qué manera se recogen e interpretan», explica. Está compuesta por interpretaciones de la primera y la segunda, analiza nuestro comportamiento y los metadatos, y de ahí interpreta «quién somos». Se escapa al control del usuario: aunque puede controlar cierta información de entrada (el usuario ha publicado una foto de su recién nacido), no se conoce el algoritmo de salida (necesitará pedir pañales). «Los datos se analizan mediante diferentes algoritmos y se comparan con los datos de otros usuarios para obtener correlaciones estadísticas significativas», explica San Cornelio.

Cuando el algoritmo se equivoca

La idea de estos algoritmos de perfil es adivinar cosas que no es probable que el usuario revele voluntariamente: debilidades, perfil psicométrico, nivel de coeficiente intelectual o pequeñas obsesiones, entre otros aspectos. «Los algoritmos ayudan a las empresas que analizan los datos a ofrecernos contenido para comprar o para consumir», afirma la experta. «En el sector del marketing y la publicidad, estas predicciones e interpretaciones son muy valiosas para el anunciante», afirma Diego Miranda-Saavedra, profesor del máster de Inteligencia de Negocio y Big Data Analytics de la UOC. «La necesidad (y la manipulación) se crea al poder adivinar lo que al usuario le puede gustar, ya que reduce la barrera de obtención del producto por la inmediatez que le ofrece el sistema», explica. Para Miranda-Saavedra, aunque no se tenga nada que ocultar, el saberse observado condiciona nuestra libertad, comportamiento y manera de estar en el mundo.

Si el resultado de este análisis algorítmico es injusto o discriminatorio, puede ser, por ejemplo, que el crédito bancario que el usuario pida sea rechazado porque no vive en un barrio «correcto» o porque no pagó una multa a tiempo, o que la solicitud de trabajo no avance porque no tiene una red social «suficientemente sólida». ¿Se puede corregir la información que tiene el algoritmo? «El Reglamento general de protección de datos (RGPD) puede ser una buena herramienta en la medida que contempla (como ya hacía la Directiva del 95) el “derecho de acceso”, mediante el cual el usuario puede pedir a las empresas o plataformas de internet para que le informen acerca de qué datos tienen sobre él o ella, dónde proceden y a qué empresas los han facilitado o vendido», afirma Mónica Vilasau, directora del posgrado de Protección de Datos de la UOC. «El usuario puede pedir, además, que se suprima o modifique esa información», añade.

Ante la falta de transparencia en la recolección de estos datos, Vilasau señala que el RGPD también otorga al usuario la facultad de pedir que se le explique cuál es la lógica que hay detrás de un determinado algoritmo, cómo se procesan los datos de manera automatizada. «Sin embargo este derecho tiene sus limitaciones, entre otras el responsable del tratamiento siempre puede alegar que esta lógica forma parte de su “know how” (saber hacer) o de su secreto comercial», explica.

Cómo controlar los algoritmos

Según Diego Miranda-Saavedra, que también es profesor de los Estudios de Informática, Multimedia y Telecomunciación, se pueden seguir algunos consejos básicos (aunque no suficientes) para tener mayor control sobre nuestra intimidad en internet, entre los cuales hay:

  1. No publicar actualizaciones de estado en redes sociales.
  2. No usar mensajería propia de las plataformas de las redes sociales.
  3. Para nuestra comunicación privada, usar aplicaciones cifradas como Telegram.
  4. Bloquear scripts de seguimiento instalados.
  5. Desactivar los metadatos de las fotografías.
  6. Revisar qué aplicaciones tienen acceso a nuestra ubicación.
  7. Usar un servidor de correo que encripte término a término los mensajes, como ProtonMail.
  8. Usar navegadores menos invasivos como Brave.com o motores de búsqueda que no registren nuestra actividad como  Duckduckgo.

¿Este es el internet que queremos?

Tim Berners-Lee, el inventor del WWW, afirmaba hace unos días en la conferencia inaugural en Madrid que el internet de hoy no era el que él tenía previsto crear y que la prioridad de la tecnología ya no son sus usuarios: «Siri y Alexa no trabajan para mí, sino para sus empresas», dijo. «Desde el inicio de internet hemos pasado por etapas optimistas y después por otras más críticas», afirma San Cornelio, que ejemplifica: pasó en los años noventa, después llegó la burbuja de las .com, que pinchó, después la web 2.0 con otro subidón que ofrecía muchas posibilidades a la participación y que después trajo otras formas de precariedad. Más adelante llegaron las redes sociales y unos años más tarde los macrodatos, la «datificación» de la sociedad y la preocupación por los algoritmos. «Hoy, esta visión crítica y negativa del uso de las plataformas y de las corporaciones que hay detrás está más generalizada que en épocas anteriores», concluye.


Cargando noticia...