El testigo de las noticias falsas parece haber pasado momentáneamente de Facebook a Google

Noticias falsas directas del algoritmo a tu ordenador, el nuevo problema de Google

noticias-falsas-google

©BigStock

Actualizado 18 | 03 | 2017 10:52

Aunque Facebook ha estado en el punto de mira por las informaciones falsas desde las elecciones de EEUU, ahora es Google (y en especial Youtube) quien podría necesitar actuar contra ello.

Tras las elecciones presidenciales de Estados Unidos, una gran parte de la opinión pública se posicionó contra Facebook por no combatir la creciente marea de noticias falsas. Al margen de si influyó o no en el resultado de las elecciones -algo increíblemente difícil de determinar-, las críticas continuas tuvieron un impacto: la red social anunció que colaboraría con verificadores externos para etiquetar algunas actualizaciones como «noticias disputadas».

A principios de mes, parecía que la empresa de Zuckerberg había cumplido su promesa e indicó que la herramienta ya estaba en marcha. El sistema deriva las actualizaciones sospechosas a las organizaciones de verificación de datos con las que colabora (Snopes, Politifact, ABC News y FactCheck.org) para su análisis. Si al menos dos de ellas presentan hechos enfrentados, los usuarios las verán etiquetadas como «Disputado por verificadores de hechos externos». Entonces podrán decidir por ellos mismos.

¿Problema resuelto? No del todo. La desinformación aún existe y ahora parece que es Google quien permitirá encantado que sus algoritmos la lleven hasta nosotros.

Hace dos fines de semana también, la publicación The Outline señaló que la herramienta Featured Snippets (Noticias destacadas) de Google no se comporta del todo como debería. Normalmente, la prestación está diseñada para contestar rápidamente una pregunta cuando el usuario emplea el motor de búsquedas o el asistente inteligente controlado por voz de Google. Sin embargo, las respuestas vienen de páginas web muy destacadas y no necesariamente son las más adecuadas.

Según Outline, estas noticias afirman que el antiguo presidente estadounidense Warren Harding fue un miembro del Ku Klux Klan (falso); sugieren que Barack Obama podría haber planificado un golpe de estado (aún pendiente); y han emitido algunas opiniones bastante indeseables sobre la maldad inherente de las mujeres. En cada caso, la información viene de páginas web a las que mucha gente no acudiría normalmente para obtener informaciones fidedignas.

En la web, Google permite al menos averiguar de dónde proviene la información y alertar a la empresa en caso de creer que es incorrecta o inapropiada. Y, según la BBC, algunos de estos traspiés concretos ya se han enmendado.

Pero Google no querrá deshabilitar por completo su herramienta de Noticias Destacadas, sobre todo en su asistente por voz. Como el periodista de Technology Review Tom Simonite ya ha señalado en el pasado, la empresa considera que sus capacidades de búsqueda representan un importante factor de diferenciación entre su propio Assistant AI y rivales de la competencia como Siri de Apple y Alexa de Amazon. El asistente de Google está sencillamente mejor entrenado para rastrear la web en busca de respuestas. Pero está claro que si internet está formado por contenidos que abarcan todo el espectro de lo verosímil, no siempre acertará.

De hecho, la propia Google podría convertirse en el hogar de una gran parte de los contenidos cuestionables que entrega a los usuarios. YouTube siempre ha sido una fuente de extrañas y maravillosas teorías de conspiración sobre, por ejemplo, el histórico aterrizaje lunar que nunca habría sucedido. Pero la semana pasada, Buzzfeed señaló que la página de vídeos cada vez aloja una mayor cantidad de lo que denomina «contenidos conspiranoicos de tendencia derechista y de revisionismo histórico». Eso incluye sugerencias como que el tiroteo del colegio de Sandy Hook (EEUU) no causó ninguna muerte, y que Michelle Obama es en realidad un hombre.

Los argumentos esgrimidos contra Facebook por sus noticias falsas -en concreto que si se muestran suficientes contenidos falsos y de manera repetida a las personas, estas se confundirán y potencialmente empezarán a creer parte de ellos- también puede utilizarse contra YouTube. Como reiteró NPR durante el pasado fin de semana, los algoritmos deciden qué vídeos recomendar a los usuarios: ver tan solo un vídeo cuestionable puede llevar fácilmente al usuario a perderse en un aluvión de contenidos similares.

Desde luego, filtrar los contenidos es un problema enorme. Hay fronteras difusas entre la opinión y la desinformación, y la censura a costa de la libertad de expresión claramente no es aceptable. Mark Zuckerberg conoce muy bien ese dilema, y ha calificado los asuntos en juego como «complejos, tanto técnica como filosóficamente».

Llegados a este punto -y no necesariamente esperábamos encontrarnos diciendo esto- la solución de Facebook parece representar un buen primer paso. Al etiquetar los contenidos, los usuarios pueden ejercer su propio escepticismo sano, sin que la red social tenga que abordar el espinoso concepto de eliminarlos del todo.

Pero en algunos casos, sobre todo con sus Noticias Destacadas, Google muestra o recita contenidos de una manera que hace que se parezcan más a un hecho objetivo que a un contenido proporcionado por un algoritmo y sin verificar por un tercero. Y, como resultado, puede que tengamos más probabilidades de creer que son ciertos. No deberíamos, como tampoco debería permitir la empresa que el problema no se aborde.


Cargando noticia...