Anuncio

Facebook y Google prometieron acabar con las noticias falsas, pero éstas se filtraron durante el incidente en Las Vegas

Share

La exactitud importa mucho en los momentos posteriores a una tragedia. Los hechos pueden ayudar a capturar a los sospechosos, salvar vidas y evitar el pánico.

Sin embargo, después del mortal tiroteo en Las Vegas, el pasado domingo, los dos mayores portales de información, Google y Facebook, no hicieron nada para calmar a quienes los critican por magnificar las noticias falsas al dirigir a sus usuarios hacia sitios marginales con engaños y desinformación.

Google publicó en sus “historias principales” enlaces cargados de conspiraciones de 4chan, hogar de algunos de los trolls más ardientes de internet. También promovió una noticia -ahora borrada- de Gateway Pundit y publicó videos en YouTube de dudoso origen.

Anuncio

Todos los posteos tenían algo en común: identificaban al atacante equivocado.

La policía mencionó a Stephen Paddock como el único sospechoso, y hasta ahora no ha señalado ningún motivo. Pero los artículos erróneos apuntaban a otro hombre, al cual etiquetaban como un activista de izquierda, opuesto a Trump.

En tanto, la página de Respuesta de Crisis de Facebook, un centro para que los usuarios se mantengan informados y se movilicen durante desastres, perpetuaron los mismos rumores al colocar vínculos a sitios como Alt-Right News y End Time Headlines, según Fast Company.

“Esto es lo mismo que gritar ‘Fuego’ en un teatro lleno de gente”, comparó Gabriel Kahn, profesor de la Escuela de Periodismo y Comunicación Annenberg, de USC, acerca de la respuesta de Google y Facebook. “No es un tema de libertad de expresión”.

Los errores señalan cómo, a pesar de las promesas y los esfuerzos para rectificar el programa de noticias falsas con inspectores y otras herramientas después de la elección presidencial de 2016, la desinformación sigue minando la credibilidad de las empresas más grandes de Silicon Valley.

Google y Facebook han desde entonces ajustado sus resultados para dar a los usuarios enlaces a fuentes más confiables, y reconocieron que sus algoritmos no estaban preparados para el violento ataque de información falsa. “Esto no debería haber aparecido en ninguna búsqueda. Seguiremos implementando mejoras para evitar que suceda en el futuro”, aseguró un vocero de Google acerca del enlace de 4chan, que surgía sólo si los usuarios buscaban el nombre del tirador mal identificado y no el ataque en general.

Facebook no respondió a una solicitud de comentarios, pero afirmó a Fast Company que lamentaba el enlace a Alt-Right News. “Estamos trabajando para solucionar el problema que permitió que esto ocurriera en primer lugar, y lamentamos profundamente la confusión que ello causó”, expresaron voceros de la red social. “Tanto Google como Facebook -junto con Twitter- están bajo creciente presión para gestionar mejor sus algoritmos a medida que surgen más detalles acerca de cómo Rusia empleó sus plataformas para interferir en la elección presidencial y sembrar discordia.

Las plataformas tienen una inmensa influencia en lo que se ve y se lee. Más de dos tercios de estadounidenses reportan obtener al menos algunas de sus noticias a partir de redes sociales, según el Pew Research Center. Un estudio global publicado por Edelman el año pasado descubrió que más gente confiaba en los motores de búsqueda (63%) para noticias e información que en los medios tradicionales, como los periódicos y la televisión (58%).

Los algoritmos de Facebook Google están diseñados para favorecer los tipos de artículos y publicaciones que más se comparten y que obtienen más comentarios. La promoción de esos posteos impulsa la participación, y con ella los ingresos por publicidad. Pero esa estrategia también ayudó a magnificar la difusión de noticias falsas durante la temporada de campaña, intensificando los pedidos de que las plataformas se comporten de forma similar a las empresas de medios de comunicación, mediante la investigación del contenido que promueven.

Ello requeriría una gestión más humana, algo que las empresas de tecnología son reacias a hacer dado que su propia existencia se debe a la sustitución de la actividad humana mediante el software.

Sin embargo, Facebook ha intentado encontrar un equilibrio. En marzo pasado lanzó un programa de verificación de hechos con PolitiFact, FactCheck.org, Snopes.com, ABC News y Associated Press. Esas asociaciones, sin embargo, no impidieron que las noticias inexactas aterricen en la página de Respuesta de Crisis de la red.

Designar personas a cargo de los contenidos podría ayudar a las compañías de tecnología a evitar polémicas. Snapchat, la desaparecida aplicación de mensajería, mantiene estricto control sobre las noticias publicadas en su plataforma empleando personal, entre ellos periodistas, para curar y verificar contenidos. De todos modos, es cierto que Snapchat atrae a muchos menos usuarios -y por ende menos contenido- que Facebook o Google.

Facebook comenzó a impulsar su equipo humano de supervisión. El lunes último, la red social de Menlo Park, California, se comprometió a contratar más de 1,000 empleados para revisar sus anuncios de propaganda.

Los cambios llegan en medio de la creciente frustración en Washington, mientras los legisladores impulsan que Facebook, Google y Twitter sean más comunicativos en la investigación por la intromisión rusa en las elecciones.

El lunes, Facebook concedió a los comités del Congreso más de 3,000 anuncios comprados durante la campaña electoral de 2016, por una firma vinculada con la inteligencia rusa. En una publicación de un blog, la compañía afirmó que unos 10 millones de personas en los EE.UU. habían visto las publicidades. La semana pasada, Twitter informó al Congreso sobre el número de cuentas falsas llevadas adelante por agentes rusos. Google afirmó, por su parte, que realizaría una investigación interna sobre la interferencia de Rusia (en un movimiento aparte para aplacar a las organizaciones de noticias, el gigante de los buscadores afirmó el lunes que modificará las políticas para ayudar a los editores a llegar a más lectores).

Aún así, el escepticismo abunda acerca de que estas empresas -que se deben a sus accionistas- estén equipadas para proteger al público de la desinformación y reconozcan la amenaza que sus plataformas plantean a las sociedades democráticas. En la actualidad crecen los pedidos para regular a estas compañías de forma más estricta aunque, como plataformas, no son responsables de la mayor parte del contenido que distribuyen.

“Estos algoritmos fueron creados con intención, y la intención es obtener una recompensa financiera”, afirmó Kahn, de USC. “Son muy efectivos, pero también hay daños colaterales como resultado de diseñar las plataformas de esa manera. No es suficiente decir: ‘Oye, nosotros somos neutrales; somos simplemente un algoritmo y una plataforma’. Ellos poseen una responsabilidad importante que no aún han asumido totalmente”.

Traducción: Valeria Agis

Para leer esta nota en inglés, haga clic aquí

Anuncio