No resulta extraño que Mark Zuckerberg se haya echado esta semana en brazos del mundo virtual, en vista de cómo le están yendo las cosas en el real. A partir de ahora, será el presidente de Meta, nombre anodino para indicar el viaje de la compañía a la abstracción del metaverso, tierra prometida donde conectar con los tuyos en realidad aumentada. Con suerte, allí no llegan las noticias que acorralan a su empresa desde hace mes y medio, el peor mes y medio de su historia, su particular temporada en el infierno. El anuncio, que afectará más bien poco a los 3.600 millones de usuarios de Facebook, Instagram o WhatsApp, aplicaciones que mantienen el nombre, es una manera algo torpe, a juzgar por cómo ha sido recibida, de salir al paso de acusaciones tan graves como que Zuckerberg prefirió silenciar a grupos opositores en Vietnam antes que perder negocio en un mercado suculento, que alimentó el odio nacionalista en la India de Narendra Modi o que no hizo lo suficiente por detener los bulos antivacunas.
Esas revelaciones, por citar solo algunas de las conocidas esta semana, provienen de los miles de documentos internos sacados de la compañía por Frances Haugen, la garganta profunda de Facebook, que ha pasado en poco tiempo de anónima desempleada de Silicon Valley (dejó la tecnológica en mayo) a testificar el lunes pasado ante el Parlamento británico, como ya hizo antes en el Senado de Estados Unidos. Los legisladores la citaron en el Capitolio alarmados por las primeras filtraciones, que comenzaron en septiembre en The Wall Street Journal y fueron obtenidas “tras dos años y medio” de trabajarse a empleados de la red social, por el periodista Jeff Horwitz, que acaba de firmar un contrato editorial para contar su historia.
La segunda oleada llegó con la publicación simultánea en 17 empresas periodísticas de los Papeles de Facebook, último as que tenía guardado en la manga Haugen, insólita mezcla de mesías de las libertades civiles y maestra en el manejo de los medios. Las revelaciones comenzaron el 22 de octubre, tras varias semanas de trabajo. Reporteros tecnológicos que habitualmente compiten entre sí compartieron en un canal de Slack información sobre las decenas de miles de documentos que la exempleada se llevó consigo. Los periodistas están accediendo a ese material en una versión redactada, preparada por los abogados de la garganta profunda para presentar a los senadores en Washington, que parecen unidos por primera vez más allá de la polarización en su intención de regular el funcionamiento de las redes sociales.
Cada día se conocen nuevas pruebas de la mala praxis de Facebook (en un torrente de tales dimensiones que amenaza con cauterizar la indignación de la opinión pública). Al principio, se supo que Zuckerberg tenía constancia de que sus lucrativos inventos afectan a la salud mental de los adolescentes, que rentabilizan la ira y alimentan el odio en los usuarios, y que ofrecen escenarios confortables para el crimen organizado. Con la entrada en escena del resto de medios, se amontonaron las historias de cómo la compañía prefirió mirar a otro lado ante las evidencias de su capacidad desestabilizadora en lugares como Polonia, cuyos partidos de ultraderecha se han beneficiado durante años del “algoritmo de odio” de la tecnológica; Myanmar, donde Facebook toleró incitaciones al genocidio de la minoría rohinyá, o Washington. Pocos dudan ya de que los asaltantes al Capitolio se sirvieron impunemente de la red social para organizar el ataque a la democracia estadounidense.
Los documentos internos pintan a menudo un panorama en el que los empleados desempeñan el papel del canario que advierte en la mina de un peligro sistemáticamente ignorado por sus superiores. Uno de esos trabajadores alertó en marzo de este año de que los “comentarios que dudan de la eficacia de las vacunas circulan sin control”, y que si la capacidad para detectarlos en inglés es “mala”, resulta prácticamente inexistente en otros idiomas. Facebook no hizo nada al respecto… hasta esta semana, en la que introdujo un mecanismo que penaliza esos mensajes. Y no lo hizo pese a que la rezagada vacunación en Estados Unidos es un problema que viene de lejos y pese a que Joe Biden llegó a acusar en julio a la plataforma “de estar matando gente”.
Los papeles también han servido para conocer los experimentos de Facebook en sociología. En 2019, dos empleados de la plataforma crearon un perfil ficticio de una usuaria de 21 años en la India, con sus 1.380 millones de habitantes, su mercado más importante. El contenido inocente que su muro empezó a ofrecer a la recién llegada se convirtió pronto en una riada de violencia, desinformación y discursos tóxicos. Pocos meses después, en otro experimento, un investigador inventó a una mujer de Wilmington (Carolina del Norte), que se declaraba cristiana y se puso a seguir a Donald Trump y a la cadena Fox News. Se llamaba Carol Smith (y es tentador pensar que todo fue un homenaje al pensador conservador alemán Carl Schmitt). Bastaron dos días para que la plataforma le propusiera unirse a grupos relacionados con QAnon, movimiento social lindante con el trumpismo que alienta salvajes teorías de la conspiración.
Ver más en El País