CÓMO LAS «FAKE NEWS» LLEVARON A FACEBOOK AL DESASTRE

EGO26 marzo, 2018

Lea el original en revistavanityfair.es

En febrero de 2016 Mark Zuckerberg envió un memorándum a los empleados de Facebook en el que recriminaba ciertos comportamientos inapropiados en las paredes de la oficina principal de la empresa en Menlo Park, donde se anima a los empleados a escribir notas y mensajes. En un par de ocasiones, donde estaba escrito “Black Lives Matter” (Las vidas de los negros importan), alguien había tachado una parte y la había sustituido por “All Lives Matter” (Todas las vidas importan). Zuckerberg pedía al responsable de esa acción que se abstuviera de repetirla.

“El mensaje de Black Lives Matter no implica que no importen las vidas de los demás —escribía en el memorándum—. Nunca hemos tenido normas sobre lo que la gente puede escribir en sus paredes. Tachar algo que ha puesto otra persona supone un intento de silenciar un mensaje o de demostrar que uno es más importante que otro”. Afirmaba que se estaba investigando quién había sido el responsable.

Cuando la reprimenda de Zuckerberg empezó a circular por la empresa, un joven subcontratado, Benjamin Fearnow, hizo una captura de pantalla de su ordenador personal y se la envió a su amigo Michael Nuñez, que trabajaba en la web Gizmodo. Nuñez publicó una breve noticia. Una semana después, en otra comunicación interna, Facebook invitaba a sus empleados a enviar preguntas para Zuckerberg en una reunión general con todo el personal de la empresa. Una de las más populares era: “¿Qué responsabilidad tiene Facebook a la hora de prevenir las acciones de Trump en 2017?”. Fearnow hizo otra captura de pantalla, esta vez con su teléfono. Recién licenciado de la Facultad de Periodismo de Columbia, trabajaba en la oficina de Facebook en Nueva York, en la sección Trending Topics, un feed (fuente web) de noticias populares que aparecía cada vez que alguien abría Facebook en Estados Unidos. El feed lo generaba un algoritmo, pero lo moderaban unas 25 personas con formación en periodismo. Si Trump se convertía en trending topic, como ocurría a menudo, identificaban qué noticias sobre él eran más importantes. Si un sitio poco serio publicaba alguna mentira viral, tenían que sacarla del feed.

El día después de que Fearnow hiciera la segunda captura de pantalla era viernes. Cuando se despertó, se encontró en su teléfono 30 notificaciones para asistir a una reunión. Pronto se vio en una videoconferencia con otros tres empleados de Facebook, entre ellos Sonya Ahuja, la directora de investigaciones. Ella le preguntó si había tenido algún tipo de contacto con Nuñez. Él lo negó, pero inmediatamente ella afirmó que tenía los mensajes que habían intercambiado por Gchat. Y que estaba despedido. Otro empleado, Ryan Villarreal, que había puesto un “Me gusta” al artículo sobre Black Lives Matter y era amigo de Nuñez en Facebook, también fue despedido.

Nuñez siguió buscando más material. Pronto publicó un artículo sobre una votación interna que demostraba el interés de los empleados de Facebook por intentar evitar a Trump todo lo posible. Después, a principios de mayo, publicó otro titulado: “Declaraciones de antiguos trabajadores de Facebook: suprimimos por sistema las noticias conservadoras”. El artículo sugería que el equipo de Trending Topics de Facebook trabajaba para “meter con calzador” noticias liberales y “poner en la lista negra” las conservadoras. Ese post se volvió viral. Esto supuso, por razones que solo podemos comprender ahora, el principio de los dos años más apoteósicos de la existencia de Facebook. Esta es la historia de esos dos años. Para preparar este artículo, hemos hablado con 51 empleados o exempleados de la empresa, muchos han pedido que no mencionemos sus nombres.

Zuckerberg siempre había sido implacable a la hora de adquirir o hundir a cualquier rival. Fue intentando superar a uno de ellos como Facebook llegó a controlar la forma en que consumimos información. En 2012 la red social más activa en la distribución de noticias online era Twitter. “Era una amenaza gigante”, asegura un antiguo ejecutivo de Facebook. Zuckerberg puso en funcionamiento una estrategia que ya había utilizado contra otros competidores que no podía comprar: primero los copió y después los aplastó. Ajustó el feed para incorporar noticias generales y reformó el producto para que se viera el titular y la firma del autor. A mediados de 2015 había sobrepasado a Google y ya dirigía 13 veces más lectores que Twitter.

La idea de que Facebook es una plataforma abierta y neutral es casi un postulado religioso dentro de la empresa. Si a alguno de los empleados no le convence esta religión, la sección 230 de la Communications Decency Act de 1996 (Ley de Buenas Prácticas en las Comunicaciones) la promueve. Se trata de una sección de una ley que protege a los intermediarios de Internet, evitándoles cualquier responsabilidad por el contenido que cuelguen sus usuarios. Si Facebook empezara a crear o editar el contenido de su plataforma, se arriesgaría a perder esa inmunidad. Por eso, Facebook nunca ha dado prioridad a ningún contenido en detrimento de otro. Pero la neutralidad también es una elección. Presentar de forma similar una investigación de The Washington Post o una flagrante mentira del Denver Guardian, un periódico totalmente falaz, es una decisión editorial, probablemente una de las más importantes.

En febrero de 2016, cuando empezaba a gestarse la crisis de Trending Topics, Roger McNamee, uno de los inversores iniciales de Facebook, empezó a notar que en la plataforma pasaban cosas extrañas. “Había memes que salían de un grupo de Facebook asociado con la campaña de Bernie Sanders, pero que no podían provenir de ahí, aunque estaban organizados de una forma que indicaba que detrás había dinero. No pude evitar pensar: ‘Qué raro. Raro y nada bueno”, recuerda.

En mayo, Gizmodo publicó su artículo sobre el sesgo político de Trending Topics que cayó como una bomba en la sede de Facebook en Menlo Park. No tardó en conseguir millones de lectores y, por alguna maravillosa ironía, apareció en el Trending Topics de Facebook. Pero la mala prensa no fue lo que les hizo perder la calma. Fue la carta que John Thune, senador republicano de Dakota del Sur, escribió. Thune preside el Comité de Comercio del Senado, que a su vez supervisa la Comisión Federal del Mercado, una agencia que se había encargado de investigar a Facebook. El senador quería conocer la respuesta de Zuckerberg a esas acusaciones de parcialidad. La empresa envió a varios de sus empleados a reunirse con Thune y escribió una carta en la que explicaba que habían realizado un profundo examen de Trending Topics y habían concluido que las acusaciones de Gizmodo eran absolutamente falsas.

Dentro del propio Facebook, el problema de Trending Topics inspiró una auténtica reflexión interna. Pero no sirvió para mucho. A finales de junio la compañía anunció un cambio mínimo: revisar el algoritmo que utilizaban para que favoreciera los post que publicaban los amigos y familiares de los usuarios. La consecuencia más importante de esta controversia fue que la empresa empezó a tener mucho más cuidado de no hacer nada que pudiera sugerir que vetaba las noticias conservadoras.

Poco después, Zuckerberg viajó a Sun Valley, Idaho, a un congreso anual donde magnates en manga corta y gafas de sol se divertían y planificaban comprar las empresas de los otros. Rupert Murdoch estropeó el ambiente. Le explicó a Zuckerberg que Facebook y Google se habían hecho con la totalidad del mercado de los anuncios digitales y que se habían convertido en una grave amenaza para el periodismo serio. Anunció que, si no le ofrecía un acuerdo mejor a la industria de los medios editoriales, los ejecutivos de su empresa, News Corp, iban a denunciar públicamente a Facebook y a hacer campaña en su contra. Ya le habían complicado mucho las cosas a Google en Europa y podían hacerle lo mismo a Facebook en EE UU.

Facebook entendió que News Corp les estaba amenazando con forzar una investigación antimonopolio por parte del Gobierno o promover un debate sobre si la empresa merecía la protección contra toda la responsabilidad de la que disfrutaba como plataforma neutral.

Cuando Zuckerberg volvió de Sun Valley, anunció a sus empleados que tenían que asegurarse de que ese negocio de las noticias siguiera existiendo. Debían idear formas para que las empresas de medios editoriales pudieran ganar dinero a través de la plataforma.

Pero esa repentina preocupación por los periodistas no se extendió al equipo de Trending Topics. A finales de agosto, los que lo formaban recibieron la noticia de que iban a eliminar sus puestos de trabajo. Un grupo de ingenieros pasaría a controlar el algoritmo. Pronto, el módulo empezó a publicar mentiras e historias inventadas.

Mientras Facebook lidiaba con la cuestión de en qué tipo de empresa se estaba convirtiendo (una empresa que dominaba los medios pero que no quería ser una empresa de medios de comunicación), el personal de la campaña de Trump tenía las cosas claras: Twitter era para comunicarse directamente con sus partidarios y despotricar contra los medios; Facebook, la forma de realizar la operación política de marketing directo más efectiva.

En el verano de 2016, en lo más álgido de la campaña para las elecciones presidenciales, parecía que la proyección digital de Trump era su gran desventaja. Hillary Clinton recibía asesoramiento de Eric Schmidt, uno de los directivos de Google, mientras Trump lo hacía de Brad Parscale,conocido solamente por haber creado la web de la Eric Trump Foundation, y su director de redes sociales era su antiguo caddie. Pero en 2016 se descubrió que para dirigir una campaña presidencial lo único que hacía falta era tenerle pillado el truco a Facebook. 

A lo largo del verano, el equipo de Trump convirtió la plataforma en una de sus principales formas de recaudación de fondos. Colgaban mensajes como: “¡Los medios están amañando esta campaña publicando acusaciones falsas y burdas mentiras para que acabe saliendo elegida la sinvergüenza de Hillary!”, que recibían cientos de miles de “Me gusta”. Mientras, los mensajes de Clinton tenían menos resonancia. En Facebook casi todos querían que ganara Clinton, pero sabían que Trump estaba utilizando mejor su plataforma. Él era el candidato de Facebook; ella, la de LinkedIn.

La candidatura de Trump sirvió para que una nueva clase de estafadores colara historias falsas, pero virales. Para el final de la campaña, generaban más atención que las noticias reales.

No olvidemos que Facebook vendía publicidad gracias a las historias que colgaba, y la basura sensacionalista venía bien para atraer gente. Los bonus de los empleados se basaban en si Facebook alcanzaba cierto crecimiento y unos objetivos de ingresos, lo que suponía un incentivo extra para no preocuparse demasiado por cosas que servían para enganchar a la gente. Facebook tenía multitud de razones para mirar para otro lado.

Pero, a nueve días de las elecciones, Roger McNamee envió un email a Sandberg y Zuckerberg: “Estoy muy preocupado por Facebook. Me comprometí con la empresa hace más de una década y hasta ahora me he enorgullecido de su éxito… Pero todo ha cambiado. Estoy muy decepcionado. Y me da vergüenza. Siento bochorno”.

No es fácil reconocer que la máquina que has construido para unir a la gente está utilizándose para separarla. Por eso, la reacción inicial de Zuckerberg a la victoria de Trump y al papel que Facebook podía haber desempeñado fue una negativa desabrida. Los ejecutivos recuerdan el pánico de los primeros días, con el equipo de acá para allá entre la sala de reuniones de Zuckerberg y la de Sandberg, intentando averiguar qué acababa de pasar y si tenían la culpa. Dos días después de las elecciones, Zuckerberg concluyó que “la idea de que las noticias falsas que salían en Facebook influyeron de alguna forma en las elecciones es una locura”.

En esa época, la empresa empezó a cuestionarse si tenían demasiado poder. Poco después de las elecciones, un equipo de empleados empezó a trabajar en el News Feed Integrity Task Force (fuerza operativa para la integridad de News Feed) llevados por la sensación de que la información errónea hiperpartidista era “una enfermedad que estaba colonizando lentamente toda la plataforma”. El grupo empezó a reunirse a diario para responder a la crisis de las noticias falsas. Semanas después, la empresa explicó que iba a recortar los ingresos por publicidad y que les facilitaría a los usuarios la posibilidad de marcar las historias que creyeran falsas. En diciembre anunciaron que iban a introducir un comprobador de veracidad. Si recibían avisos de que una historia era falsa, la enviarían automáticamente a alguna empresa asociada, como Snopes, para que la revisara.

La afirmación de Zuckerberg de que las noticias falsas “eran una locura” llegó a oídos de la investigadora de seguridad Renée DiResta, que llevaba años estudiando cómo se difundía la información errónea en esa plataforma. Había observado que, si te unías a un grupo antivacunas, Facebook te sugería otros que defendían que la tierra era plana o que apoyaban el Pizzagate, es decir, era como subirte en una cinta transportadora que llevaba directamente a la obsesión con las conspiraciones. A Renée le pareció que la afirmación de Zuckerberg demostraba una absoluta ignorancia. Recuerda haber pensado: “¿Pero cómo alguien que trabaja en esa plataforma puede pensar así?”.

Mientras, Roger McNamee se había irritado por la respuesta de Facebook a su carta. Zuckerberg y Sandberg no tardaron en enviarle una respuesta, pero en ella no decían nada sustancial.

En abril de 2017, tras coincidir en un programa de televisión de Bloomberg TV, McNamee entró en contacto con Tristan Harris, un defensor de la ética del diseño que había trabajado para Google.

Al mes siguiente, DiResta publicó un artículo en el que comparaba a los proveedores de informaciones erróneas en las redes sociales con los peligrosos operadores de alta frecuencia de los mercados financieros. Harris se quedó impresionado y contactó con ella. Los tres no tardaron en divulgar los envenenados efectos de Facebook sobre la democracia estadounidense. Pronto surgió un público receptivo a su mensaje en los medios y en el Congreso.

Las reuniones entre Facebook y los ejecutivos de los medios de comunicación parecían tensas reuniones familiares. No se caían nada bien los unos a los otros. Los ejecutivos de los medios estaban molestos porque Facebook y Google habían acaparado tres cuartas partes del negocio de los anuncios digitales. Y estaba ese profundo miedo que siempre les había inspirado Facebook: si la red social quisiera, podría pulsar los botones adecuados para hacerle mucho daño a una empresa de medios con la manipulación de su tráfico, de su red de publicidad o de sus lectores. Por su parte, a los emisarios de Facebook les resultaba agotador que les dieran constantemente lecciones unas personas que no sabían distinguir un algoritmo de una API.

En febrero Zuckerberg publicó un manifiesto dirigido al personal de su empresa. “¿Estamos construyendo el mundo que queremos?”, se preguntaba y dejaba entrever que la respuesta era un “no”. Entre afirmaciones grandilocuentes sobre “construir una comunidad global”, hacía hincapié enla necesidad de mantener a la gente informada para acabar con las noticias falsas y los clickbaits. Algunos vieron el texto como una señal de que Zuckerberg había entendido las profundas responsabilidades cívicas de la empresa. Otros, su tendencia a sugerir que la respuesta a cualquier problema era que la gente usara más Facebook.

Una de las muchas cosas que, al parecer, Zuckerberg no estaba entendiendo cuando escribió ese manifiesto era que su plataforma había sufrido un ataque por parte de un grupo de influencia extranjero. “Yo haría una clara distinción entre las noticias falsas y lo que tiene que ver con Rusia. Con esto último hubo un momento en el que todo el mundo dijo: ‘Oh, mierda, esto es una situación para Seguridad Nacional o algo parecido”, afirma un ejecutivo que trabajó en la respuesta de la empresa.

Pero a Facebook no se le abrieron los ojos sobre este asunto hasta más de seis meses después de las elecciones. A principios de la temporada de campaña, Facebook era consciente de que se producían habitualmente ataques de hackers rusos conocidos, como por ejemplo el grupo APT28, que se creía que tenía cierta relación con Moscú. Hackeaban cuentas fuera de Facebook para robar documentos y después creaban cuentas de Facebook falsas, bajo el paraguas del nombre genérico de DCLeaks, con la intención de provocar que la gente hablara de lo que habían robado. La empresa no vio señales de una campaña de propaganda extranjera seria y coordinada, pero en realidad tampoco se les ocurrió buscarla.

En la primavera de 2017 el equipo de seguridad de la compañía empezó a preparar un informe sobre cómo la inteligencia rusa y las de otras naciones habían utilizado la plataforma. Uno de sus autores era Alex Stamos, director del equipo de seguridad. Pero los miembros del equipo de política y comunicaciones presionaron para minimizarlo. Al final, había pocos ejemplos específicos y no se mencionaba directamente a Rusia. Tenía poco contenido y mostraba demasiada cautela.

Un mes después la revista Time dejaba caer que el equipo de Stamos había dejado algo fuera de sus análisis. El artículo citaba a un oficial de inteligencia veterano que aseguraba que agentes rusos habían comprado anuncios de Facebook para bombardear a los estadounidenses con propaganda. Los miembros del equipo de seguridad se pusieron a rebuscar entre los archivos de publicidad. Y, tras organizar las transacciones según una serie de datos específicos (si había anuncios pagados en rublos, si los habían comprado en servidores escritos en ruso), encontraron varias cuentas financiadas por un grupo ruso de dudosa procedencia, Internet Research Agency, que había sido diseñado para manipular la opinión política en EE UU. Había, por ejemplo, una página llamada El corazón de Texas que hacía campaña por la secesión del estado de la Estrella Solitaria. También estaba Blacktivist, que colgaba historias sobre brutalidad policial contra hombres y mujeres negros y que tenía más seguidores que Black Lives Matter.

Cuando Facebook encontró la propaganda rusa en su plataforma, se produjo una crisis. Primero, se corrió el rumor de que un grupo ruso había gastado millones de dólares en anuncios, cuando la cantidad total real solo tenía seis cifras y la primera de ellas no era muy elevada. Cuando se rectificó el error, se produjo un desacuerdo sobre cuánta información revelar y a quién. La empresa podría explicarle los datos sobre los anuncios al público en general, contárselo todo al Congreso o no contar nada a nadie. La discusión giró alrededor de cuestiones sobre la privacidad. A los miembros del equipo de seguridad les preocupaba que el proceso legal implicara entregar datos de usuarios privados, aunque estos pertenecieran a una granja de trolls rusa, porque eso abriría una puerta para que, más adelante, los gobiernos se apropiaran de los datos de otros usuarios de Facebook. “Hubo un verdadero debate interno. ¿Lo mandábamos todo a la mierda y dábamos el paso o no nos preocupábamos?”, comenta un ejecutivo.

Al final, a principios de septiembre apareció un post en un blog firmado por Stamos en el que se anunciaba que, hasta donde sabía la empresa, en la época de las elecciones de 2016 los rusos habían pagado a Facebook 100.000 dólares por unos 3.000 anuncios diseñados para influir en la política estadounidense. Todas y cada una de las frases de ese post minimizaban la importancia de estas nuevas revelaciones: el número de anuncios era pequeño, y el dinero gastado también. Y Facebook no los iba a publicar. El público no iba a saber la apariencia que tenían ni cuál era su verdadera intención.

“En ese momento fue cuando la cosa pasó de incompetencia a malicia”, afirma DiResta. Un par de semanas después, recibió una llamada de Jonathan Albright, un investigador del Tow Center for Digital Journalism.“He encontrado esto”, le dijo. Había descubierto que los datos de seis de las cuentas que Facebook había cerrado estaban todavía ahí, congelados. Albright descargó los 500 post más recientes de cada uno de los seis grupos y comprobó que, en total, se habían compartido más de 340 millones de veces.

Para McNamee, la forma en que los rusos utilizaron la plataforma no fue ni una sorpresa ni una anomalía. “Han encontrado 100 o 1.000 personas que están enfadadas y tienen miedo y han utilizado Facebook para anunciarse y conseguir que la gente se organice en grupos. Ese es justo el uso para el que Facebook se diseñó”.

En septiembre los comités de inteligencia del Congreso y el Senado estaban a punto de abrir una comisión sobre el uso que hizo Rusia de las redes sociales para interferir en las elecciones estadounidenses, y McNamee, Harris y DiResta colaboraron en su preparación. Así, el 1 de noviembre Colin Stretch llegó a la comisión desde Facebook para recibir un buen vapuleo. Marco Rubio, senador por Florida, le preguntó si la empresa tenía siquiera una política para evitar que gobiernos extranjeros ejercieran influencia sobre las campañas utilizando su plataforma. La respuesta fue que no. Jack Reed, senador de Rhode Island, preguntó entonces si Facebook sentía la obligación de enviar algún tipo de notificación individual a los usuarios que habían visto los anuncios rusos detectados. La respuesta fue otra vez que no. Pero la afirmación más preocupante salió de labios de Dianne Feinstein, senadora senior del Estado de California, donde nació Facebook: “Ustedes han creado estas plataformas y ahora alguien está haciendo un mal uso de ellas. Por eso, tienen que ser ustedes los que hagan algo para solucionarlo. Si no, lo haremos nosotros”, sentenció.

Tras las comparecencias en la comisión, antiguos ejecutivos de Facebook empezaron a hacer públicas sus críticas a la empresa. El 8 de noviembre, el emprendedor y multimillonario Sean Parker, su primer presidente, dijo que lamentaba haber hecho tantos esfuerzos por imponer Facebook al mundo. “Creo que no comprendía las consecuencias de mis actos. Solo Dios sabe lo que le estará haciendo a los cerebros de nuestros hijos”, declaró. Once días después, Sandy Parakilas, antiguo director de privacidad de la compañía, publicó un artículo de opinión en The New York Times en el que le pedía al Gobierno que preparara una regulación para Facebook: “La empresa no nos va a proteger por su propia voluntad, y está en juego nada menos que nuestra democracia”, fueron sus palabras.

El mismo día de la comparecencia en la comisión, Zuckerberg tuvo que presentar el informe de beneficios del tercer trimestre de Facebook. Las cifras eran increíbles, pero él no estaba de buen humor. “Ya he expresado lo preocupado que estoy porque los rusos utilizaran nuestras herramientas para intentar sembrar desconfianza. Hemos construido esas herramientas para ayudar a la gente a conectarse entre sí, y ellos las utilizan para minar nuestros valores. Lo que han hecho está mal y no lo vamos a permitir”. Anunció que la empresa iba a invertir una gran cantidad en seguridad, de forma que iban a ganar “significativamente menos” durante una temporada.

A finales del otoño seguían acumulándose las críticas: acusaron a Facebook de convertirse en el vector central para la difusión de propaganda letal contra la etnia rohingya en Myanmar y de apoyar el liderazgo brutal de Rodrigo Duterte en Filipinas. En diciembre se supo que Chamath Palihapitiya, que había sido el vicepresidente de Facebook para el crecimiento del número de usuarios antes de abandonar la empresa en 2011, había dicho en público en Stanford que creía que las plataformas de redes sociales como Facebook habían “creado herramientas que estaban desgarrando el tejido social” y que sentía “una culpa tremenda” por haber formado parte de ello. También aseguró que intentaba utilizar Facebook lo menos posible y que no les permitía a sus hijos usarlo.

La empresa emitió un comunicado diciendo que había pasado mucho tiempo desde que Palihapitiya trabajó en Facebook. “Facebook era una empresa muy diferente entonces y ahora somos conscientes de que nuestras responsabilidades crecen a la par que nuestro tamaño”, decía el comunicado. A la pregunta de por qué la empresa había respondido a esas declaraciones de Palihapitiya y no a las de otros, un ejecutivo senior de Facebook contestó: “Porque Chamath es… era más bien… amigo de mucha de la gente que trabaja aquí”.

El 4 de enero de 2018 Zuckerberg anunció que se había fijado un nuevo reto personal para el nuevo año. Durante los nueve anteriores se había comprometido con algún tipo de mejora personal. Su primer reto fue un poco absurdo (llevar corbata) y los demás, más bien vacíos e inmaduros: quería aprender mandarín, leer 25 libros… Pero este año adoptó un tono muy serio. “El mundo está nervioso y dividido y Facebook tiene mucho trabajo que hacer, tanto para proteger a nuestra comunidad del maltrato y el odio como para defendernos contra las interferencias de otras naciones», proclamó. Ese propósito arrancó con una declaración la semana siguiente en la que anunció que iban a reformular el algoritmo de News Feed para favorecer “las interacciones significativas”. Los post y los vídeos que solo inciten a mirar o pulsar “Me gusta”, pero que no provoquen que nos impliquemos y comentemos, perderán prioridad. La idea que lo respalda es que, cuando estamos conectados, “está demostrado que interactuar con gente produce diversas formas de bienestar, mientras que consumir de forma pasiva contenidos en Internet no genera la misma sensación”.

Para muchas personas en la empresa ese anuncio suponía una importante rectificación. Andrew Anker, el directivo que había llegado en 2015 y dejó la empresa en diciembre, contribuyó a esos cambios y declaró: “Sería un error ver esto como una retirada de la industria de los medios de comunicación. Es una retirada de la política de ‘cualquier cosa vale si encaja en nuestro algoritmo y la gente lo lee”. Aunque, según otras personas que siguen en la empresa, Zuckerberg solo quería que hubiera menos basura en la plataforma.

Una semana después de hablarle al mundo de “interacciones significativas”, Zuckerberg anunció que, por primera vez en la historia de la empresa, Facebook iba a empezar a impulsar a ciertos medios, los que tuvieran un contenido “informativo, local y fidedigno”. Durante el último año, ha estado desarrollando algoritmos para eliminar a los medios que publican contenido falso. Ahora intenta fomentar los de contenido veraz. Justo después de que publicara esa noticia, el precio de las acciones de The New York Times se disparó, igual que el de News Corp.

Pero el único destino que le preocupa a Facebook es el suyo. La red social se construyó sobre el poder del efecto de las redes: tú te unes porque todo el mundo se une. Pero ese efecto puede funcionar igual para conseguir que la gente abandone la plataforma. Y Zuckerberg lo comprende de forma casi visceral. Después de todo, él contribuyó hace una década a crearle problemas de ese tipo a MySpace y, aunque es objeto de discusión, parece que le está haciendo lo mismo a Snap hoy en día. Zuckerberg ha evitado en parte ese destino, porque ha demostrado ser brillante a la hora de anular a sus mayores amenazas. Compró Instagram. Compró WhatsApp. Cuando Snapchat se convirtió en una amenaza, lo copió…

Pero la gente que lo conoce dice que, después de todo esto, Zuckerberg ha cambiado de verdad y también está preocupado. “Todo lo que ha pasado este año ha cambiado enormemente ese optimismo tecnológico suyo. Le ha vuelto mucho más paranoico en cuanto a las formas en las que la gente puede aprovecharse de lo que hemos construido”, asegura un ejecutivo.

El año pasado también alteró la comprensión que tenía Facebook sobre si en realidad es una empresa de medios de comunicación o una plataforma. La empresa siempre ha respondido: “Plataforma, plataforma, plataforma”. Y por supuesto que es una plataforma y siempre lo será. Pero ahora es consciente de que también existen ciertas responsabilidades que comparte con las empresas de medios: tiene que cuidar a sus lectores y preocuparse por la verdad. No se puede conseguir un mundo más abierto y conectado si primero los desunes. Entonces, ¿qué es Facebook: una empresa de medios de comunicación o una plataforma? Parece haber reconocido que claramente es más bien ambas cosas.

Este reportaje se publicó originalmente en el número de abril de 2018 de Vanity Fair.

 

Acerca de El Pulso

Propósito: Somos un equipo de investigación periodística, que nace por la necesidad de generar un espacio que impulse la opinión sobre los temas torales de la política, economía y la cultura hondureña. Estamos comprometidos con el derecho que la gente tiene de estar verdaderamente informada.

Derechos Reservados 2019-2021