Desde sus primeros días, Silicon Valley ha sido apuntalado por una manera casi absolutista de pensar en la libertad de expresión. Fuera de excepciones por fraude, pornografía o amenazas específicas, la opinión prevaleciente entre muchas plataformas tecnológicas ha sido permitir que prácticamente cualquiera publique casi cualquier cosa. Estas sensibilidades incluso están consagradas en algunas leyes; la estadounidense les da a esas empresas una amplia inmunidad a que se les someta a un proceso judicial con base en lo publicado por sus usuarios.
Sin embargo, y con buena razón, los valores absolutistas han terminado.
En los últimos dos años, las plataformas tecnológicas —ante presión de legisladores y los medios debido al daño ocasionado por la desinformación, la propaganda patrocinada por Estados y el acoso— han comenzado una revisión profunda de sus opiniones acerca de lo que la gente puede decir en línea y cómo puede decirlo.
A mediados de julio, Facebook anunció un nuevo plan para eliminar la desinformación que podría causar un daño inminente. WhatsApp, la subsidiaria de mensajería de Facebook, mencionó que limitará cuán ampliamente se pueden reenviar los mensajes en el servicio a fin de disminuir los rumores virales, algunos de los cuales han originado situaciones violentas en países como India.
Las nuevas políticas forman parte de un cambio más grande. Los servicios en línea —no solo Facebook, sino también Google, Twitter, Reddit e incluso aquellos que están lejos de las noticias y la política, como Spotify— están replanteando su relación con el mundo físico al hacerse una pregunta básica: ¿dónde comienza y termina nuestra responsabilidad?
Esto es muy importante y las empresas tecnológicas ya se habían tardado en tomar una postura más firme contra las mentiras y el acoso. Aun así, mientras forcejean con la cuestión de la responsabilidad y dónde establecer sus límites respecto a ciertos tipos de contenido, todos deberíamos prepararnos para que el camino sea bastante accidentado.
Esta es la razón: una estrategia en la que la intervención es casi nula ha sido central para el crecimiento de las plataformas tecnológicas, ya que les permite tener una escala mundial sin asumir los costos sociales de su ascenso. No obstante, como su influencia es tan grande —Facebook por sí solo tiene más de dos mil millones de usuarios— y han penetrado tan profundamente en nuestras vidas, una estrategia de mayor involucramiento para vigilar el contenido podría propagarse en todo el mundo y con ello alterar las políticas públicas, a los medios y a casi todo en la sociedad.
Es decir, podría tener el efecto opuesto a lo que los críticos de estas empresas buscan: con una mejor supervisión de su propio contenido podría, de hecho, aumentar el poder que tienen las plataformas tecnológicas para moldear nuestras vidas.
Resulta bastante bueno que los gigantes tecnológicos por fin se estén percatando de sus efectos en el mundo real, pero hay un enorme margen de error en su enfoque para revisar el contenido. Es muy probable que muchas cosas salgan mal —ya sea por vigilar demasiado o muy poco— y tal vez no puedan explicar de manera satisfactoria por qué tomaron ciertas decisiones, lo cual levantará sospechas en todos los bandos.
Recientemente llamé la atención a Facebook por la complejidad de sus políticas de contenido más nuevas, que enaltecen las virtudes de la libre expresión a la vez que le dan mucho margen a la empresa para eliminar o reducir la distribución de ciertas publicaciones por una gran variedad de motivos.
Las políticas de Facebook no son las únicas difíciles de entender; las reglas de Twitter también provocan el mismo mareo.
Tras hablar con estas y otras empresas, entendí por qué nos cuesta trabajo entender los esfuerzos que hacen para resolver sus problemas. Las plataformas tecnológicas dicen que no quieren ser imprudentes: todas buscan la contribución de muchas partes involucradas sobre cómo desarrollar políticas de contenido. También les preocupa enormemente la libre expresión y todavía se inclinan a darle a la gente la libertad de publicar lo que quiera.
En lugar de prohibir el discurso, suelen tratar de mitigar sus efectos negativos con metodologías técnicas, como contener la divulgación de ciertos mensajes al alterar los algoritmos de recomendación o al imponer límites a su diseminación viral.
“Por algo hay políticas matizadas”, comentó Monika Bickert, directora de políticas de Facebook. “Parte de esto es muy complicado y, cuando estas políticas se diseñan, no hay un grupo de gente sentada en Menlo Park, California, diciendo dónde pensamos que debería estar el límite”.
Bickert comentó que ha organizado reuniones frecuentes con diversos expertos para debatir cómo es que Facebook debería establecer los límites en un sinfín de discursos. En general, la empresa elimina contenido que es ilegal, peligroso, fraudulento o que es falso o basura. No obstante, en el caso de áreas que son más difusas, como la desinformación, adopta un enfoque distinto.
Más información: https://nyti.ms/2OwyWqM

