Espiar a las grandes empresas tecnológicas es mejor que romperlas
Tiempo de lectura: 5 minutos

Bloomberg Opinión — A lo largo de los años, mientras las empresas de redes sociales se llenaban de los datos de miles de millones de personas para alimentar enormes beneficios, el flujo de información nunca fue en sentido contrario. Ahora las cosas están cambiando.

Una de las propuestas legislativas más prometedoras del Congreso para hacer frente a la influencia indebida de los gigantes tecnológicos, de entre una treintena de proyectos de ley, obligaría a estas empresas a compartir los datos sobre el uso de sus plataformas. Claro que eso no suena igual que “acabar con las grandes tecnológicas”, pero podría ser más rápido y eficaz a la hora de impedir que el discurso del odio y la división política se propaguen en las redes sociales. Si se pone el foco en lo que la gente ve exactamente y por qué, se podría guiar a los reguladores hacia soluciones y aprovechar el poder de la presión e indignación pública. Piense en el impacto de la denunciante de Facebook Frances Haugen y multiplíquelo varias veces.

Los gobiernos están realizando una serie de esfuerzos para frenar a los gigantes tecnológicos; los reguladores antimonopolio de los Estados Unidos recibieron luz verde esta semana para emprender una demanda contra la empresa matriz de Facebook, Meta Platforms Inc. (FB), que podría llevar a su disolución. Sin embargo, esto podría llevar años y no aborda directamente los daños psicológicos causados por los sitios web.

En virtud de la legislación propuesta, los investigadores y periodistas obtendrían datos anónimos de los usuarios para estudiar en detalle cómo se difunden en las redes sociales los discursos de odio, las teorías conspirativas y otros. Seguirían procedimientos estrictos para procesar los datos en las instalaciones de las empresas tecnológicas, pudiendo quedar registradas todas las pulsaciones. Las empresas que no compartan estos datos serán penalizadas.

PUBLICIDAD

El impacto de los Facebook Papers muestra por qué el examen de estos datos podría ser tan poderoso. Haugen compartió miles de documentos internos con publicaciones como el Wall Street Journal y Bloomberg para mostrar hasta qué punto Facebook conocía, por ejemplo, el efecto de Instagram en la salud mental de los adolescentes. Las revelaciones fueron una bomba. Los académicos llevaban años estudiando los efectos de las redes sociales en los adolescentes, pero nadie tenía información directamente de los propios investigadores de Facebook, y Haugen fue la primera persona en proporcionarla.

Pero el mundo no puede confiar en los denunciantes, y Facebook parece haber tomado medidas drásticas contra la investigación interna sobre los efectos secundarios. Así que el siguiente paso es dejar entrar a los de fuera. La Ley de Responsabilidad y Transparencia de las Plataformas, conocida coloquialmente como PATA (por sus siglas en inglés) y patrocinada por los senadores Amy Klobuchar, Chris Coons y Rob Portman, crea una vía para que los académicos estudien la actividad de los usuarios en Facebook e Instagram, de Meta; YouTube, de Alphabet (GOOGL); Twitter Inc. (TWTR) y TikTok, de ByteDance Ltd., y otras, con más detalle que antes.

Según Brandon Silverman, que está ayudando a los senadores en los detalles del proyecto de ley, la iniciativa también proporciona acceso a una gama aún más amplia de partes interesadas, incluyendo las organizaciones sin fines de lucro. Silverman es el fundador de una herramienta de análisis social llamada CrowdTangle que Facebook compró en 2016. Dejó la empresa el año pasado.

PUBLICIDAD

Los datos abarcarían a millones de personas, desglosadas por factores como la edad, la ubicación aproximada, el género y la raza, y se emparejarían con el contenido que estos grupos están viendo. Los resultados deberían ayudar a los investigadores a evaluar cómo y por qué algo como el discurso del odio atrae a los usuarios.

Estos datos concretos podrían dar un vuelco a la sabiduría aceptada. Los críticos de Facebook, por ejemplo, suelen decir que los usuarios más problemáticos del sitio caen en las madrigueras de la conspiración porque los algoritmos les recomiendan esos contenidos. Pero, ¿y si los algoritmos de Facebook no siempre funcionan así? ¿Y si la gente visita YouTube expresamente para encontrar vídeos sobre la teoría de la Tierra plana?

“Lo que ocurre es que la gente llega a YouTube por haber visto algo en Twitter o Facebook, y en realidad lo están buscando”, dijo Nate Persily, el profesor de derecho James B. McClatchy de la Facultad de Derecho de Stanford, que diseñó el marco en el que se basa PATA. “La gente que quiere investigar sobre QAnon, va a YouTube porque ahí es donde están los vídeos”.

Los reguladores y los grupos de defensa no pueden presionar a Facebook para que cambie nada si no saben exactamente por qué tanta gente ha visto QAnon o las publicaciones antivacunas en esos sitios, dijo Persily. Por eso es tan importante la recopilación de pruebas. “Ahora mismo solo tenemos visiones”, añadió.

PUBLICIDAD

A pesar de todas sus revelaciones, el vertedero de investigación de Haugen apenas araña la superficie de la actividad más preocupante en las redes sociales. No pudo mostrar exactamente cómo una minoría de personas hizo que los mensajes sobre unas elecciones robadas se volvieran peligrosamente virales antes de la insurrección del 6 de enero del año pasado. Para encontrar la actividad precisa en torno a esos valores atípicos, los investigadores necesitan enormes cantidades de datos actuales e históricos, incluida la información sobre cómo la gente salta entre las diferentes plataformas de medios sociales.

Esto supondría un vistazo sin precedentes a un mundo que las empresas de redes sociales nunca han querido que la gente vea. La PATA, y una propuesta similar en Europa que tiene más posibilidades de ser aprobada dado el bloqueo del Congreso, podría divulgar datos aún más intrincados que los que los investigadores obtuvieron de Facebook antes de 2018. Fue entonces cuando la compañía impidió a los investigadores estudiar la actividad de los usuarios en el sitio tras el escándalo de privacidad de Cambridge Analytica. Incluso con los limitados conocimientos que los investigadores pudieron obtener entonces, antes de ese cierre se publicaron más de 130 estudios sobre los efectos secundarios y las actividades de Facebook. YouTube o TikTok nunca han proporcionado información similar sobre el comportamiento de los usuarios.

Las plataformas en línea y Meta, en particular, argumentarán que han hecho todo lo posible por ser transparentes, publicando incluso informes periódicos de transparencia. Pero los grupos de la sociedad civil y los investigadores llevan mucho tiempo poniendo los ojos en blanco ante su falta de detalles útiles. No es de extrañar. Pocas grandes empresas estarían dispuestas a revelar su impacto en el bienestar humano. Pero verse obligado a examinar el problema es el primer paso para resolverlo.

PUBLICIDAD
  1. Facebook tiene acceso a miles de categorías de datos demográficos que le ayudan a orientar los anuncios, como las categorías laborales, las aficiones y los intereses generales, pero los investigadores probablemente no necesiten ser tan detallistas, según Silverman. Es más probable que las normas traten de ajustarse a los precedentes establecidos a nivel federal, como el puñado de categorías demográficas que utiliza la Oficina del Censo de Estados Unidos.
  2. A modo de ejemplo, sólo 12 personas fueron responsables del 65% de las acciones de desinformación antivacunas en las plataformas de medios sociales, según un estudio reciente del Center for Countering Digital Hate.

Esta nota no refleja necesariamente la opinión del consejo editorial o de Bloomberg LP y sus propietarios.

Este artículo fue traducido por Andrea González