SpanishPortugueseEnglishFrenchChinese (Simplified)RussianPersianArabic
08/10/21
Regiones: Mundo
Facebook, el gran hermano que nos vigila y nos domina
Por Pascual Serrano

El imperio Facebook, que incluye además de esta red social otras como Instagram y WhatsApp, está viviendo sus peores momentos tras su caída el 4 de octubre. Escándalos sobre trastornos en adolescentes, usuarios vips a los que no les aplican las normas y su uso por cárteles de la droga y traficantes de personas muestran un panorama inquietante.

Una investigación de The Wall Street Journal que ha titulado Los archivos de Facebook, ha explosionado en las manos del multimillonario y máximo accionista de Facebook, WhatsApp e Instagram, Mark Zuckerberg. Según el periódico, «Facebook Inc. sabe, con todo lujo de detalles, que sus plataformas están plagadas de fallos que causan daños de diversa índole, a menudo de una importancia que solo la empresa comprende por completo. Ese es el hallazgo central de una serie de The Wall Street Journal, basada en una revisión de documentos internos de Facebook, incluidos informes de investigación, discusiones de empleados y borradores de presentaciones a la alta gerencia».

«Una y otra vez —continúa The Wall Street Journal— según se muestra en los documentos, los investigadores de Facebook han identificado los efectos nocivos de la plataforma. Una y otra vez, a pesar de las audiencias del Congreso, sus propias promesas y numerosas exposiciones en los medios, la empresa no las arregló. Los documentos ofrecen quizás la imagen más clara hasta ahora de cuán ampliamente se conocen los problemas de Facebook dentro de la empresa, hasta el propio director ejecutivo».

Múltiples escándalos

Los documentos a los que tuvo acceso el periódico suponen una serie de escándalos:

La compañía ha construido un sistema privado que ha eximido a los usuarios de alto perfil de algunas o todas sus reglas. El programa, conocido como «verificación cruzada» o «XCheck», fue diseñado como una medida de control de calidad para cuentas de alto perfil. Hoy protege a millones de vip de la aplicación normal de la compañía. Muchos abusan del privilegio, publicando material que incluye acoso e incitación a la violencia que normalmente daría lugar a sanciones.

En 2018 Facebook modificó su algoritmo al detectar una disminución de la participación de los usuarios, una caída de las interacciones. Los empleados denunciaron que esa modificación premiaba los mensajes más incendiarios y polémicos, pero Zuckerberg se negó a corregirlo. Si cambiaban el algoritmo para que fuera más seguro la gente estaría menos tiempo en la plataforma, clicaría menos anuncios y ganarían menos dinero.

Los empleados de Facebook alertaron de que se estaba utilizando la red por parte de cárteles de la droga y traficantes de personas. Desde Medio Oriente se usaba para atraer a las mujeres a situaciones laborales abusivas. Grupos armados en Etiopía recurrían a Facebook para incitar a la violencia contra las minorías étnicas. También advirtieron a sus superiores sobre el uso de la red para la venta de órganos, la pornografía y acciones de gobiernos contra disidencias políticas. La empresa no actúo debidamente.

A pesar de que Facebook apoyó la promoción de las vacunas contra el COVID-19, permitió que los activistas antivacunas inundaran la red. Utilizaron las herramientas de Facebook para sembrar dudas sobre la gravedad de la amenaza de la pandemia y la seguridad del arma principal de las autoridades para combatirla. Incluso cuando los responsables de la red se fijaron el objetivo de frenar el activismo antivacunas se comprobó que no fueron capaces de controlar el resultado. El porcentaje de usuarios de Facebook que difunde dudas sobre las vacunas terminó siendo mucho mayor que en la vida real.

El esfuerzo de Facebook para atraer a los menores es dudosamente ético. Los equipos de empleados llevan años trazando planes para atraer a los preadolescentes de una forma más agresiva de lo que anunciaron públicamente.

El escándalo también afecta a otras redes del imperio Zuckerberg, como Instagram, propiedad de Facebook al igual que WhatsApp. Los investigadores de Instagram han estado estudiando durante años cómo su aplicación para compartir fotos afecta a millones de usuarios jóvenes. En repetidas ocasiones, la compañía descubrió que Instagram es dañino para un porcentaje considerable de ellos, sobre todo las adolescentes. Hace años que se habla del potencial tóxico de Instagram y otras redes sobre la autoestima adolescente y femenina. Este escándalo es distinto porque se basa en investigaciones internas de marzo de 2020 en las que se señala que «un 32% de las chicas dicen que cuando se sienten mal con su cuerpo, Instagram les hace sentir peor». En público, Facebook ha minimizado constantemente los efectos negativos de la aplicación, incluso en comentarios al Congreso, y no ha hecho pública su investigación ni ha estado disponible para académicos o legisladores que la hayan solicitado.

La protagonista de la filtración

La «garganta profunda» de la información que ha servido de base para los informes de The Wall Street Journal es la exgerente Frances Haugen, quien dijo que «se había sentido frustrada por lo que veía como la falta de sensibilidad de la compañía sobre el potencial de daño de sus plataformas y la falta de voluntad para abordar sus fallas».

En sus declaraciones en el programa de televisión 60 minutes explicó todos esos detalles e información que había recogido tras su trabajo en Facebook.

Fue tanta la importancia de sus revelaciones que Haugen ha sido recibida en el Senado estadounidense para explicar todas sus denuncias. La subcomisión de protección del consumidor de esa Cámara solicitó su comparecencia después de que esta ingeniera informática de 37 años enviara, además de a The Wall Street Journal, a los senadores la numerosa documentación interna de la compañía que muestra sus acusaciones.

«Los documentos que he proporcionado al Senado prueban que Facebook ha engañado al público reiteradamente sobre lo que su propia investigación revela acerca de la seguridad de los niños, la eficacia de su inteligencia artificial y su papel para expandir mensajes divisorios y extremistas», manifestó Haugen ante los senadores.

Adictos a Instagram

Asimismo, afirmó que es probable que mucho más de un cinco o seis por ciento de los jóvenes de 14 años son adictos a Instagram, perjudicando su rendimiento escolar o su salud física.

Según un informe de Centro Criptológico Nacional (CCN-CERT), una institución adscrita al Centro Nacional de Inteligencia (CNI) de España, el 42% de la población mundial, 3.196 millones de personas, utiliza las redes sociales.

El CCN-CERT explica que el perfil de usuario, un «sitio permanente encabezado por fotografías, datos personales e información sobre estudios, profesión, gustos, intereses, amigos y familia», aporta «mucha más información de la persona que su DNI o pasaporte».

Pero si preocupante es la información que proporcionamos a las redes, quizá todavía sea más la información que nosotros recogemos de ellas. Miles de millones de personas configuran su percepción de la realidad a partir de lo que ven en Facebook, incluso quienes no usan esta red terminan influenciados por los contenidos dominantes en ella.

Las conclusiones que se derivan de la información que ha revelado Haugen y los documentos que destapa The Wall Street Journal señalan que el diseño cerrado de Facebook no permite ningún tipo de supervisión, ni de los ciudadanos, ni de los poderes públicos, ni siquiera de la dirección de Facebook, a la que solo le interesa que haya actividad en su red.

Los algoritmos premian la crispación y el odio

Y para que haya mucha actividad, muchas interacciones, disponen de algoritmos que detectan los temas, tonos, posiciones y discursos que logran estimular esas interacciones. Los técnicos de Facebook son conscientes de que; tras sus investigaciones, precisamente es el contenido dañino el que genera polarización, división y crispación, y es el que resulta más premiado por los algoritmos. Es de sobra sabido que uno de los elementos que dispara las audiencias en los medios y, por supuesto, en las redes, es la ira.

De ahí el éxito histórico de esos programas de debates exaltados con participantes extremistas que logran acaparar la atención del público más que el discurso sensato y razonable. Los responsables de Facebook ni pueden ni quieren eliminar esos discursos, tan rentables para el éxito de la red y ganar dinero.

Confiar en el algoritmo para combatir los discursos de odio no es suficiente. Un colectivo LGTBI ha sufrido el bloqueo de su perfil en Instagram en cuatro ocasiones en tres meses porque Instagram interpretaba como discurso de odio que se llamaran Movimiento Marika de Madrid (MMM).

Poder absoluto de Zuckerberg

En el caso de Facebook, la responsabilidad de su fundador es clave. Como recordó Haugen, Mark Zuckerberg tiene más del 55% de todas las acciones con derecho a voto en la junta directiva de Facebook: «No hay otras grandes empresas en las que el poder se reparta de forma similar, tan unilateralmente controladas. Y al final, la responsabilidad recae de todo en Mark. Actualmente no hay nadie que haga responsable a Mark de sus propias acciones».

Los responsables de las redes sociales saben que las tendencias sociales llevan un ritmo trepidante de cambios, que lo que hoy despierta pasión en una generación, a los pocos años o a la siguiente generación deja de interesarle. Es decir, hay que ir sembrando dependencia en los jóvenes o directamente en los niños para asegurárselos como audiencias en el futuro.

Instagram para niños

Es por eso que Facebook anunció en una entrevista en marzo que estaba trabajando en desarrollar una versión de Instagram donde compartieran fotos los niños menores de 13 años, Instagram Kids. Tras el escándalo de Los papeles de Facebook publicados por The Wall Street Journal, donde señalaba el daño que esta red estaba haciendo en los jóvenes, el 27 de septiembre anunciaron la suspensión del proyecto.

«Estamos pausando Instagram Kids. Esta fue una decisión difícil. Sigo pensando que desarrollar esta experiencia es lo correcto, pero queremos tomarnos más tiempo para hablar con los padres y los expertos para averiguar cómo hacerlo bien», afirmó el jefe de Instagram, Adam Mosseri, al día siguiente del escándalo.

Todo parece indicar que cuando amaine esta tormenta retomarán el proyecto porque necesitan ir «sembrando» hábitos en los niños para asegurarse el futuro de sus redes.

Varios precedentes

Los escándalos de Facebook ya vienen de lejos. En 2019, BBC publicaba un documental sobre cómo traficantes de personas usaban Facebook para vender víctimas, bajo la apariencia de agencias de empleo. A raíz de aquella investigación, Apple amenazó a Facebook con dar de baja su aplicación de la App Store, según describe The Wall Street Journal. El documento interno de ahora revela que Facebook ya era consciente de este problema antes de la publicación de la BBC y la amenaza de Apple.

Y antes, en la campaña electoral estadounidense de 2016 Facebook proporcionó a la consultora Cambridge Analytica datos personales de más de 50 millones de usuarios de Facebook que fueron usados para apoyar la candidatura presidencial de Trump y el sí en el referéndum del Brexit. Cambridge Analytica construyó un programa informático destinado a predecir las decisiones de los votantes e influir en ellos.

Entre los inversores en Cambridge Analytica estaban el estratega jefe de Trump y exjefe de su campaña electoral en 2016, Steve Bannon, y un destacado donante republicano, Robert Mercer. La campaña electoral de Trump contrató a Cambridge Analytica en junio de 2016 y pagó más de 6 millones de dólares. Ni que decir tiene que los usuarios de Facebook nunca autorizaron la utilización de esos datos.

La empresa lee nuestros whatsapps

Pero parece que no hay sector del imperio Zuckerberg que se libre del escándalo. El pasado mes supimos que empleados encargados por la empresa leen nuestros mensajes de WhatsApp. Según desveló ProPublica, Facebook tiene encargados a «alrededor de 1.000 moderadores» el trabajo de revisar todos los mensajes que han sido marcados como «incorrectos» dentro de WhatsApp. Previamente un algoritmo ha decidido que eso que hemos escrito puede ser un mensaje problemático y lo selecciona para que otro ser humano lo evalúe.

Para mayor descontrol este procedimiento, no lo realiza la propia Facebook, sino una empresa subcontratada (Accenture).

De modo que, en nombre o con la excusa de la seguridad, nuestros mensajes pueden ser vistos, leídos y escuchados por otras personas por encargo de la empresa.

La conclusión es evidente. El problema de ofrecer nuestros datos personales a empresas como Facebook es grave pero quizá todavía lo es más la capacidad de esa empresa de, a partir de ellos y de los contenidos que proporciona, dejar que la información falsa domine nuestra percepción del mundo, condicionar nuestro pensamiento, crear nuestros prejuicios y fomentar nuestros complejos. ¿Acaso no es eso lo que entendemos por dominar el mundo?

Fuente:
Sputnik News
Etiquetas: Facebook

Agenda

Buscar

Búsqueda temática

Revistas Digitales