Hacia una desmitificación de la red social
El uso masivo de datos de los usuarios por parte de Facebook no constituye un error, sino que hace al modelo de negocios de la compañía. Las herramientas de marketing desarrolladas por la red de Zuckerberg han habilitado a diversas empresas a construir perfiles sociodemocráficos. Estos comportamientos están reñidos con la democracia.
El escándalo desatado en torno a Cambridge Analytica (CA) por el accionar de esta firma en las elecciones de Estados Unidos ha golpeado de manera furibunda a Facebook, que quizás sea la compañía más emblemática de la última década. Los impactos de esta crisis se producen en todas las esferas: son políticos, económicos, sociales y hasta éticos. Con más de 2 mil millones de cuentas activas, si las redes sociales fueran escenarios geopolíticos (en algún punto, lo son), Facebook sería el «país» más grande del mundo. A su vez, Facebook es el tercer sitio más visitado en todo el globo según el ranking de Alexa, y como muchos saben, además es dueña de WhatsApp (1.300 millones de usuarios) y de Instagram (700 millones).
Facebook existe para que Cambridge Analytica haga lo que hizo (y muchos otros también)
Cambridge Analytica es una empresa que hizo su reputación alardeando por (supuestamente) entrecruzar el análisis de las personalidades de la audiencia de las redes sociales con los datos sociodemográficos, para direccionar su accionar. CA se jactó de crear perfiles sobre 230 millones de ciudadanos estadounidenses, es decir, de dos tercios de la población. Trump contrató a Cambridge Analytica en junio de 2016 y le pagó más de 6.2 millones de dólares según la Comisión Federal Electoral.
Un cofundador de la empresa, el analista de datos canadiense Christophe Wylie (un «arrepentido») reveló ante la prensa que ellos habían comprado una base de datos de 50 millones de usuarios a la agencia de un profesor de la Universidad de Cambridge (sin relación orgánica con CA), el moldavo Aleksandr Kogan, llamada Global Science Research (GSR). Kogan había obtenido esos datos en 2014 mediante una aplicación en la red social llamada ThisIsYourDigitalLife, que ofrecía a los usuarios un test de personalidad. 270.000 personas lo rellenaron a cambio de algo de dinero (entre 2 y 5 dólares), y al hacerlo dieron permisos a la app para tomar sus datos y también los de sus amigos, sin consulta de estos últimos.
Al estallar mediáticamente el escándalo, Cambridge Analytica (al igual que su socia Strategic Communication Laboratories, SCL) fue suspendida por Facebook, según se anunció el último 16 de marzo. Sin embargo, la compañía admite que no hubo errores ni excesos en esta trama, sino una utilización lógica de sus servicios. Facebook utiliza a los usuarios como materia prima que luego vende de manera procesada a los anunciantes en la plataforma (en eso consiste su modelo de negocios). Una actualización del mencionado anuncio realizada por Facebook al día siguiente aclara que «Kogan solicitó y obtuvo acceso a la información de los usuarios que eligieron registrarse en su aplicación, y todos los involucrados dieron su consentimiento. Las personas a sabiendas proporcionaron su información, no se infiltraron sistemas y no se robaron ni piratearon contraseñas ni piezas de información delicada». Esto contradice a muchos medios de comunicación que erróneamente aseguran que lo que se produjo fue «una filtración». CA lo que hizo, fundamentalmente, fue aplicar al marketing político lo que ya hacían y hacen las empresas para vender sus productos, con el consentimiento de Facebook.
Mientras tanto, a pesar de sus intentos de desmarcarse, la reputación de Facebook no para de mancharse: recientemente The Guardian informó que Joseph Chancellor, quien actualmente trabaja para Facebook como psicólogo interno para «mejorar» la UX (experiencia de usuario), es un ex co-director de GSR (o sea socio de Kogan). Según The Guardian, «Facebook prometió inicialmente responder a una serie de preguntas (...) pero luego dijo que no tenía nada que decir al respecto. Chancellor no respondió nada a las reiteradas solicitudes de comentarios». Kogan y Chancellor estaban en la Universidad de Cambridge cuando fundaron GSR, según sus perfiles de LinkedIn.
Las personas: «objetos» de otras personas (los desarrolladores de las apps)
Facebook enfatizó ese 16 de marzo que los que cedieron información a la app de Kogan lo hicieron voluntariamente. Pero el 21 de marzo Mark Zuckerberg tuvo que aclarar que esto era una verdad a medias, porque la app en cuestión (como muchas otras) también accedió a información de sus amigos. Aunque pocos lo saben, esta problemática capacidad de obtener información inusualmente rica sobre los amigos de los usuarios de las app se debió al diseño y la funcionalidad de Graph API de Facebook (que se ubica en la sección de «Facebook for developers», o «Facebook para desarrolladores»), en especial de su versión 1.0. En esta versión, las apps también podían solicitar los mensajes privados de los usuarios.
Fue el 21 de abril de 2010. cuando Zuckerberg presentó aquella modalidad de la Graph API para que no solo se puedan ver las conexiones sociales entre las personas, sino que también puedan entender las conexiones que las personas tienen con sus intereses. Se proporcionó una suerte de búsqueda avanzada para profundizar en las actividades y estados emocionales de los usuarios de Facebook, mucho más allá de lo que simplemente postearon o compartieron en la red social y en las apps. Esta Graph API de Facebook fue una revolución en el suministro de datos a gran escala: convirtió a las personas literalmente en «objetos». Una característica clave del «extractivismo de datos»: por esta vía, las ofertas comerciales fueron más económicamente viables. Una manera de sencilla de entender de qué se trata esto es, por ejemplo, con la aplicación StalkScan, que permite comprobar toda la información pública y compartida por uno mismo y por el resto de usuarios en Facebook.
Los 5 años de gracia y la aparición de Audience Network
La versión 1.0 de la API Graph se desactivó en abril de 2014 y se cerró por completo a las aplicaciones que usaron la API recién el 30 de abril de 2015. Fueron cinco años completos: mucho tiempo para que quienes las desarrollaron pudieran extraer grandes cantidades de datos personales de los usuarios (y de nuevo, de sus amigos). Facebook alega que después de cambiar esta normativa pidió a los desarrolladores que dieran muestras de haber borrado esas bases de datos. Esto no fue así en el caso de CSR y Kogan y es evidente que tampoco fue así en los muchos otros casos. Por otra parte, al ver historial de modificaciones de la API Graph, queda claro que Facebook vio los problemas hace bastante. Como veremos, a pesar de ello, no quiso alejarse de una enorme fuente de ingresos.
En efecto, aunque el 30 de abril de 2014, la compañía anunció que v1.0 se cerraría a favor de una API v2.0 mucho más restrictiva, el mismo día, Facebook lanzó su mayor iniciativa de seguimiento y orientación de anuncios hasta la fecha: la red de audiencia de Facebook (Audience Network). Esto buscó exportar el perfil de los datos de la empresa y la gran cantidad de «ataques» publicitarios a los usuarios desde sus propias apps y servicios hacia el resto de Internet. En 2016, Facebook amplió los poderes de esta función: con Audience Network se podría «perseguir» a usuarios que no estuvieran en Facebook, pero sí, por ejemplo, en Instagram. El interés de Facebook en mejorar continuamente sus feudos virtuales, acaparando cada vez mayores terrenos de acción publicitaria, están dados por su intento de superar a Google en ese campo de acción. Para ello compraron WhatsApp. Audience Network se nutre desde entonces con estos datos. Una de las mayores ventajas de Facebook sobre su competidor es que puede realizar un mejor seguimiento multidispositivo, dado que sus servicios requieren, en su mayoría, que los usuarios estén logueados. Facebook sabe que es la misma persona la que estuvo en una computadora de escritorio y que luego entra a su plataforma desde un teléfono celular. No necesita cookies.
La adicción a los mobile, a Facebook y la perspectiva de un «juramento hipocrático» de nuevo tipo
Uno de los aspectos más significativos de la efectividad de Facebook para recolectar los datos y desenvolver «el extractivismo de datos» excede al software. Tiene que ver con el rol de la psicología en la UX (User Experience o experiencia de usuario) de la aplicación. Este fenómeno a su vez excede a Facebook y atraviesa en realidad toda nuestra relación la tecnología actual. Tristan Harris, ex diseñador de ética de Google, se esmera en concientizar sobre esto a la ciudadanía con datos tan contundentes como aterradores. Harris plantea que los teléfonos celulares han sido ideados para ser adictivos: los define como «máquinas tragamonedas de bolsillo».
Bajo los auspicios de Time Well Spent (una organización sin fines de lucro que combate lo que llaman la «crisis de atención digital»), Harris lidera un movimiento para cambiar los fundamentos del diseño de software y busca replicar algo similar al «juramento hipocrático». Para Time Well Spent, «nuestra sociedad está siendo secuestrada por la tecnología. Lo que comenzó como una carrera para monetizar nuestra atención ahora está erosionando los pilares de nuestra sociedad: la salud mental, la democracia, las relaciones sociales y nuestros hijos». Actualmente, se estima que las personas chequean sus celulares entre 100 y 150 veces por día.
En un trabajo llamado «Examination of Neural Systems Sub-Serving Facebook ‘Addiction’» (que tiene como autores a Ofir Turel, Qinghua He, Gui Xue, Lin Xiao y Antoine Bechara). Según los investigadores, la adicción a Facebook comparte características con la adicción al juego (ludopatía) o a las sustancias (particularmente mencionan a la cocaína). Cuando uno persona es adicta, las rutas neurales que van de los centros de recompensa del cerebro al lóbulo frontal «se agrandan», desarrollando conductas impulsivas. Las adicciones modifican la neuroanatomía del cerebro: según ellos, esto también ocurre con Facebook, aunque con sus rasgos distintivos y se tienden a perder los controles inhibitorios. El de Ofir Turel et al es uno entre otros muchos estudios que apuntan en la misma dirección.
El caso de Justin Rosenstein, de 34 años, el ingeniero de Facebook que creó el botón de «Like» («Me gusta», luego copiado por Twitter y replicado en Instagram), es toda una paradoja. Rosenstein es actualmente miembro del consejo asesor de Time Well Spent. Él modificó el sistema operativo de su notebook para bloquear Reddit (es el séptimo sitio más visitado del mundo, allí los usuarios envían publicaciones para los demás voten -a favor o en contra- según sus preferencias; si una publicación recibe muchos votos, más gente puede verla), se fue de Snapchat (él la compara con la heroína -recordemos que, para derrotarla, Instagram ha tomado de allí varias de sus funciones), y después de reducir su participación en la plataforma drásticamente, finalmente borró su cuenta en Facebook. Describe a los «me gusta», su propia creación, como «golpes brillantes de pseudo-placer». Sean Parker, ex directivo de Napster, Spotify y Facebook, quien se transformó en una suerte de «objetor de conciencia» de las redes sociales, confirma que esto no fue un resultado aleatorio: «El proceso de reflexión en torno a la creación de estas aplicaciones, con Facebook en primer lugar, se trataba sobre «¿cómo podemos hacer para consumir la mayor cantidad de tiempo y atención consciente que sea posible?'». Por eso no puede sorprender que el área de UX de la empresa emplee profesionales como el mencionado Joseph Chancellor -el cofundador de CSR junto a Kogan.
La dimensión de los problemas de esta época parece abrumadora, por sus múltiples aristas. Probablemente no alcanzará con las escasas regulaciones estatales a los monopolios de datos ni con que los creadores de software se comprometan a desarrollar productos más sanos, o sea, menos agresivos en su competencia por nuestra debilitada capacidad de atención. El auge de los smartphones y de las redes sociales que lo han acompañado requerirán un abordaje audaz que sea capaz de realizar una crítica de conjunto.
Lucas Malaspina
Nueva Sociedad
No hay comentarios.:
Publicar un comentario