Relacionado
Temas
El martes, el director ejecutivo de Facebook, Mark Zuckerberg, se presentó ante los legisladores en una audiencia maratónica de 5 horas, para explicar cómo la empresa Cambridge Analytica, que elabora perfiles de votantes, recogió los datos de más de 87 millones de usuarios de Facebook, sin permiso de estos. El objetivo fue influir a los votantes para que apoyaran al presidente Donald Trump.
Para saber más de este tema, hablamos con Zeynep Tufekci. Tufekci es profesora asociada de información y bibliotecología en la Universidad de Carolina del Norte en Chapel Hill y profesora asociada de Harvard Berkman Klein Center for Internet & Society (Centro Berkman Klein de Harvard para el estudio de Internet y sociedad). Su libro se titula “Twitter and Tear Gas: The Power and Fragility of Networked Protest” (Twitter y el gas lacrimógeno: el poder y la fragilidad de la protesta en la red).
Transcripción
AMY GOODMAN: El CEO de Facebook, Mark Zuckerberg, compareció el martes ante el senado estadounidense en una maratónica audiencia de cinco horas sobre las denuncias por las fallas de privacidad de la red social. Zuckerberg fue interrogado acerca de cómo la empresa Cambridge Analytica, que elabora perfiles de votantes, recogió los datos de más de 87 millones de usuarios de Facebook, sin permiso de estos, con la intención de influir en los votantes para que apoyaran al Presidente Donald Trump. Fueron dos días de audiencias. Durante el primer día, Zuckerberg se disculpó repetidamente.
MARK ZUCKERBERG: No supimos dimensionar del todo nuestra responsabilidad y eso fue un gran error. Y fue mi error. Y lo siento. Yo fundé Facebook, soy su director y soy el responsable de lo que sucede aquí.
AMY GOODMAN: En una primera instancia, la información sobre usuarios de Facebook había sido recopilada por un investigador de la Universidad de Cambridge llamado Aleksandr Kogan, cuya empresa, Global Science Research, creó una aplicación a través de la cual pagó a ciertos usuarios de Facebook para que hicieran una prueba de personalidad, aceptando que se recopilaran sus datos. Pero la aplicación también recopiló datos sobre los amigos de estos usuarios, o sea que en realidad recopiló información personal de decenas de millones de usuarios sin su conocimiento. Cambridge Analytica luego compró esta información transformando una empresa que elaboraba perfiles de votantes en una poderosa herramienta psicológica, lanzando anuncios políticos específicos, dirigidos según el perfil de cada usuario, con el fin de implementar la agenda política de extrema derecha de Robert Mercer. La senadora demócrata Kamala Harris de California preguntó a Zuckerberg por qué Facebook demoró 27 meses —más de dos años— en alertar a sus usuarios sobre la intervención de Cambridge Analytica.
KAMALA HARRIS: ¿Sabe de alguien que ocupe un cargo directivo en Facebook que haya participado en una conversación donde se tomaba la decisión de no informar a sus usuarios, o cree que no hubo tal conversación?
MARK ZUCKERBERG: No estoy seguro si hubo una conversación al respecto, pero puedo hablarle sobre los lineamientos de la compañía en ese momento, eso fue en el 2015, cuando supimos esta situación, bloqueamos al desarrollador y exigimos que eliminaran todos los datos y dejaran de usar la aplicación; lo mismo hicimos con Cambridge Analytica. Nos dijeron que lo habían hecho.
KAMALA HARRIS: Escuché su testimonio, pero mi pregunta es sobre la notificación a los usuarios. Y esto se relaciona con el tema de la transparencia y la relación de confianza con los usuarios, darles la información que ustedes tienen en cuanto a la mala utilización que se ha hecho de su información personal. Y también me preocupa que…cuando usted personalmente tuvo conocimiento de esto, ¿realizó usted o alguien en la dirección de la empresa, averiguaciones para descubrir quién en Facebook tenía esta información y si se había discutido si informar o no a los usuarios al respecto, en diciembre de 2015?
MARK ZUCKERBERG: Senadora, en retrospectiva, creo que claramente vemos como un error el no haber informado a la gente. Lo hicimos basándonos en información falsa, que nos llevó a pensar que el caso estaba cerrado y que los datos habían sido eliminados.
KAMALA HARRIS: Entonces, hubo una decisión, sobre esa base, de no informar a los usuarios. ¿Es eso correcto?
MARK ZUCKERBERG: Según entiendo, sí.
KAMALA HARRIS: Bien. Y…
MARK ZUCKERBERG: Pero yo, en retrospectiva, creo que fue un error. Y sabiendo lo que sabemos ahora, deberíamos haber manejado muchas cosas de manera diferente.
AMY GOODMAN: Escuchábamos a Mark Zuckerberg respondiendo las preguntas de la senadora de California Kamala Harris. Comenzamos el programa de hoy con Zeynep Tufekci, profesora adjunta de Información y Bibliotecología de la Universidad de Carolina del Norte en Chapel Hill. También es docente adjunta del Centro Berkman de investigación sobre Internet y Sociedad de la universidad Harvard y autora del libro “Twitter and Tear Gas: The Power and Fragility of Networked Protest” (Twitter y el gas lacrimógeno: el poder y la fragilidad de la protesta en la red). Recientemente publicó un artículo en el periódico The New York Times titulado “We Already Know How to Protect Ourselves from Facebook” (Ya sabemos cómo protegernos de Facebook). Más de dos millones de personas vieron su reciente charla TED titulada “Estamos construyendo una distopía solo para que la gente cliquee en los anuncios”. Profesora Zeynep Tufekci, bienvenida a Democracy Now! ¿Qué nos puedes decir sobre lo que pasó ayer, lo que dijo Mark Zuckerberg y lo que no dijo, lo que preguntaron los senadores y lo que no preguntaron, en este primer día de audiencias?
ZEYNEP TUFEKCI: Bueno, algo realmente interesante de ayer fue que los senadores comenzaron con buenas preguntas, probablemente porque sus asistentes supieron preparar buenas preguntas; pero luego se perdieron al hacer estas preguntas. No lograron entender cómo funciona Facebook realmente. Hicieron muchas preguntas que técnicamente sonaban raras, que no tenían sentido. Y lo que es aún más sorprendente es que el propio CEO de Facebook, Mark Zuckerberg, no pudo responder algunas preguntas bastante básicas sobre el fiuncionamiento de la plataforma. Por ejemplo, se le preguntó “¿Puede Facebook rastrear usuarios a través de diferentes dispositivos? ¿Facebook rastrea la navegación o actividades de la gente en Internet aunque no tenga seción iniciada?” La respuestas a ambas preguntas es sí, pero Zuckerberg se incomodó y dijo: “Haré que mi equipo te responda eso”. Para mí, este es un momento interesante porque finalmente estamos aprendiendo a entender y a lidiar con los nuevos bienes comunes de la información, incluso después de todos estos escándalos, todo este alboroto. Recientemente, escribí un artículo para la revista Wired en el que enumero las disculpas de Facebook en estos 14 años. O sea que esta ni siquiera es la primera vez que el CEO de Facebook se disculpa. Se viene disculpando sin parar, incluso desde antes de fundar Facebook. Ya había pedido disculpas por la versión anterior… el prototipo inicial de Facebook, Facemash. Entonces, bueno, 15 años después, finalmente estamos empezando a hacernos cargo del poder que significa una plataforma con dos mil millones de usuarios, donde se pone en juego un flujo bastante significativo de información, socialización, funciones cívicas y operación política. Me pareció bastante interesante que finalmente haya algún cuestionamiento sobre su poder, si acaso tiene competencia… bueno, porque Facebook esencialmente no tiene competencia a esta altura. Eso es, en parte, lo que lo hace tan poderoso. Hubo muchas preguntas que realmente no se hicieron. Facebook rastrea personas que optan… que ni siquiera usan la plataforma. Tienen perfiles ocultos. La información que… Mark Zuckerberg intentaba asegurar constantemente: “La información se mantendrá dentro de nuestros muros”. Pero ya hay un problema con la cantidad de información que recopilan, en primer lugar. Por supuesto, claro que sería mejor que no entregaran esa información de forma imprudente, como probablemente lo hayan hecho más de una vez, no solo con Cambridge Analytica. Pero incluso si controlaran eso, como lo hicieron en 2015, incluso haciendo un buen trabajo con eso, ya el hecho de que recopilen toda esta información de dos mil millones de personas y luego vendan ese público potencial a quien sea que pague; vender la atención de la gente —ese es el producto de Facebook— es un gran problema. Es un gran problema que si quieres hacer política, si quieres socializar, si tienes… si eres inmigrante y tienes familia lejos, ésta es de alguna manera la plataforma en la que 'tienes que estar'; eso es un gran problema. Se llegó a mencionar eso, pero realmente no se indagó en el tema. Y quizás lo que realmente veo que faltó es —que fue lo que escribí en el artículo que nombrabas antes para The New York Times— es plantear: ¿Qué vamos a hacer al respecto? O sea, lo que sabemos es suficiente. Lo que realmente necesitamos no es que Mark Zuckerberg explique los conceptos básicos de Facebook a un grupo de senadores que ni siquiera parecen entender la plataforma. Necesitamos sentarnos y pensar: ¿cómo gestionamos los nuevos bienes comunes de información? ¿cómo gestionamos esta nueva esfera pública que ya está operando en nuestras vidas?
AMY GOODMAN: Quiero que escuchemos las preguntas del senador demócrata Dick Durbin de Illinois al CEO de Facebook, Mark Zuckerberg.
DICK DURBIN: ¿Se sentiría cómodo compartiendo aquí el nombre del hotel en el que se hospedó anoche?
MARK ZUCKERBERG: Mmm, no.
DICK DURBIN: Si ha enviado mensajes esta semana, ¿nos compartiría los nombres de las personas a las que ha enviado mensajes?
MARK ZUCKERBERG: Senador, no, probablemente no elegiría hacer eso públicamente aquí.
DICK DURBIN: Creo que de eso se trata todo esto: su derecho a la privacidad, los límites de su derecho a la privacidad y cuánto se quiebran esos límites hoy en Estados Unidos en nombre de “conectar a personas de todo el mundo”… la cuestión es, básicamente, qué información está recopilando Facebook, a quién se envía esa información y si alguna vez la empresa solicitó previamente el permiso de los usuarios para hacer eso. ¿No sería justo que los usuarios de Facebook pidan esto?
MARK ZUCKERBERG: Sí, Senador. Creo que todos los usuarios deberían tener control sobre cómo se usa su información. Y como ya he respondido en otras preguntas, creo que eso está establecido en algunos documentos. Pero más importante aún, queremos darle a la gente control sobre el propio producto.
AMY GOODMAN: Esa fue la respuesta de Mark Zuckerberg. Zeynep Tufekci, explícanos exactamente de qué se trata esto. Y también, la cuestión más amplia que planteó Kamala Harris cuando dijo: “Durante más de dos años ustedes decidieron no decirle a nadie que…
ZEYNEP TUFEKCI: Exacto.
AMY GOODMAN: …habían entregado la información de 80 millones de usuarios”.
ZEYNEP TUFEKCI: Exacto. Entonces, en primer lugar, lo que pasó fue que, si un amigo o amiga tuya de Facebook descargaba una aplicación, también tu información era transferida al administrador de la aplicación. Y si bien Cambridge Analytica ha tenido más atención mediática debido a las implicaciones políticas de su intervención, han sido tal vez decenas de miles, o incluso más, las aplicaciones que tenían ese tipo de acceso, hasta 2015 más o menos. Entonces, personalmente, no me sorprendería que la información recopilada de esta manera, sin que la gente sepa, y luego transferida a otras compañías, y que se encuentra en algún lugar de, bueno, la Internet oculta o “dark web”, abarcase prácticamente a todas las personas que hayan estado en Facebook. Hasta ese momento, eran alrededor de mil millones de personas. Entonces, esto es lo importante, creo que este tipo de recolección de datos es probablemente algo mucho más grande que la aplicación de Cambridge Analytica, que es solo una aplicación entre muchas. Y en segundo lugar, respecto a los controles de privacidad, Facebook está haciendo dos cosas: La primera es que siguen tratando de decir: “Tú tienes el control. Tú tienes el control. Nosotros mismos guardaremos todos los datos”. Pero incluso si tomas esto al pie de la letra —aunque el escándalo de Cambridge Analytica nos muestra que no lo hicieron— pero incluso si lo hacieran de ahora en adelante, lo que sucede es que resulta bastante difícil para la gente entender exactamente qué tipo de información es la que se recopila, y muchas de sus funciones son confusas. Por ejemplo, no existe un botón que diga “No recopiles información sobre mí”. Es como que tienes que te tienes que dar cuenta sola cómo logras eso, entrando a un millón de menús diferentes. Y bueno, yo tengo formación técnica. Hace mucho tiempo que estoy estudiando esto. Y también a veces me pierdo en las dificultades de sus menús y no logro darme cuenta cómo seguir. ¿Cómo va a poder hacerlo una persona común, sin formación específica? Entonces, eso es lo primero. La segundo es que al prometer mantener los datos completamente seguros a partir de ahora, siguen sin hacerse cargo del hecho de que están recopilando una enorme cantidad de información. Y no es solo la información que compartes voluntariamente. Porque mucha gente dice: “¿Sabes qué? No me importa. Le dije a Facebook dónde está mi universidad, cuáles son mis posiciones políticas y qué páginas me gustan. Y está bien”. Pero eso no es todo lo que recopilan. También compran información a “data brokers” o comerciantes de datos. O sea, como ser tus hábitos de compra. Prometieron fusionar datos “offline” entonces, si vas a una tienda y compras algo, van a tratar de combinar tu compra con tu ID de Facebook. Recopilan información cuando navegas por la web, mediante píxeles de seguimiento. Te rastrean a través de los diferentes dispositivos que usas. En teléfonos de Android, hubo una especie de… una función confusa. Era muy fácil perdérsela, porque aparecía y se iba. Antes de que lo supieras, ya les habías dado permiso para leer y recopilar información sobre todos los mensajes de texto, los mensajes SMS, que enviaras fuera de la aplicación. O sea, los mensajes de texto que envías a personas comunes. Y esta semana, a partir de todo este escándalo, mucha gente se puso a descargar su historial de Facebook, pensando: “¿a ver qué hay allí? y mucha gente encontró que cada mensaje de texto que habían enviado desde su teléfono Android… o sea, mensajes a su mamá, a su novia, novio o lo que sea, todo eso estaba en su historial de Facebook. Por lo tanto, esta especie de máquina de espionaje, que recopila datos que luego son usados para que cualquiera que pague a Facebook pueda llegar hasta ti, es peligrosa en sí misma. O sea, mucha gente piensa erróneamente que Facebook vende información sobre ti. Facebook no vende tus datos. Facebook te vende a ti. ¿Entiendes? Facebook está vendiendo tu atención. Y está vendiendo la atención de la gente pantalla por pantalla, entonces realmente nos cuesta mucho dimensionar a nivel global lo que está pasando. Por ejemplo, bueno, mucha gente crítica hacia los medios recordará que antes de la Guerra de Irak, el periódico New York Times publicó muchas cosas erróneas. Y esto trajo horribles consecuencias y fue un serio problema. Pero al menos podías verlo y decir: “Mira, esto está mal”. Y podías intentar llegar a la esfera pública e intentar corregirlo. O sea, no es una situación ideal, obviamente. Pero al menos ahí sabes que eso está sucediendo y puedes organizarte e intentar hacer algo. En cambio, lo que llega selectivamente a través de Facebook, sea desinformación, discursos de odio, cosas que se viralizan espontáneamente o anuncios dirigidos selectivamente, ni siquiera lo ves. Entonces es una… la combinación de este tipo de poderes es un gran problema con el que tenemos que lidiar.
AMY GOODMAN: Has dado una charla TED muy interesante, acerca de la inteligencia artificial y este tipo de publicidad dirigida. Y la gente sabe que existe ese tipo de publicidad, tal vez. Pero qué tan profundo llega.
ZEYNEP TUFEKCI: Sí.
AMY GOODMAN: Y hablas también de la posibilidad de identificar personas bipolares.
ZEYNEP TUFEKCI: Sí.
AMY GOODMAN: Explícanos cómo es eso. Es muy asombroso.
ZEYNEP TUFEKCI: Bueno, sí, es asombroso. Y esto es algo… Insisto, no es fácil de entender, porque la gente sigue pensando con la lógica de antes. Por ejemplo, me suscribo a la revista Outside. Es sobre viajes y aventura. Entonces, si alguien quiere anunciar eso para mí, me tiene en su lista de suscriptores. Así funcionaba antes, ¿verdad? Hay un vínculo bastante claro y directo. Lo que pasa ahora con la inteligencia artificial es que las computadoras, a través de la inferencia computacional, pueden recolectar datos aparentemente no relacionados, cosas como los “me gusta” de Facebook, ¿verdad? aunque no sean sobre el tema específico, simplemente tus “me gusta” en Facebook, tus publicaciones frecuentes, cierta línea semántica en tus palabras, y a partir de eso, pueden predecir cosas como si tienes probabilidad de caer en una depresión clínica, o si tienes probabilidad de entrar, digamos, en una fase maníaca, o de tener problemas de salud mental vinculados con la bipolaridad, incluso antes del inicio de los síntomas clínicos. Así que la computadora puede, con suficientes datos sobre ti… y no son demasiados los datos que necesita; ciertamente, con el tipo de información que Facebook tiene, puede predecir la probabilidad de que alguien entre en un estado depresivo o un estado maníaco en los próximos meses, antes incluso que un estudio clínico, porque lo anticipa antes de que haya síntomas clínicos. Entonces, puedes imaginar el tipo de manipulación a la que esto puede llevar. O sea, alguien quiere llegar a la gente que… supón que quieres vender pasajes con descuento a Las Vegas, o quieres promocionar un casino. Bueno, ahí tienes, la gente que está a punto de entrar en una fase maníaca sería un público fácil y vulnerable hacia quien dirigir tu publicidad, porque las personas en ese estado se vuelven consumidoras compulsivas y apostadoras, o al menos tienen la tendencia a hacerlo. Si deseas… a partir de los perfiles de personalidad de la gente algo que sabemos que Facebook puede obtener, bueno, la investigación muestra que ciertos rasgos de personalidad permiten identificar a la gente que, cuando tiene miedo, puede estar más dispuesta a votar a figuras autoritarias. De modo que se puede dirigir cierta propaganda a esa gente. Y a veces pueden hacer todo esto… Por el modo en que funcionan actualmente los modelos computacionales, podrías hacer esto sin siquiera saber que lo estás haciendo. Tú vas y le dices a la computadora: “Encuentra gente que tenga… bueno, con más probabilidades de comprar boletos para Las Vegas, o más probabilidades de votar por tal persona en situación de temor”. Tú sólo le dices a la computadora sobre qué optimizar y su sistema hace todo esto. Y ni siquiera lo sabes. O sea que incluso sin tener la intención de meterte en esta manipulación, por la forma en que las máquinas aprenden actualmente, podrías estar haciéndolo. Así que esto es lo que comenté en mi charla. Podríamos entrar en una fase que denomino “autoritarismo de la información”, donde no enfrentamos el tipo de totalitarismo abierto de “1984”, con una situación en que se llevan a la gente en medio de la noche. Si no que, despacito y silenciosamente, persona por persona, pantalla por pantalla, se nos va llevando y manipulando a partir de nuestras vulnerabilidades individuales. Es un tipo de autoritarismo que sería difícil de reconocer. Sólo sentirías como que te empujan para un lado y para otro, y con el tiempo se empiezan a producir cambios, lentamente. Y eso es lo que da miedo. A eso nos tenemos que anticipar, para no terminar allí.