*

X

Desarrollador de Cambridge Analytica revela cómo se minaron 50 millones de perfiles de Facebook para influir en elecciones

Medios y Tecnología

Por: pijamasurf - 03/17/2018

Christopher Wylie, exempleado de la empresa Cambridge Analytica, revela como se minaron datos de FB y se crearon perfiles psicológicos para implementar sofisticada propaganda a favor de Trump y el Brexit

Una importante filtración realizada por Christopher Wylie, exempleado de la firma de Big Data Cambridge Analytica, revela cómo se utilizaron datos de Facebook para crear sutiles perfiles psicológicos, los cuales sirvieron para dirigir anuncios y crear información subversiva en la elección de Estados Unidos y en la campaña a favor del Brexit. En una entrevista con The Guardian, este "whistleblower" revela lo que podemos llamar una nueva fase en la historia de la propaganda, donde el análisis de datos es utilizado como una poderosa arma algorítmica de manufactura de percepción.

Wylie, quien se define como el "canadiense gay vegano que acabó creando el arma de guerra psicológica manipuladora de mentes de Steve Bannon", narra cómo la empresa Cambridge Analytica fue montada en parte para hacer una especie de catering a las intenciones de Bannon, quien fue uno de los principales consejeros de la campaña de Trump. Se montó una oficina falsa en Cambridge como fachada para seducir a Bannon, quien buscaba un perfil académico en la compañía, siendo que él, más allá del interés en ganar la elección, tenía una visión ideológica política (a veces incluso profética). Bannon, quien se convertiría también en VP de Cambridge Analytica, según Wylie, tenía la idea de que para cambiar la política se debía cambiar la cultura. Ya que las unidades de la cultura son los individuos, se necesitaba "un arma cultural" para afectar a estos individuos. En ese momento la compañía cambió de nombre y se autodenominó Cambridge Analytica. En el nombre está el destino y esta elección -ya que la compañía no tenía realmente un perfil académico- refleja una percepción distorsionada de origen y, a la vez, revela lo que harían después: distorsionar la percepción de los votantes y crear climas enrarecidos y enardecidos que pudieran ser capitalizados políticamente. Wylie dice que lo que hicieron fue "un experimento inmoral, en el que se jugó con la psicología de todo un país sin su conocimiento", aunque afirma que no puede saber si estas operaciones fueron definitivas en determinar el resultado de la elección.

El dueño de Cambridge Analytica es Rob Mercer, un informático que hizo millones participando en firmas de tecnología antes de que surgiera el Internet. Mercer fue además accionista, junto con Bannon, del sitio de noticias Breitbart, a quien se responsabiliza por fortalecer el movimiento del alt-right o la extrema derecha, el sitio en el que, se dice, los estadounidenses enojados encuentran una voz resonante. Mercer es, además, uno de los principales coleccionistas de armas en Estados Unidos (teniendo entre su colección las armas de Terminator). Durante la campaña del Brexit donó los servicios de Cambdrige Analytica a Nigel Farage, el político que encabezó los esfuerzos del Ukip que pugnó por la salida de la Unión Europea. Asimismo, Mercer tiene vínculos con los multimillonarios hermanos Koch a través de su red de donaciones; los hermanos Koch son los principales donantes del llamado Tea Party, y de la campaña que niega la causa antropogénica del calentamiento global. Mercer ha sido uno de los principales donadores a las campañas republicanas en la última década, con más de 35 millones de dólares. Se podría decir que Mercer califica como un moderno supervillano, si los hay.

Para minar los datos de los usuarios de Facebook, Cambridge Analytica gastó alrededor de 1 millón de dólares y usó los servicios de Aleksandr Kogan y su compañía Global Science Research. Kogan construyó la app thisisyourdigitallife, la cual fue utilizada por más 100 mil personas, quienes recibieron un pago por llenar datos para "uso académico". Al aprobar los términos y las condiciones del app, los usuarios no sólo dieron acceso a sus perfiles a Kogan y a Cambridge Analytica sino también a los perfiles de sus amigos, incluyendo likes, comentarios y en ocasiones hasta mensajes privados. En sólo 2 meses se levantaron más de 50 millones de perfiles de usuarios de FB y con estos datos se crearon los algoritmos que fueron, de acuerdo con Wylie, el fundamento de la compañía. Cambridge Analytica había negado anteriormente usar datos de Facebook pero, aparentemente, la compañía fue fundada específicamente sirviéndose de los datos de Facebook para crear los distintivos algoritmos con los que se pudo tratar a los usuarios ya no como "votantes sino como personalidades" y con los que logró volverse tan atractiva para políticos y empresas.

Wylie señala que con esta información se logró entender el tipo de mensajes, el formato, el contenido, el tono y la frecuencia a la cual son susceptibles los usuarios individuales. A la par se montó un equipo de producción de medios y un equipo de diseminación de los productos mediáticos en blogs y perfiles de redes sociales, creados específicamente para promover los contenidos que podrían favorecer esta ingeniería de la percepción. Asimismo, en base a los perfiles psicológicos y emocionales de los usuarios se crearon anuncios  con targets específicos. Estudios previos sugieren que un análisis de los likes de los usuarios puede predecir información tan sensible como orientación sexual, raza, género, inteligencia, inclinación política, tendencia a abuso de drogas o alcohol y hasta trauma infantil. Wylie sugiere que esta herramienta, a diferencia de tomar un megáfono y comunicar un mensaje en una plaza pública, es "un susurro en la oreja de cada votante", dándole a cada uno un mensaje personalizado; "esto evita una experiencia colectiva y un entendimiento colectivo", se fragmenta la realidad. Así se le dio a Bannon su "arma cultural" y se llevó al extremo la llamada "burbuja de filtro" en la que cada quien recibe una versión personalizada de la realidad en base a sus gustos previos, colocando así a cada usuario en un universo tautológico separado de los demás. Wylie explica que la visión de alquimia política de Bannon, y quizás de Mercer, está apuntalada en este axioma: "para cambiar la sociedad primero debes romperla y luego debes reconstituir las piezas y moldearlas conforme a tu visión".

Ante esta información, Facebook ha suspendido a Cambridge Analytica y al mismo Wylie. Según el comunicado de la empresa:

Hace unos días recibimos informes de que, contrariamente a las certificaciones que nos fueron entregadas, no todos los datos fueron borrados. Nos estamos moviendo agresivamente para determinar la exactitud de estas afirmaciones. Si es cierto, se trata de otra violación inaceptable de la confianza y de los compromisos que asumieron. Estamos suspendiendo a SCL/Cambridge Analytica, Wylie y Kogan de Facebook, a la espera de más información.

Kogan seguramente enfrenta una investigación, aunque él argumenta que todo lo que hizo fue legal. Facebook sostiene que Kogan no tenía permiso de recolectar información con fines comerciales. Por otro lado, es posible que Facebook haya obrado al menos con negligencia, ya que si bien afirma haber enviado una carta en la que condena el uso de la información sin su permiso a la compañía Global Science Research, cuando ésta no fue contestada no realizó acciones posteriores en los siguientes 2 años. Aparentemente, durante 2 años Facebook no checó si esta información minada a través de la app había sido borrada. El especialista de protección de datos Paul Oliver Dehaye señala que Facebook tenía la obligación de informar que sus datos habían sido filtrados de manera posiblemente ilegal.

Te podría interesar:
Importantes cambios en el algoritmo de Facebook harán que cambie notablemente el contenido que te aparece en tu News Feed

En las últimas semanas Facebook ha introducido un nuevo algoritmo que modifica el tipo de contenido que aparece en el News Feed de los usuarios. Con esto Facebook pretende responder a grandes críticas que ha recibido en los últimos 2 años por su papel en diseminar las llamadas "fake news"  que se cree que han influido en elecciones como la que ganó Trump en Estados Unidos o el Brexit en el Reino Unido. Asimismo, con esto se busca reaccionar al hecho de que los usuarios de la red social en los últimos años han empezado a postear menos contenido "orgánico", es decir fotos, videos y texto de su vida personal. 

A grandes rasgos el algoritmo nuevo da prioridad al contenido que comparten las personas y no las páginas -medios, empresas y demás-, con la intención de generar conexiones entre individuos. En las últimas semanas, los usuarios deben de haber notado que aparecen menos publicaciones de sitios de noticias y más de amigos o personas con las que están vinculados. "Estoy cambiando el objetivo que tienen nuestros equipos de producto, de ayudarte a encontrar contenido relevante hacia ayudarte a tener interacciones sociales más significativas", dijo Zuckerberg al anunciar el cambio hace unas semanas. El fundador de Facebook argumenta que existen estudios que muestran que las redes sociales sólo son buenas para la salud de los individuos si les ayudan a "conectar con personas que quieren". Y, por el contrario, el uso pasivo puede ser, según su análisis, pernicioso. Por ello el algoritmo fomentará contenido que genera interacciones, como pueden ser buscar recomendaciones, noticias locales o familiares, y  contenido que en general es discutido activamente. 

Por cierto, debemos mencionar que el meme de que el nuevo algoritmo limita a 25 amigos el contenido que te aparece en tu sección de noticias es falso. Al contrario, uno podría esperar que aparezca más contenido de tus amigos que antes, si bien es cierto que Facebook puede restringir el contenido de ciertas personas que determina como spammers o promotores de noticias falsas.

También, para lidiar con el tema de las fake news y el contenido basura, Facebook planea evaluar las páginas para determinar si su información es confiable; las páginas que considere como poco fiables serán penalizadas.

Zuckerberg ha dicho que el cambio de algoritmo es su forma de contribuir al bienestar del mundo, aunque esto incluso signifique el riesgo de que Facebook deje de crecer. Algunos críticos, sin embargo, han visto en esto una medida reaccionaria que puede aislar a las personas del contenido noticioso de valor y crear cámaras de ecos cuyo nivel de discusión puede ser aún más bajo. Por otro lado, también puede ser leído como una forma de obligar a que las compañías gasten más dinero en publicidad para aparecer en el News Feed. Y falta ver el criterio que se use para determinar qué sitios son dignos de aparecer en el News Feed y si esto no genera una forma de censura. 

Es evidente que Facebook tiene un enorme poder y está buscando responder a las críticas globales que está recibiendo; en ese sentido, si realmente está dispuesto a sacrificar ingresos por el bienestar colectivo -como su discurso mantiene-, la medida, aunque puede ser problemática para muchos sitios, a la larga debe aplaudirse. Claro que queda por ver si es realmente un interés altruista lo que mueve a la compañía.

Mientras tanto puedes hacer un par de cosas para asegurarte de que el contenido que te interesa siga apareciendo. Por una parte puedes ir a las preferencias del News Feed o Sección de noticias, en la parte superior izquierda y hacer clic en "Editar preferencias", luego manualmente se puede indicar qué personas o páginas se quiere que aparezcan primero (picando donde dice "Todo" para ver las páginas). Puedes también comentar y compartir el contenido del sitio que te interesa con mayor frecuencia, para asegurarte de que siga apareciendo el contenido. Y por último, puedes visitar la página de Facebook que te interesa y dar clic en el botón que dice "Siguiendo" y luego "Ver primero" (en inglés "Follow" y luego "See first").