Reneé DiResta - El Suministro de Desinformación Pronto Será Interminable

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 6

The Atlantic

El suministro de desinformación pronto será interminable


Renée DiResta
Septiembre 20 del 2020

Algún día, pronto, el público lector extrañará los días en que un poco de trabajo de
detective podría identificar a autores completamente ficticios. Considere el caso de
“Alice Donovan”. En 2016, una escritora independiente con ese nombre envió un correo
electrónico a los editores de CounterPunch, un sitio de medios independientes de
tendencia izquierdista, para presentar una historia. Su perfil de Twitter la identificaba
como periodista. Durante un período de 18 meses, Donovan propuso ideas a
CounterPunch regularmente; la publicación aceptó un puñado de sus piezas y una
colección de sitios de tendencia izquierdista aceptó otras.

Luego, en 2018, el editor de CounterPunch recibió una llamada telefónica de The


Washington Post. Un reportero había obtenido un informe del FBI que sugería que
Alice Donovan era una "persona account", una figura ficticia, creada por la Dirección
Principal, la agencia de inteligencia militar rusa comúnmente conocida como GU.
Escépticos sobre el enlace de Rusia, pero preocupados por haber publicado
potencialmente contenido de una persona falsa, los editores de CounterPunch
estudiaron detenidamente la obra de Donovan, que abarcó temas tan variados como
Siria, Black Lives Matter y los correos electrónicos de Hillary Clinton. Descubrieron que
no solo era sospechosa, sino también una plagiaria: algunos de los artículos que
llevaban su firma parecían haber sido escritos por otra mujer, Sophia Mangal, una
periodista afiliada a algo llamado Inside Siria Media Center.

La página "Acerca de" del ISMC afirmó que el grupo, aparentemente un cruce entre un
think tank y un medio de comunicación, fue fundado en 2015 por un equipo de
periodistas. Pero a medida que los editores de CounterPunch profundizaron, se dieron
cuenta de que Sophia Mangal también era una invención. También, al parecer, eran los
otros en ISMC a quienes intentaron rastrear. CounterPunch publicó una autopsia de
enero de 2018 que detalla lo que había encontrado su investigación: artículos plagiados
de The New Yorker, el medio Arab News con sede en Arabia Saudita y otras fuentes;
prolíficos “periodistas” que archivaban hasta tres o cuatro historias por día, pero cuyas
firmas desaparecían después de que se hicieran averiguaciones para verificar que
existían; perfiles de redes sociales que mostraban fotos robadas de personas reales;
cuentas de Twitter animadas que defendían con servilismo al dictador sirio y aliado
ruso Bashar al-Assad. El ISMC, al parecer, era una fachada. Sus empleados eran
personas puramente digitales controladas por agentes de inteligencia rusos.

Un año después de que CounterPunch presentara su historia, a mediados de 2019, el


Comité Selecto de Inteligencia del Senado entregó un conjunto de datos a mi equipo en
el Observatorio de Internet de Stanford. Facebook había atribuido el material a la GU;
la página oficial de Facebook del ISMC (entre otras entidades) era parte de ese tesoro.
A medida que revisamos los archivos en línea y los tableros de mensajes oscuros para
investigar los datos, encontramos aún más identidades falsas de periodistas con
Laboratorios rusos de fake news buscan entrar en medios
extranjeros para influir en la opinión pública de otros países.
carpetas plagiadas y fotos robadas, más publicaciones de fachada y grupos de
personas falsas "amplificadoras" que compartían el contenido de los periodistas falsos
con el público en Twitter, Reddit y Facebook. Toda esta actividad se superpuso con el
trabajo del otro equipo de manipulación de Rusia, la Agencia de Investigación de
Internet (IRA). El IRA tenía sus propias cuentas, que producían aún más tuits y
comentarios en Facebook.

En otras palabras, encontramos una red en expansión de autores inexistentes que


convertían los temas de conversación del gobierno ruso en miles de artículos de
opinión y los colocaban en publicaciones occidentales simpatizantes, con multitudes de
personas falsas discutiendo los mismos temas en Twitter. No todas estas personas o
historias fueron exitosos; de hecho, muy pocos de los artículos del ISMC lograron un
alcance masivo, pero en el extraño mundo de la manipulación en línea, la popularidad
no es el único objetivo. Si los artículos de opinión falsos circulan ampliamente y hacen
cambiar de opinión a los estadounidenses sobre Siria o las próximas elecciones, eso es
un éxito. Si una proliferación de comentarios falsos convence al público de que la
mayoría se siente de una manera particular sobre un tema candente, eso es un éxito.
Pero incluso simplemente crear cinismo o confusión, sobre lo que es real y quién dice
qué, también es una forma de éxito. La idea es influir en la opinión pública o, por lo menos, confundirla.

Debido a que las fotos y el texto se pueden buscar fácilmente, copiar fotos de personas
reales y el trabajo de escritores reales puede hacer que una operación sea fácil de
desentrañar. Así que los adversarios de Estados Unidos se están adaptando. A
principios de este mes, Facebook cerró otra operación de influencia rusa, esta
construida en torno a un sitio web llamado PeaceData, que pertenecía al IRA. Este
último esfuerzo también involucró a un medio de comunicación dudoso como fachada.
Pero esta vez, en lugar de robar fotos, los trolls llenaron los perfiles de redes sociales
de autores ficticios con imágenes de rostros completamente únicos generados por
inteligencia artificial. (Sitios web como ThisPersonDoesNotExist.com muestran cuán
realistas pueden ser estos rostros). Y aunque volvieron a publicar algunas historias de
otros lugares, sus nuevos y más robustos personajes falsos contrataron a periodistas
estadounidenses que no tenían idea para escribir piezas originales. Pero incluso este
enfoque dejó evidencia; desde entonces, algunos de esos periodistas han dado
entrevistas sobre sus experiencias, revelando detalles operativos.

El escenario ideal para el propagandista moderno, por supuesto, es tener personajes


convincentes que produzcan contenido original. El texto generativo es la próxima
frontera. Lanzada en una versión beta en junio por el laboratorio de investigación de
inteligencia artificial OpenAI, una herramienta llamada GPT-3 genera artículos extensos
con la misma facilidad con la que redacta tuits, y su resultado suele ser difícil de
distinguir del trabajo de los seres humanos. De hecho, escribió partes de este artículo.
Herramientas como esta no solo impulsarán las operaciones de propaganda global;
obligarán a las plataformas de Internet y a los usuarios promedio a encontrar nuevas
formas de decidir en qué y en quién confiar.
Cuando le pedí a GPT-3 que opinara sobre estos temas, capturó el problema de
manera sucinta: La IA lo tiene claro: es una herramienta peligrosa.
Por el momento, al menos, parece poco probable que los medios generativos sean
efectivos de la misma manera que los medios tradicionales en la promoción de
mensajes políticos. Sin embargo, eso no quiere decir que no pueda ser. Lo que hará es
confundir las aguas, haciendo que sea mucho más difícil saber qué es real y qué no.

The Guardian, de hecho, recientemente hizo exactamente eso: los editores hicieron
que la IA escribiera ocho ensayos sobre ser una IA. Luego los unieron en lo que ha
sido ampliamente promocionado como el primer artículo de opinión escrito por una
máquina. El titular pícaro, “Un robot escribió todo este artículo. ¿Ya tienes miedo,
humano?”, planteó la posibilidad de que las computadoras autoconscientes crearán
diabluras. Pero la pregunta más apremiante es cómo los humanos se adaptarán a una
tecnología que permite que cualquier persona con acceso envíe contenido, de manera
indetectable, rápida y económica. Con un esfuerzo mínimo, se puede guiar a GPT-3
para que escriba en una variedad de estilos: en un estudio reciente, los investigadores
del Instituto de Estudios Internacionales de Middlebury, Kris McGuffie y Alex
Newhouse, descubrieron que podría generar publicaciones pronazis plausibles,
reproducir el estilo de escritura de manifiestos de tiradores masivos y responder
preguntas como un discípulo de QAnon. Los desarrolladores de GPT-3 comprenden el
potencial de abuso y han limitado el número de personas con acceso, aunque es
probable que los países hostiles desarrollen versiones de imitación lo suficientemente
pronto. Lo peligroso radica también en que cualquiera tiene
acceso indetectable a estas herramientas.
En el pasado, la propaganda necesitaba manos humanas para escribirla. Ansiosas por
crear la ilusión de popularidad, las autoridades de China comenzaron a contratar
personas en 2004 para inundar los espacios en línea con comentarios a favor del
gobierno. Para 2016, los miembros del “partido de los 50 centavos”, por la cantidad que
se decía que sus miembros cobraban por publicación, publicaban aproximadamente
450 millones de comentarios en las redes sociales al año. Ejércitos de comentarios,
fábricas de trolls y tiendas de noticias falsas similares en Filipinas, Polonia, Rusia y
otros lugares han intentado manipular la opinión pública inundando los espacios en
línea con publicaciones falsas. Una operación de “manipulación de opinión” de 2018 en
Corea del Sur encabezada por un bloguero popular usó una combinación de
comentaristas humanos y un programa automatizado para publicar y promover
comentarios críticos con un político en particular. La policía de Seúl notó el volumen de
dos días de actividad: “Entre el 17 y el 18 de enero manipularon alrededor de 20.000
comentarios en 675 artículos de noticias, utilizando 2.290 identificaciones diferentes”.
En los pintorescos primeros días de la manipulación de las redes sociales, tales
esfuerzos estaban limitados por las limitaciones humanas. Eso pronto ya no será el
caso.

Escribir tweets, comentarios y artículos completos para un medio de comunicación


falso lleva mucho tiempo. Los agentes de GU que dirigían a "Alice Donovan" y el
equipo imaginario de ISMC se descuidaron. Plagiaron la escritura de otros y reciclaron
la suya propia; las fotos de perfil robadas consolidaron la convicción de los
investigadores de que eran falsas. En muchas otras operaciones de influencia, la
necesidad de producir grandes volúmenes de contenido de texto significa que los
investigadores observan regularmente frases repetitivas de relatos manipuladores. Los
avances en el contenido generado por IA eliminarán esas señales. Con el tiempo, los
operadores mucho menos sofisticados que el gobierno ruso tendrán la capacidad de
generar tuits o artículos de opinión falsos. Las consecuencias podrían ser significativas.
En países de todo el mundo, las campañas coordinadas de propaganda impresa y en
las redes sociales han sembrado malestar social, reducido las tasas de vacunación e
incluso promovido la violencia étnica. Ahora imagine lo que sucede cuando las fuentes
de tales publicaciones son imposibles de rastrear y el suministro es esencialmente
infinito. Lo peligroso no es la posibilidad de crear algo falso, sino
la intención de ello: puede ser sólo ficción para entretener,
o puede
Nuestro ecosistema de información tiende hacia la irrealidad. Por supuesto, la sociedad buscar
ha logrado adaptarse a la tecnología que altera la percepción humana de la realidad distorsionar
antes: la introducción de Adobe Photoshop en 1990 popularizó la capacidad de editar la realidad
imágenes de personas reales. Las imágenes generadas por computadora (CGI) con algún
ofrecieron otro salto adelante; Los artistas y cineastas usan computadoras para diseñar fin
formas de vida e incluso mundos enteros a partir de la tela. Hoy en día, los filtros de malicioso.
Snapchat e Instagram que ponen rasgos caninos en rostros humanos han hecho que la
alteración de selfies no solo sea fácil sino también socialmente deseable.

Que estas alteraciones digitales alarmen a las personas depende del contexto en el
que se experimenten. A estas alturas, los lectores de revistas de celebridades o de
moda han llegado a asumir que las fotos en ellas están retocadas digitalmente. Los
espectadores de películas que desean entretenerse no se dejan engañar por los
efectos especiales. Pero en otros dominios, el descubrimiento de que un video o una
foto ha sido editado es un escándalo, es manipulación. Los estadounidenses que leen
un artículo en un periódico en línea o un comentario en un tablero de mensajes de
Internet hoy en día podrían suponer que está escrito por una persona real. Esa
suposición no se mantendrá en el futuro, y esto tiene implicaciones significativas sobre
cómo analizamos la información y pensamos sobre la identidad en línea.

“En el Internet”, declaró una caricatura del New Yorker de 1993, “nadie sabe que eres
un perro”. En países autoritarios donde el gobierno rutinariamente produce propaganda
y manipula el discurso con las llamadas cuentas marionetas, el público reacciona con
cansada resignación: identificar qué es auténtico, qué es verdad, a menudo requiere un
esfuerzo significativo. El impacto que la irrealidad generalizada dentro del espacio de la
información tendrá en las democracias liberales no está claro. Si, o cuando, se
produzca la inundación del discurso, es probable que disminuya nuestra confianza en
lo que leemos y con quién estamos hablando en línea. Esto ya ha comenzado a
suceder: a medida que ha aumentado la conciencia de los videos falsos profundos, el
troleo automatizado y otras tácticas de manipulación, los usuarios de Internet han
desarrollado un nuevo vocabulario con el que intentan desacreditar a sus críticos y
oponentes ideológicos. Algunos partidarios de Donald Trump han especulado, contra
toda evidencia, que sus comentarios en la infame cinta de Access Hollywood fueron
generados digitalmente. Los usuarios de Twitter se acusan regularmente unos a otros
de ser bots.

El auge del texto generativo profundizará esas sospechas y cambiará el entorno de la


información de otras maneras. En los medios, los editores se encontrarán ejerciendo
una vigilancia adicional para evitar publicar artículos de opinión sintetizados por las
futuras Alice Donovans y Sophia Mangals algorítmicas. Las principales empresas de
Internet trabajarán para que la detección del contenido generado sea lo más rápida y
eficaz posible. Aún así, a medida que la tecnología de detección crece en sofisticación,
también lo harán de manera aún más fluida las herramientas que generan imágenes,
videos y texto.

En medio de la carrera armamentista que rodea el contenido generado por IA, los
usuarios y las empresas de Internet dejarán de tratar de juzgar la autenticidad tweet por
tweet y artículo por artículo. En cambio, la identidad de la cuenta adjunta al comentario,
o la persona adjunta a la firma, se convertirá en una señal crítica para medir la
legitimidad. Muchos usuarios querrán saber que lo que están leyendo o viendo está
vinculado a una persona real, no a una persona generada por IA. Internet ya se ha
dividido en espacios más y menos desinfectados: existen sitios como 4chan para
usuarios de Internet que desean foros anónimos sin restricciones, pero la mayoría de
los usuarios de Internet prefieren plataformas más moderadas. La proliferación de
mensajes generados por máquinas aumentará el atractivo de las comunidades de
Internet en las que todos los participantes deben validar su identidad, o al menos su
existencia física, de alguna manera. El debate político puede migrar a plataformas de
discursos completamente nuevas, o secciones talladas de plataformas existentes como
Twitter o Facebook, que priorizan las publicaciones de usuarios con identidades
verificadas o seudónimos validados.

Por otra parte, estos ajustes podrían poner aún más poder en manos de las
plataformas de Internet que muchos estadounidenses creen que ya tienen demasiada
influencia sobre cómo circula la información en los Estados Unidos. Cuando Twitter
confiere una marca de verificación azul en el perfil de una figura pública, la empresa
oficialmente solo dice que ha verificado quién es el propietario de la cuenta. Pero la
comunidad de usuarios a menudo ve esas decisiones como un respaldo. Y cuando la
empresa eliminó las cuentas de varios líderes de extrema derecha y de supremacía
blanca en 2017, en cierto sentido estaba estableciendo límites para un debate
respetable.

La idea de que una identidad verificada debería ser una condición previa para contribuir
al discurso público es distópica a su manera. Desde los albores de la nación, los
estadounidenses han valorado el discurso anónimo y seudónimo: Alexander Hamilton,
James Madison y John Jay usaron el seudónimo Publius cuando escribieron los
Federalist Papers, que establecieron los principios fundamentales del gobierno
estadounidense. Los denunciantes y otras personas con información privilegiada han
publicado declaraciones anónimas con el fin de informar al público. Figuras tan
variadas como el gurú de las estadísticas Nate Silver (“Poblano”) y el senador Mitt
Romney (“Pierre Delecto”) han usado seudónimos al discutir asuntos políticos en
Internet. El objetivo no debería ser acabar con el anonimato en línea, sino simplemente
reservar la plaza pública para las personas que existen, no para los generadores de
propaganda con inteligencia artificial.

Sin siquiera existir, Alice Donovan y Sophia Mangal podrían convertirse en presagios
del futuro. Para citar a GPT-3, el dilema es este:

En este futuro, el contenido generado por IA seguirá siendo más sofisticado y será
cada vez más difícil diferenciarlo del contenido creado por humanos... Mientras tanto,
tendremos que mantener la guardia alta mientras asimilamos información y aprender a
evaluar la confiabilidad de las fuentes que estamos utilizando. Continuaremos teniendo
que averiguar cómo creer y qué creer. En un futuro donde las máquinas crean cada vez
más nuestro contenido, tendremos que descubrir cómo confiar.

https://www.theatlantic.com/ideas/archive/2020/09/future-propaganda-will-be-computer-
generated/616400/

También podría gustarte