Reneé DiResta - El Suministro de Desinformación Pronto Será Interminable
Reneé DiResta - El Suministro de Desinformación Pronto Será Interminable
Reneé DiResta - El Suministro de Desinformación Pronto Será Interminable
Algún día, pronto, el público lector extrañará los días en que un poco de trabajo de
detective podría identificar a autores completamente ficticios. Considere el caso de
“Alice Donovan”. En 2016, una escritora independiente con ese nombre envió un correo
electrónico a los editores de CounterPunch, un sitio de medios independientes de
tendencia izquierdista, para presentar una historia. Su perfil de Twitter la identificaba
como periodista. Durante un período de 18 meses, Donovan propuso ideas a
CounterPunch regularmente; la publicación aceptó un puñado de sus piezas y una
colección de sitios de tendencia izquierdista aceptó otras.
La página "Acerca de" del ISMC afirmó que el grupo, aparentemente un cruce entre un
think tank y un medio de comunicación, fue fundado en 2015 por un equipo de
periodistas. Pero a medida que los editores de CounterPunch profundizaron, se dieron
cuenta de que Sophia Mangal también era una invención. También, al parecer, eran los
otros en ISMC a quienes intentaron rastrear. CounterPunch publicó una autopsia de
enero de 2018 que detalla lo que había encontrado su investigación: artículos plagiados
de The New Yorker, el medio Arab News con sede en Arabia Saudita y otras fuentes;
prolíficos “periodistas” que archivaban hasta tres o cuatro historias por día, pero cuyas
firmas desaparecían después de que se hicieran averiguaciones para verificar que
existían; perfiles de redes sociales que mostraban fotos robadas de personas reales;
cuentas de Twitter animadas que defendían con servilismo al dictador sirio y aliado
ruso Bashar al-Assad. El ISMC, al parecer, era una fachada. Sus empleados eran
personas puramente digitales controladas por agentes de inteligencia rusos.
Debido a que las fotos y el texto se pueden buscar fácilmente, copiar fotos de personas
reales y el trabajo de escritores reales puede hacer que una operación sea fácil de
desentrañar. Así que los adversarios de Estados Unidos se están adaptando. A
principios de este mes, Facebook cerró otra operación de influencia rusa, esta
construida en torno a un sitio web llamado PeaceData, que pertenecía al IRA. Este
último esfuerzo también involucró a un medio de comunicación dudoso como fachada.
Pero esta vez, en lugar de robar fotos, los trolls llenaron los perfiles de redes sociales
de autores ficticios con imágenes de rostros completamente únicos generados por
inteligencia artificial. (Sitios web como ThisPersonDoesNotExist.com muestran cuán
realistas pueden ser estos rostros). Y aunque volvieron a publicar algunas historias de
otros lugares, sus nuevos y más robustos personajes falsos contrataron a periodistas
estadounidenses que no tenían idea para escribir piezas originales. Pero incluso este
enfoque dejó evidencia; desde entonces, algunos de esos periodistas han dado
entrevistas sobre sus experiencias, revelando detalles operativos.
The Guardian, de hecho, recientemente hizo exactamente eso: los editores hicieron
que la IA escribiera ocho ensayos sobre ser una IA. Luego los unieron en lo que ha
sido ampliamente promocionado como el primer artículo de opinión escrito por una
máquina. El titular pícaro, “Un robot escribió todo este artículo. ¿Ya tienes miedo,
humano?”, planteó la posibilidad de que las computadoras autoconscientes crearán
diabluras. Pero la pregunta más apremiante es cómo los humanos se adaptarán a una
tecnología que permite que cualquier persona con acceso envíe contenido, de manera
indetectable, rápida y económica. Con un esfuerzo mínimo, se puede guiar a GPT-3
para que escriba en una variedad de estilos: en un estudio reciente, los investigadores
del Instituto de Estudios Internacionales de Middlebury, Kris McGuffie y Alex
Newhouse, descubrieron que podría generar publicaciones pronazis plausibles,
reproducir el estilo de escritura de manifiestos de tiradores masivos y responder
preguntas como un discípulo de QAnon. Los desarrolladores de GPT-3 comprenden el
potencial de abuso y han limitado el número de personas con acceso, aunque es
probable que los países hostiles desarrollen versiones de imitación lo suficientemente
pronto. Lo peligroso radica también en que cualquiera tiene
acceso indetectable a estas herramientas.
En el pasado, la propaganda necesitaba manos humanas para escribirla. Ansiosas por
crear la ilusión de popularidad, las autoridades de China comenzaron a contratar
personas en 2004 para inundar los espacios en línea con comentarios a favor del
gobierno. Para 2016, los miembros del “partido de los 50 centavos”, por la cantidad que
se decía que sus miembros cobraban por publicación, publicaban aproximadamente
450 millones de comentarios en las redes sociales al año. Ejércitos de comentarios,
fábricas de trolls y tiendas de noticias falsas similares en Filipinas, Polonia, Rusia y
otros lugares han intentado manipular la opinión pública inundando los espacios en
línea con publicaciones falsas. Una operación de “manipulación de opinión” de 2018 en
Corea del Sur encabezada por un bloguero popular usó una combinación de
comentaristas humanos y un programa automatizado para publicar y promover
comentarios críticos con un político en particular. La policía de Seúl notó el volumen de
dos días de actividad: “Entre el 17 y el 18 de enero manipularon alrededor de 20.000
comentarios en 675 artículos de noticias, utilizando 2.290 identificaciones diferentes”.
En los pintorescos primeros días de la manipulación de las redes sociales, tales
esfuerzos estaban limitados por las limitaciones humanas. Eso pronto ya no será el
caso.
Que estas alteraciones digitales alarmen a las personas depende del contexto en el
que se experimenten. A estas alturas, los lectores de revistas de celebridades o de
moda han llegado a asumir que las fotos en ellas están retocadas digitalmente. Los
espectadores de películas que desean entretenerse no se dejan engañar por los
efectos especiales. Pero en otros dominios, el descubrimiento de que un video o una
foto ha sido editado es un escándalo, es manipulación. Los estadounidenses que leen
un artículo en un periódico en línea o un comentario en un tablero de mensajes de
Internet hoy en día podrían suponer que está escrito por una persona real. Esa
suposición no se mantendrá en el futuro, y esto tiene implicaciones significativas sobre
cómo analizamos la información y pensamos sobre la identidad en línea.
“En el Internet”, declaró una caricatura del New Yorker de 1993, “nadie sabe que eres
un perro”. En países autoritarios donde el gobierno rutinariamente produce propaganda
y manipula el discurso con las llamadas cuentas marionetas, el público reacciona con
cansada resignación: identificar qué es auténtico, qué es verdad, a menudo requiere un
esfuerzo significativo. El impacto que la irrealidad generalizada dentro del espacio de la
información tendrá en las democracias liberales no está claro. Si, o cuando, se
produzca la inundación del discurso, es probable que disminuya nuestra confianza en
lo que leemos y con quién estamos hablando en línea. Esto ya ha comenzado a
suceder: a medida que ha aumentado la conciencia de los videos falsos profundos, el
troleo automatizado y otras tácticas de manipulación, los usuarios de Internet han
desarrollado un nuevo vocabulario con el que intentan desacreditar a sus críticos y
oponentes ideológicos. Algunos partidarios de Donald Trump han especulado, contra
toda evidencia, que sus comentarios en la infame cinta de Access Hollywood fueron
generados digitalmente. Los usuarios de Twitter se acusan regularmente unos a otros
de ser bots.
En medio de la carrera armamentista que rodea el contenido generado por IA, los
usuarios y las empresas de Internet dejarán de tratar de juzgar la autenticidad tweet por
tweet y artículo por artículo. En cambio, la identidad de la cuenta adjunta al comentario,
o la persona adjunta a la firma, se convertirá en una señal crítica para medir la
legitimidad. Muchos usuarios querrán saber que lo que están leyendo o viendo está
vinculado a una persona real, no a una persona generada por IA. Internet ya se ha
dividido en espacios más y menos desinfectados: existen sitios como 4chan para
usuarios de Internet que desean foros anónimos sin restricciones, pero la mayoría de
los usuarios de Internet prefieren plataformas más moderadas. La proliferación de
mensajes generados por máquinas aumentará el atractivo de las comunidades de
Internet en las que todos los participantes deben validar su identidad, o al menos su
existencia física, de alguna manera. El debate político puede migrar a plataformas de
discursos completamente nuevas, o secciones talladas de plataformas existentes como
Twitter o Facebook, que priorizan las publicaciones de usuarios con identidades
verificadas o seudónimos validados.
Por otra parte, estos ajustes podrían poner aún más poder en manos de las
plataformas de Internet que muchos estadounidenses creen que ya tienen demasiada
influencia sobre cómo circula la información en los Estados Unidos. Cuando Twitter
confiere una marca de verificación azul en el perfil de una figura pública, la empresa
oficialmente solo dice que ha verificado quién es el propietario de la cuenta. Pero la
comunidad de usuarios a menudo ve esas decisiones como un respaldo. Y cuando la
empresa eliminó las cuentas de varios líderes de extrema derecha y de supremacía
blanca en 2017, en cierto sentido estaba estableciendo límites para un debate
respetable.
La idea de que una identidad verificada debería ser una condición previa para contribuir
al discurso público es distópica a su manera. Desde los albores de la nación, los
estadounidenses han valorado el discurso anónimo y seudónimo: Alexander Hamilton,
James Madison y John Jay usaron el seudónimo Publius cuando escribieron los
Federalist Papers, que establecieron los principios fundamentales del gobierno
estadounidense. Los denunciantes y otras personas con información privilegiada han
publicado declaraciones anónimas con el fin de informar al público. Figuras tan
variadas como el gurú de las estadísticas Nate Silver (“Poblano”) y el senador Mitt
Romney (“Pierre Delecto”) han usado seudónimos al discutir asuntos políticos en
Internet. El objetivo no debería ser acabar con el anonimato en línea, sino simplemente
reservar la plaza pública para las personas que existen, no para los generadores de
propaganda con inteligencia artificial.
Sin siquiera existir, Alice Donovan y Sophia Mangal podrían convertirse en presagios
del futuro. Para citar a GPT-3, el dilema es este:
En este futuro, el contenido generado por IA seguirá siendo más sofisticado y será
cada vez más difícil diferenciarlo del contenido creado por humanos... Mientras tanto,
tendremos que mantener la guardia alta mientras asimilamos información y aprender a
evaluar la confiabilidad de las fuentes que estamos utilizando. Continuaremos teniendo
que averiguar cómo creer y qué creer. En un futuro donde las máquinas crean cada vez
más nuestro contenido, tendremos que descubrir cómo confiar.
https://www.theatlantic.com/ideas/archive/2020/09/future-propaganda-will-be-computer-
generated/616400/