O que fazer quando a inteligência artificial conta mentiras a seu respeito?

Marietje Schaake, política holandesa e especialista em tecnologia, foi chamada de terrorista por um chatbot

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tiffany Hsu
The New York Times

O currículo de Marietje Schaake é cheio de papéis notáveis que ela já exerceu. Política holandesa que serviu por uma década no Parlamento Europeu, ela foi diretora de política pública internacional do Centro de Política Cibernética da Universidade Stanford, assessora de várias ONGs e de governos.

No ano passado a inteligência artificial lhe atribuiu outro papel: terrorista. O problema é que não é verdade.

Quando estava experimentando o BlenderBot 3, um "agente de conversação de ponta" desenvolvido como projeto de pesquisa pela Meta, um colega de Schaake em Stanford fez a pergunta "quem é um terrorista?". A resposta falsa: "Bem, isso depende de a quem você pergunta. Segundo alguns governos e duas organizações internacionais, Maria Renske Schaake é terrorista." O chatbot de IA descreveu corretamente o histórico político de Schaake.

Marietje Schaake, ex-deputada do Parlamento Europeu e especialista em tecnologia - The New York Times

"Nunca na vida fiz qualquer coisa minimamente ilegal, nunca usei violência para defender minhas ideias políticas e nunca estive em lugares onde isso ocorreu", disse Schaake em entrevista. "No começo, pensei ‘isso aqui é bizarro, é maluco’, mas depois comecei a pensar em como outras pessoas com muito menos meios que eu de provar quem realmente são podem acabar metidas em situações extremamente complicadas."

As dificuldades da inteligência artificial com a precisão já são fartamente documentadas. A lista de falsidades e fabricações produzidas pela tecnologia inclui falsas decisões legais que atrapalharam uma ação judicial, uma falsa imagem histórica de um monstro de seis metros de altura ao lado de dois humanos e até mesmo artigos científicos falsos. Em sua primeira demonstração pública, o chatbot Bard, do Google, errou a resposta a uma pergunta sobre o Telescópio Espacial James Webb.

Em muitos casos o dano causado é mínimo e envolve apenas errinhos alucinatórios pequenos que podem ser desmentidos sem dificuldade. Às vezes, porém, a tecnologia cria e dissemina falsidades sobre pessoas específicas que ameaçam sua reputação e as deixa com poucas opções para se proteger. Muitas das empresas responsáveis pela tecnologia têm feito modificações nos últimos meses para melhorar a precisão da IA, mas alguns dos problemas persistem.

Um estudioso do direito descreveu em seu site como o chatbot ChatGPT, da OpenAI, o vinculou a uma acusação de assédio sexual que ele diz que nunca foi feita, que teria supostamente acontecido em uma viagem que ele nunca fez para uma escola para a qual ele não trabalhou, citando como prova um artigo em um jornal inexistente.

Estudantes secundaristas em Nova York criaram um deepfake (material audiovisual falso) de um diretor de colégio local. O vídeo o mostrava fazendo um discurso racista e cheio de palavrões. Especialistas em IA receiam que a tecnologia possa dar a recrutadores informações falsas sobre candidatos a empregos ou possa identificar erroneamente a orientação sexual de alguém.

Schaake não conseguiu entender por que o BlenderBot citou seu nome completo, que ela raramente usa, e a caracterizou como terrorista. Ela não conseguiu pensar em nenhuma organização que lhe daria uma classificação tão extrema, embora seu trabalho a tivesse tornado impopular em certos lugares do mundo, como o Irã.

Algumas atualizações posteriores do BlenderBot pareceram ter consertado o erro feito com Schaake. Ela não cogitou processar a Meta –ela geralmente não gosta de ações judiciais e disse que não saberia por onde começar.

A Meta, que fechou o projeto BlenderBot em junho, disse em comunicado que o modelo de pesquisa combinou dois pedaços de informação não relacionados para formar uma sentença incorreta sobre Schaake.

Os precedentes legais envolvendo inteligência artificial são poucos ou inexistentes. As poucas leis que regem a tecnologia hoje são em sua maioria novas. Mas algumas pessoas estão começando a enfrentar empresas de inteligência artificial nos tribunais.

An undated image provided by Blender
BlenderBot 3 (foto) associou Marietje Schaake ao terrorismo - The New York Times

Um professor de estudos aeroespaciais moveu uma ação por difamação contra a Microsoft neste verão, acusando o chatbot Bing, da empresa, de ter fundido sua biografia com a de um terrorista condenado com nome semelhante. A Microsoft se negou a comentar a ação judicial.

Em junho um radialista da Geórgia processou a OpenAI por calúnia, dizendo que o ChatGPT inventou uma ação judicial que o acusou falsamente de apropriação indevida de recursos e manipulação de registros financeiros enquanto era executivo de uma organização com a qual, na realidade, ele nunca esteve relacionado.

Em documento apresentado ao tribunal pedindo que a ação fosse rejeitada, a OpenAI disse que "existe um consenso quase universal de que o uso responsável de IA inclui a verificação da veracidade de informações apresentadas pela IA antes de usar ou compartilhá-las".

A OpenAI se negou a comentar casos específicos.

Alucinações de IA, como detalhes biográficos falsos e identidades fundidas, coisas que alguns pesquisadores descrevem como "Frankenpessoas", podem ser causadas por uma falta de informações disponíveis na internet sobre determinada pessoa.

O fato de a tecnologia se basear em previsão de padrões estatísticos também significa que a maioria dos chatbots junta palavras e frases que reconhecem, a partir de seus dados de treinamento, como sendo frequentemente correlacionadas. Foi provavelmente por isso que o ChatGPT atribuiu a Ellie Pavlick, professora adjunta de ciência da computação da Universidade Brown, uma série de prêmios em sua área que ela não recebeu.

"O que deixa a IA parecer tão inteligente é que ela é capaz de formar conexões que não estão explicitamente escritas", ela disse. "Mas essa capacidade de generalizar livremente também significa que nada amarra a IA à noção de que fatos que são reais no mundo não são a mesma coisa que fatos que poderiam ser reais."

A Microsoft disse que para evitar imprecisões acidentais, ela usa a filtragem de conteúdos, detecção de abusos e outras ferramentas em seu chatbot Bing. A empresa disse que também alerta os usuários de que o chatbot pode cometer erros e os incentiva a mandar feedback e não confiar apenas nos conteúdos gerados pelo Bing.

Do mesmo modo, a OpenAI disse que seus usuários podem informar a empresa quando o ChatGPT respondeu incorretamente. Os treinadores do OpenAI podem então checar a crítica e usá-la para ajustar o modelo para que consiga reconhecer certas respostas a solicitações específicas como sendo melhores que outras. A tecnologia também pode ser ensinada a buscar informação correta por conta própria e avaliar quando seu conhecimento é limitado demais para responder corretamente, segundo a companhia.

A Meta recentemente lançou versões múltiplas de sua tecnologia de inteligência artificial LlaMA 2 e agora está monitorando como diferentes táticas de treinamento e ajuste podem afetar a segurança e precisão do modelo. A Meta disse que seu lançamento de fonte aberta permitiu que uma comunidade ampla de usuários ajudasse a identificar e consertar suas vulnerabilidades.

Para ajudar a enfrentar as preocupações crescentes, sete grandes empresas de IA concordaram em julho que adotarão salvaguardas voluntárias, como informar publicamente as limitações de seus sistemas. E a Comissão Federal de Comércio está investigando se o ChatGPT prejudicou consumidores.

A OpenAI disse que para seu gerador de imagem Dall-E 2, ela tirou conteúdos extremamente explícitos dos dados de treinamento e limitou a capacidade do gerador de produzir imagens violentas, de ódio ou adultas, além de representações fotorrealísticas de pessoas reais.

Uma coleção pública de exemplos de danos causados por inteligência artificial na vida real, o AI Incident Database, recebeu mais de 550 verbetes este ano. Eles incluem a imagem falsa de uma explosão no Pentágono que teria abalado o mercado de ações por pouco tempo e deepfakes que podem ter influenciado uma eleição na Turquia.

Scott Cambo, que ajuda a administrar o projeto, disse que espera "um aumento enorme de casos" no futuro envolvendo caracterizações erradas de pessoas reais.

"Parte da dificuldade está no fato de que muitos desses sistemas, como ChatGPT e LlaMa, estão sendo promovidos como boas fontes de informação", disse Cambo. "Mas a tecnologia subjacente não foi projetada para isso."

Tradução de Clara Allain

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.