Principais empresas de IA assinam compromissos de segurança da tecnologia

Em evento em Seul, desenvolvedores concordam em avaliar quando os riscos se tornam 'intoleráveis'

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Christian Davies
Seul | Financial Times

Os governos do Reino Unido e da Coreia do Sul anunciaram nesta terça-feira (21) que as principais empresas de inteligência artificial se comprometeram com uma nova rodada de compromissos voluntários relacionados à segurança da tecnologia.

As empresas, que incluem gigantes como Amazon, Google, Meta e Microsoft, bem como a OpenAI liderada por Sam Altman, a xAI de Elon Musk e a chinesa Zhipu AI, publicarão estratégias delineando como medirão os riscos de seus modelos de IA que estão na fronteira da tecnologia.

Os grupos se comprometeram "a não desenvolver ou implantar um modelo de forma alguma" se os riscos graves não puderem ser mitigados, disseram os dois governos antes da abertura de uma cúpula global de IA em Seul.

O presidente da Coreia do Sul, Yoon Suk-Yeol, no evento AI Seoul Summit - Presidência da Coreia do Sul via AFP

O anúncio se baseia na chamada Declaração de Bletchley feita na Cúpula de Segurança de IA organizada pelo primeiro-ministro do Reino Unido, Rishi Sunak, em novembro.

"Esses compromissos garantem que as principais empresas de IA do mundo fornecerão transparência e responsabilidade sobre seus planos de desenvolver uma IA segura", disse Sunak em comunicado. "Isso estabelece um precedente para padrões globais de segurança de IA que desbloquearão os benefícios dessa tecnologia transformadora."

De acordo com um comunicado que delineia o acordo, as empresas de IA "avaliarão os riscos apresentados por seus modelos ou sistemas fronteiriços... mesmo antes de implantar esse modelo ou sistema e, conforme apropriado, antes e durante o treinamento".

As empresas também estabelecerão os "limites nos quais os riscos graves apresentados por um modelo ou sistema, a menos que adequadamente mitigados, seriam considerados intoleráveis" e como tais mitigadores serão implementados.

"O campo da segurança de IA está evoluindo rapidamente e estamos particularmente satisfeitos em endossar o destaque dos compromissos na refinamento de abordagens junto com a ciência", disse Anna Makanju, vice-presidente de assuntos globais da OpenAI.

"Permanecemos comprometidos em colaborar com outros laboratórios de pesquisa, empresas e governos para garantir que a IA seja segura e beneficie toda a humanidade."

O anúncio desta terça-feira ecoa os "compromissos voluntários" feitos na Casa Branca em julho do ano passado por Amazon, Anthropic, Google, Inflection AI, Meta, Microsoft e OpenAI "para ajudar a avançar em direção ao desenvolvimento seguro, seguro e transparente da tecnologia de IA".

No entanto, ainda não está claro como as empresas poderiam ser responsabilizadas se não cumprirem seus compromissos.

O comunicado desta terça disse que as 16 empresas "fornecerão transparência pública" sobre a implementação de seus compromissos, "exceto na medida em que fazê-lo aumentaria o risco ou divulgaria informações comerciais sensíveis a um grau desproporcional ao benefício social".

Falando em Seul antes de uma reunião virtual de líderes, a secretária de Ciência do Reino Unido, Michelle Donelan, disse ao Financial Times que os acordos voluntários feitos em Bletchley estavam funcionando.

"Portanto, acreditamos que esses acordos continuarão a render frutos", disse Donelan.

"Mas isso não se trata apenas do que mais as empresas podem fazer, mas também do que mais os países podem fazer", acrescentou. Donelan confirmou que o governo chinês estaria representado em reuniões a serem realizadas no segundo dia da cúpula, nesta quarta-feira (22).

Dan Hendrycks, conselheiro de segurança da xAI, disse que os compromissos voluntários ajudariam a "lançar as bases para uma regulamentação doméstica concreta".

Mas Donelan reiterou a posição do Reino Unido de que ainda é cedo para considerar legislação para impor a segurança da IA.

"Precisamos ter um melhor entendimento dos riscos", disse ela, observando que o governo do Reino Unido ofereceria até 8,5 milhões de libras (R$ 55 milhões) em subsídios para estudar riscos relacionados à IA, como deepfakes e ataques cibernéticos.

Ela acrescentou que se o governo do Reino Unido tivesse iniciado a legislação sobre o assunto no ano passado, "quando fosse lançada, provavelmente estaria desatualizada".

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.