Defendemos neste artigo o "sim" à pergunta proposta. Mas, especificamente em relação à carta do instituto Future of Life —assinada por um grupo de especialistas e executivos da indústria de tecnologia que pede uma pausa de seis meses nos treinamentos de sistemas de inteligência artificial (IA)—, trata-se de um "sim" tortuoso e acompanhado de muitas ressalvas e suspeitas.
Pode ser o momento de reformular essa questão.
Um modelo de linguagem grande, a tecnologia por trás do ChatGPT e de outras aplicações de IA generativa (que são a nova hype do momento) traz benefícios e riscos significativos à sociedade. Foquemos nos riscos: 1 - maior automatização da geração de conteúdo desinformativo; limitação da oferta de informações diversas; vieses discriminatórios negativos; violação de direitos autorais; capacidade de enganar e manipular indivíduos; altos custos energéticos; e por aí vai.
A carta da Future of Life, apesar de ser uma reação a esses impactos, parece, entretanto, concentrar seus medos apenas em futuros desenvolvimentos, uma vez que pede um freio ao avanço dessas tecnologias. E é nesse teor futurista, meio "Exterminador do Futuro", que mora o perigo. Afinal, o ChatGPT já apresenta problemas sociais —e provavelmente também ambientais— relevantes. E isso considerando que ele é apenas um tipo de sistema de inteligência artificial.
Usamos mídias sociais que direcionam conteúdo (muitas vezes desinformativo) por meio de algoritmos de IA. Governos e empresas adotam exponencialmente sistemas de reconhecimento facial que induzem diversas prisões injustas, principalmente de pessoas negras.
Ou seja, ainda que importe sim temer sistemas futuros, precisamos regular tecnologias que já nos prejudicam —muitas vezes sem nos darmos conta. Assim, é fundamental atentar para que movimentos como o da carta citada não criem mais cortinas de fumaça para que temamos apenas o hipotético futuro da IA e fiquemos cegos para encontrar soluções ao que ocorre agora.
Não é à toa que, no contexto internacional, temos diversas diretrizes para o uso ético da IA, como no âmbito da OCDE e da Unesco, e iniciativas legislativas como as da China e da União Europeia. No Brasil, pesquisadores e organizações da sociedade civil, inclusive a Coalizão Direitos na Rede, têm defendido a regulação desses sistemas há anos.
Em resposta, uma comissão de juristas foi formada no Senado para criar uma nova redação ao projeto de lei 21/2020, cujo texto atual é frágil por apresentar apenas diretrizes principiológicas que não resolvem os problemas listados acima.
O texto da comissão, entregue em dezembro de 2022, ainda não foi pautado, mas é fundamental que o seja e que as discussões que fomente tenham significativa diversidade de gênero, regional e étnica.
Esse contexto mostra que, mesmo que já existam diretrizes internacionais e debates regulatórios buscando um uso ético e responsável da IA, seu desenvolvimento continua avançando de forma irresponsável.
Criar e garantir o cumprimento de regras concretas e adequadas é fundamental para combater não só o desenvolvimento dessas tecnologias como os mecanismos atrelados a elas —que permitem maior concentração de poder nas mãos de corporações, cujos interesses econômicos têm sido impostos sobre toda a sociedade pelos impactos de suas ferramentas.
Portanto, nosso "sim" aqui não é um apoio à carta, mas a que repensemos a existência dessas tecnologias e as dinâmicas de poder que as circundam. Nossos esforços devem ser para que possamos implementar padrões éticos e regular esses sistemas de imediato em um diálogo que envolva os grupos mais por eles afetados.
TENDÊNCIAS / DEBATES
Os artigos publicados com assinatura não traduzem a opinião do jornal. Sua publicação obedece ao propósito de estimular o debate dos problemas brasileiros e mundiais e de refletir as diversas tendências do pensamento contemporâneo.
Comentários
Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.