OpenAI começa a treinar o próximo modelo de IA enquanto revê a 'superinteligência'

Empresa parece recuar da ideia de construir algo 'mais inteligente que os humanos' depois da saída de vários pesquisadores de segurança este mês

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Cristina Criddle
Londres | Financial Times

A OpenAI informou que deu início ao treino do seu software de inteligência artificial de próxima geração, apesar de a start-up voltar atrás em alegações anteriores de que iria construir sistemas "superinteligentes" que fossem mais inteligentes que os humanos.

A empresa com sede em São Francisco disse nesta terça-feira (28) que começou a produzir um novo sistema de IA "para nos levar ao próximo nível de capacidades" e que o seu desenvolvimento seria supervisionado por um novo comitê de segurança e proteção.

Apesar de estar avançando com o desenvolvimento da inteligência artificial, uma executiva sênior da OpenAI pareceu recuar em comentários anteriores do presidente-executivo da companhia, Sam Altman, de que o seu objetivo final era construir uma "superinteligência" muito mais avançada do que os humanos.

Homem branco, de cabelo castanhos e pele clara, diante de um fundo preto onde se lê em branco OpenAI
O CEO da OpenAI, Sam Altman, que vai encabeçar o novo comitê de segurança e proteção. - Jason Redmond / AFP

Anna Makanju, vice-presidente de assuntos globais da OpenAI, disse ao Financial Times que a sua "missão" era construir inteligência artificial geral capaz de "tarefas cognitivas que são o que um ser humano poderia fazer hoje."

"Nossa missão é construir AGI [inteligência artificial geral, na sigla em inglês]. Eu não diria que a nossa missão é construir superinteligência", disse Makanju. "A superinteligência é uma tecnologia que será muito mais inteligente do que os seres humanos na Terra."

Já Sam Altman disse ao FT em novembro que passava metade do seu tempo pesquisando "como construir superinteligência."

Ao mesmo tempo em que evita a concorrência da Gemini, do Google, e da start-up xAI, de Elon Musk , a OpenAI está tentando tranquilizar os legisladores de que está priorizando o desenvolvimento responsável de IA, depois que vários pesquisadores seniores de segurança se demitiram este mês.

O novo comitê será liderado por Altman e pelos membros do conselho de administração Bret Taylor, Adam D'Angelo e Nicole Seligman, e se reportará aos três membros restantes do conselho.

A empresa não disse o que a continuação do GPT-4 –que alimenta seu aplicativo ChatGPT e recebeu uma grande atualização há duas semanas– poderia fazer ou quando seria lançado.

No início deste mês, a OpenAI dissolveu a equipe chamada de "superalinhamento" –encarregada de focar na segurança de sistemas potencialmente superinteligentes–, depois que Ilya Sutskever, líder da equipe e cofundador da empresa, se demitiu.

A saída de Sutskever ocorreu meses depois de ele ter liderado um golpe chocante contra Altman em novembro, que acabou não tendo sucesso.

O encerramento da equipe de superalinhamento resultou na saída de vários funcionários da empresa, incluindo Jan Leike, outro pesquisador sênior de segurança de IA.

Anna Makanju enfatizou que o trabalho sobre as "possibilidades de longo prazo" da IA ainda está sendo feito, "mesmo que de maneira teórica."

"AGI ainda não existe", acrescentou Makanju, e disse que tal tecnologia não seria lançada até que fosse segura.

O treinamento é a etapa principal na forma como um modelo de inteligência artificial aprende, valendo-se de um enorme volume de dados e informações que lhe são fornecidos. Depois de digerir os dados e melhorar seu desempenho, o modelo é validado e testado antes de ser implantado em produtos ou aplicativos.

Este processo demorado e altamente técnico significa que o novo modelo da OpenAI pode demorar muitos meses para se tornar um produto tangível.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.