‘Respostas inaceitáveis’, diz CEO do Google sobre erros raciais do chatbot Gemini

28/fev 15:14
Por Alice Labate / Estadão

Na última semana, o Google enfrentou críticas após o chatbot de inteligência artificial (IA) da empresa, Gemini, gerar imagens e textos historicamente e racialmente imprecisos. Nesta semana, o CEO da companhia, Sundar Pichai, emitiu comunicado interno no qual chama as respostas de “inaceitáveis”.

Segundo o site The Verge, que teve acesso ao documento, Pichai afirmou que as respostas do chatbot “ofenderam nossos usuários e mostraram viés”, considerando essa conduta “completamente inaceitável”.

Após o caso ganhar repercussão, a companhia interrompeu a capacidade do Gemini de gerar imagens. Entre os problemas identificados estavam representações racialmente diversas de soldados alemães da era nazista, fundadores dos EUA não brancos e até mesmo imprecisões na representação das raças dos próprios cofundadores do Google. O caso vem sendo explorado pela direita americana, que acusa as gigantes da tecnologia de terem viés progressista.

No memorando, Pichai expressou o compromisso da empresa em resolver os problemas, destacando que as equipes têm trabalhado incessantemente para corrigir as respostas problemáticas. Embora reconheça que nenhuma IA seja “perfeita”, ele prometeu continuar trabalhando até que o problema seja resolvido.

Após o caso ganhar repercussão, a companhia interrompeu a capacidade do Gemini de gerar imagens. Entre os problemas identificados estavam representações racialmente diversas de soldados alemães da era nazista, fundadores dos EUA não brancos e até mesmo imprecisões na representação das raças dos próprios cofundadores do Google. O caso vem sendo explorado pela direita americana, que acusa as gigantes da tecnologia de terem viés progressista.

No memorando, Pichai expressou o compromisso da empresa em resolver os problemas, destacando que as equipes têm trabalhado incessantemente para corrigir as respostas problemáticas. Embora reconheça que nenhuma IA seja “perfeita”, ele prometeu continuar trabalhando até que o problema seja resolvido.

Além disso, Pichai reforçou uma série de ações que estão aplicando para reverter a situação, “incluindo “mudanças estruturais, diretrizes de produtos atualizadas, processos de lançamento aprimorados, avaliações robustas e equipes vermelhas, além de recomendações técnicas”. Ele também ressaltou a importância de manter a missão da empresa de fornecer informações precisas e imparciais, reafirmando o compromisso com a excelência na entrega de produtos confiáveis aos usuários.

Enquanto enfrenta desafios, Pichai também destacou avanços recentes em IA e encerrou o memorando reforçando o foco da empresa em criar produtos úteis e confiáveis, dignos da confiança dos usuários, enquanto continua a explorar o potencial da IA em benefício da sociedade.

O desgaste causado pelo caso reforçam os temores mais profundos do Google de tornar públicos chatbots de IA generativa. A companhia já desenvolvia a tecnologia antes mesmo da OpenAI tornar público o ChatGPT, mas temia que erros nas respostas pudessem arranhar a imagem da empresa.

Em 2022, a companhia precisou enfrentar o caso Blake Lemoine, engenheiro que afirmava que uma IA generativa do Google tinha desenvolvido consciência. Após demitir o funcionário, o Google reforçou a ideia de que não deveria divulgar tão cedo ferramentas do tipo, mas o sucesso do ChatGPT no último ano sugou a gigante para a competição – desde então, a empresa afirma que desenvolve IA “com responsabilidade”. O refrão é uma tentativa de gerar contraste com a OpenAI, que, na visão do Google, teria sido irresponsável ao tornar o ChatGPT público.

*Alice Labate é estagiária sob supervisão do editor Bruno Romani

Últimas