Um grupo de atuais e ex-funcionários de empresas líderes de IA como OpenAI, Google DeepMind e Anthropic assinou uma carta aberta pedindo maior transparência e proteção contra retaliações para aqueles que falam abertamente sobre as potenciais preocupações da IA. “Enquanto não houver uma supervisão governamental eficaz destas empresas, os actuais e antigos funcionários estarão entre as poucas pessoas que os podem responsabilizar perante o público”, diz a carta, publicada na terça-feira. “No entanto, amplos acordos de confidencialidade impedem-nos de expressar as nossas preocupações, exceto às próprias empresas que podem não estar a abordar estas questões.”
A carta chega apenas algumas semanas depois de um Vox a investigação revelou que a OpenAI tentou amordaçar os funcionários que saíram recentemente, forçando-os a escolher entre assinar um acordo agressivo de não depreciação ou correr o risco de perder o patrimônio adquirido na empresa. Após o relatório, o CEO da OpenAI, Sam Altman, disse que ficou genuinamente envergonhado” pela disposição e afirmou que ela foi removida da documentação de saída recente, embora não esteja claro se ela permanece em vigor para alguns funcionários.
Os 13 signatários incluem os ex-funcionários da OpenAI Jacob Hinton, William Saunders e Daniel Kokotajlo. Kokotajlo disse que se demitiu da empresa depois de perder a confiança de que ela construiria de forma responsável a inteligência artificial geral, um termo para sistemas de IA que são tão ou mais inteligentes que os humanos. A carta – que foi endossada pelos proeminentes especialistas em IA Geoffrey Hinton, Yoshua Bengio e Stuart Russell – expressa graves preocupações sobre a falta de supervisão governamental eficaz para a IA e os incentivos financeiros que levam os gigantes da tecnologia a investir na tecnologia. Os autores alertam que a busca desenfreada por sistemas poderosos de IA pode levar à propagação de desinformação, à exacerbação da desigualdade e até mesmo à perda de controlo humano sobre sistemas autónomos, resultando potencialmente na extinção humana.
“Há muita coisa que não entendemos sobre como esses sistemas funcionam e se eles permanecerão alinhados aos interesses humanos à medida que se tornam mais inteligentes e possivelmente ultrapassam a inteligência de nível humano em todas as áreas”, escreveu Kokotajlo no X. “Enquanto isso, há pouca ou nenhuma supervisão sobre esta tecnologia. Em vez disso, confiamos nas empresas que as constroem para se autogovernarem, mesmo quando os motivos de lucro e o entusiasmo pela tecnologia as levam a “agir rapidamente e quebrar coisas”. Silenciar investigadores e fazê-los temer retaliações é perigoso quando somos atualmente uma das únicas pessoas em posição de alertar o público.”
OpenAI, Google e Anthropic não responderam imediatamente ao pedido de comentários do Engadget. Num comunicado enviado a Bloomberg, um porta-voz da OpenAI disse que a empresa está orgulhosa de seu “histórico de fornecimento dos sistemas de IA mais capazes e seguros” e acredita em sua “abordagem científica para lidar com riscos”. Acrescentou: “Concordamos que um debate rigoroso é crucial dada a importância desta tecnologia e continuaremos a colaborar com governos, sociedade civil e outras comunidades em todo o mundo”.
Os signatários apelam às empresas de IA que se comprometam com quatro princípios fundamentais:
-
Abster-se de retaliar contra funcionários que expressem preocupações de segurança
-
Apoiar um sistema anónimo para denunciantes alertar o público e os reguladores sobre os riscos
-
Permitindo uma cultura de crítica aberta
-
E evitar acordos de não depreciação ou não divulgação que restrinjam os funcionários de se manifestarem
A carta surge em meio ao crescente escrutínio das práticas da OpenAI, incluindo a dissolução de sua equipe de segurança de “superalinhamento” e a saída de figuras-chave como o cofundador Ilya Sutskever e Jan Leike, que criticaram a priorização da empresa de “produtos brilhantes” em detrimento da segurança.