Helen Toner, ex-membro do conselho da OpenAI, que ajudou a demitir o CEO Sam Altman em novembro, quebrou o silêncio esta semana quando falou em um podcast sobre os eventos dentro da empresa que levaram à demissão de Altman.
Um exemplo que ela compartilhou: Quando a OpenAI lançou o ChatGPT em novembro de 2022, o conselho não foi informado com antecedência e descobriu no Twitter. Toner também disse que Altman não disse ao conselho que era dono do fundo inicial OpenAI.
Altman foi renomeado como CEO menos de uma semana depois de ter sido demitido, mas os comentários de Toner dão uma ideia da decisão pela primeira vez.
“O conselho é um conselho sem fins lucrativos que foi criado explicitamente com o propósito de garantir que a missão de bem público da empresa fosse primária, viesse em primeiro lugar – acima dos lucros, interesses dos investidores e outras coisas”, disse Toner em “O programa TED AI“podcast lançado na terça-feira.
“Mas durante anos, Sam tornou muito difícil para o conselho realizar esse trabalho, retendo informações, deturpando coisas que estavam acontecendo na empresa e, em alguns casos, mentindo abertamente para o conselho”, disse ela.
Toner disse que Altman deu ao conselho “informações imprecisas sobre o pequeno número de processos formais de segurança que a empresa tinha em vigor” em várias ocasiões.
“Para qualquer caso individual, Sam sempre pode apresentar algum tipo de explicação aparentemente inócua sobre por que não foi grande coisa, ou foi mal interpretado, ou algo assim”, disse Toner. “Mas o efeito final foi que, depois de anos desse tipo de coisa, todos nós quatro que o demitimos chegamos à conclusão de que simplesmente não podíamos acreditar nas coisas que Sam estava nos contando, e esse é um lugar completamente impraticável para se estar. como conselho – especialmente um conselho que deveria fornecer supervisão independente sobre a empresa, e não apenas ajudar o CEO a arrecadar mais dinheiro.”
Toner explicou que o conselho trabalhou para melhorar as questões. Ela disse que, em outubro, um mês antes da demissão, o conselho conversou com dois executivos que relataram experiências com Altman que não se sentiam confortáveis em compartilhar antes, incluindo capturas de tela e documentação de interações problemáticas e inverdades.
“Os dois de repente começaram a nos contar… como não podiam confiar nele, sobre a atmosfera tóxica que ele estava criando”, disse Toner. “Eles usaram a frase ‘abuso psicológico’, dizendo-nos que não achavam que ele era a pessoa certa para liderar a empresa até a AGI, dizendo-nos que não acreditavam que ele pudesse ou iria mudar.”
Inteligência geral artificial, ou AGI, é um termo amplo que se refere a um tipo de inteligência artificial que supera as habilidades humanas em várias tarefas cognitivas.
Um porta-voz da OpenAI não estava imediatamente disponível para comentar.
No início deste mês, a OpenAI dissolveu sua equipe focada nos riscos de longo prazo da IA, um ano depois de a empresa anunciar o grupo. A notícia veio dias depois de ambos os líderes de equipe, o cofundador da OpenAI Ilya Sutskever e Jan Leike, anunciarem suas saídas da startup apoiada pela Microsoft. Leike, que desde então anunciou que está se juntando ao concorrente de IA Anthropic, escreveu na sexta-feira que “a cultura e os processos de segurança da OpenAI ficaram em segundo plano em relação aos produtos brilhantes”.
Os comentários de Toner e as saídas de alto nível seguem a crise de liderança do ano passado.
Em novembro, o conselho da OpenAI demitiu Altman, dizendo que havia conduzido “um processo de revisão deliberativa” e que Altman “não era consistentemente sincero em suas comunicações com o conselho, prejudicando sua capacidade de exercer suas responsabilidades”.
“O conselho não confia mais em sua capacidade de continuar liderando a OpenAI”, afirmou.
Jornal de Wall Street e outros meios de comunicação relataram que, embora Sutskever treinasse seu foco para garantir que a inteligência artificial não prejudicasse os humanos, outros, incluindo Altman, estavam mais ansiosos para avançar com o fornecimento de novas tecnologias.
A remoção de Altman gerou demissões e ameaças de demissões, incluindo uma carta aberta assinada por praticamente todos os funcionários da OpenAI, e alvoroço de investidores, incluindo a Microsoft. Em uma semana, Altman estava de volta e os membros do conselho Toner e Tasha McCauley, que votaram pela destituição de Altman, foram eliminados. Sutskever renunciou ao seu assento no conselho e permaneceu na equipe até anunciar sua saída em 14 de maio. Adam D’Angelo, que também votou pela destituição de Altman, permanece no conselho.
Em março, a OpenAI anunciou seu novo conselho, que inclui Altman, e a conclusão de uma investigação interna do escritório de advocacia WilmerHale sobre os eventos que levaram à demissão de Altman.
A OpenAI não publicou o relatório de investigação da WilmerHale, mas resumiu suas descobertas.
“A revisão concluiu que houve uma quebra significativa de confiança entre o conselho anterior e Sam e Greg”, disse o presidente do conselho da OpenAI, Bret Taylor, na época, referindo-se ao presidente e cofundador Greg Brockman. A revisão também “concluiu que o conselho agiu de boa fé… [and] não previu parte da instabilidade que se seguiu”, acrescentou Taylor.