Sam Altman: OpenAI esteve do lado errado da história em relação ao código aberto

Para encerrar um dia de lançamentos de produtos, pesquisadores, engenheiros e executivos da OpenAI, incluindo o CEO da OpenAI, Sam Altman, responderam a perguntas em um Reddit AMA abrangente na sexta-feira.

A OpenAI se encontra em uma posição um pouco delicada. Ela está lutando contra a percepção de que está cedendo terreno na corrida de IA para empresas chinesas como a DeepSeek, que a OpenAI alega ter roubado sua propriedade intelectual. O fabricante do ChatGPT tem tentado fortalecer seu relacionamento com Washington e simultaneamente seguir um ambicioso projeto de centro de dados, enquanto supostamente lança as bases para uma das maiores rodadas de financiamento da história.

Altman admitiu que a DeepSeek diminuiu a vantagem da OpenAI em IA, e ele disse acreditar que a OpenAI esteve "do lado errado da história" no que diz respeito à abertura de suas tecnologias. Enquanto a OpenAI já disponibilizou modelos de código aberto no passado, a empresa geralmente favoreceu uma abordagem de desenvolvimento proprietária e fechada.

'[Pessoalmente, acho que precisamos] descobrir uma estratégia de código aberto diferente,' disse Altman. 'Não todos na OpenAI compartilham dessa visão, e também não é nossa prioridade atual... Produziremos melhores modelos [no futuro], mas manteremos menos vantagem do que tínhamos nos anos anteriores.'

Em uma resposta de acompanhamento, Kevin Weil, diretor de produtos da OpenAI, disse que a OpenAI está considerando disponibilizar modelos mais antigos que não sejam mais de última geração. 'Definitivamente, pensaremos em fazer mais disso,' disse ele, sem entrar em mais detalhes.

Além de levar a OpenAI a reconsiderar sua filosofia de lançamento, Altman disse que a DeepSeek tem levado a empresa a potencialmente revelar mais sobre como seus modelos de raciocínio, como o modelo o3-mini lançado hoje, mostram seu 'processo de pensamento.' Atualmente, os modelos da OpenAI ocultam seu raciocínio, uma estratégia destinada a evitar que concorrentes coletem dados de treinamento para seus próprios modelos. Em contraste, o modelo de raciocínio da DeepSeek, R1, mostra toda sua cadeia de pensamento.

'Estamos trabalhando para mostrar muito mais do que mostramos hoje - [mostrar o processo de pensamento do modelo] será muito em breve,' acrescentou Weil. 'A ser determinado em tudo - mostrar toda a cadeia de pensamento leva à destilação competitiva, mas também sabemos que as pessoas (pelo menos os usuários avançados) querem isso, então encontraremos a maneira certa de equilibrar.'

Altman e Weil tentaram dissipar os rumores de que o ChatGPT, a plataforma de chatbot através da qual a OpenAI lança muitos de seus modelos, aumentaria de preço no futuro. Altman disse que gostaria de tornar o ChatGPT 'mais barato' com o tempo, se possível.

Altman afirmou anteriormente que a OpenAI estava perdendo dinheiro em seu plano mais caro do ChatGPT, o ChatGPT Pro, que custa $200 por mês.

Em um tópico um pouco relacionado, Weil disse que a OpenAI continua a ver evidências de que mais poder computacional leva a modelos 'melhores' e mais performáticos. Isso é em grande parte o que está exigindo projetos como o Stargate, o projeto de centro de dados maciço anunciado recentemente pela OpenAI, disse Weil. O atendimento a uma base de usuários em crescimento está alimentando a demanda por computação dentro da OpenAI também, continuou ele.

Perguntado sobre a auto-melhoria recorrente que poderia ser habilitada por esses modelos poderosos, Altman disse que acha mais plausível um 'descolamento rápido' do que ele acreditava anteriormente. A auto-melhoria recorrente é um processo em que um sistema de IA poderia melhorar sua própria inteligência e capacidades sem intervenção humana.

É claro que vale a pena notar que Altman é conhecido por prometer demais. Não foi há muito tempo que ele baixou a barra da OpenAI para AGI.

Um usuário do Reddit perguntou se os modelos da OpenAI, auto-melhoradores ou não, seriam usados para desenvolver armas destrutivas - especificamente armas nucleares. Esta semana, a OpenAI anunciou uma parceria com o governo dos EUA para disponibilizar seus modelos para os Laboratórios Nacionais dos EUA em parte para pesquisa de defesa nuclear.

Weil disse que confia no governo.

'Conheci esses cientistas e eles são especialistas em IA, além de pesquisadores de classe mundial,' disse ele. 'Eles entendem o poder e os limites dos modelos, e não acho que haja qualquer chance de eles apenas colocarem alguma saída do modelo em um cálculo nuclear. Eles são inteligentes e baseiam-se em evidências, e fazem muita experimentação e trabalho de dados para validar todo o seu trabalho.'

A equipe da OpenAI foi questionada sobre várias questões de natureza mais técnica, como quando o próximo modelo de raciocínio da OpenAI, o3, será lançado ('mais do que algumas semanas, menos do que alguns meses,' disse Altman); quando o próximo modelo principal 'não de raciocínio' da empresa, GPT-5, poderá ser lançado ('ainda não temos um cronograma,' disse Altman); e quando a OpenAI poderá revelar um sucessor do DALL-E 3, o modelo gerador de imagens da empresa. O DALL-E 3, que foi lançado cerca de dois anos atrás, está ficando obsoleto. A tecnologia de geração de imagens melhorou consideravelmente desde a estreia do DALL-E 3, e o modelo não é mais competitivo em vários testes de referência.

'Sim! Estamos trabalhando nisso,' disse Weil sobre um acompanhamento do DALL-E 3. 'E acho que vai valer a pena esperar.'