OpenAI está voltando sua atenção para 'superinteligência'

Em uma postagem em seu blog pessoal, o CEO da OpenAI, Sam Altman, disse que acredita que a OpenAI 'sabe como construir [inteligência artificial geral]' como a empresa tradicionalmente a entendeu e está começando a direcionar seu objetivo para 'superinteligência'.

“Nós amamos nossos produtos atuais, mas estamos aqui pelo glorioso futuro”, escreveu Altman na postagem. “Ferramentas superinteligentes poderiam acelerar massivamente a descoberta científica e a inovação muito além do que somos capazes de fazer sozinhos, e, por sua vez, aumentar massivamente a abundância e a prosperidade.”

Altman disse anteriormente que a superinteligência poderia estar a “alguns milhares de dias” de distância, e que sua chegada seria “mais intensa do que as pessoas pensam”.

AGI, ou inteligência artificial geral, é um termo nebuloso, mas a OpenAI tem sua própria definição: “sistemas altamente autônomos que superam os humanos na maioria do trabalho economicamente valioso.” A OpenAI e a Microsoft, colaboradora e investidora próxima da startup, também têm uma definição de AGI: sistemas de IA que podem gerar pelo menos US$ 100 bilhões em lucros. Quando a OpenAI alcançar isso, a Microsoft perderá o acesso à sua tecnologia, de acordo com um acordo entre as duas empresas.

Qual definição Altman poderia estar se referindo? Ele não especificou, mas a primeira parece a mais provável. Altman escreveu que ele acha que agentes de IA — sistemas de IA que podem executar determinadas tarefas autonomamente — podem “entrar na força de trabalho”, por assim dizer, e “mudar substancialmente a produção das empresas” este ano.

“Continuamos a acreditar que colocar iterativamente ótimas ferramentas nas mãos das pessoas leva a grandes resultados amplamente distribuídos”, ele escreveu.

É possível, mas também é verdade que a tecnologia de IA de hoje é significativamente limitada. Ela alucina, por um lado; ela comete erros óbvios para qualquer humano; e pode ser muito cara.

Altman parece confiante de que tudo isso pode ser superado — e rapidamente. Ainda assim, se há algo que aprendemos sobre IA nos últimos anos, é que os cronogramas podem mudar.

“Estamos bastante confiantes de que nos próximos anos, todos verão o que vemos, e que a necessidade de agir com grande cuidado, ao mesmo tempo em que maximiza o amplo benefício e o empoderamento, é tão importante”, escreveu Altman. “Dadas as possibilidades de nosso trabalho, a OpenAI não pode ser uma empresa normal. Como é sortudo e humilde poder desempenhar um papel nesse trabalho.”

Espera-se que, à medida que a OpenAI antecipa sua mudança de foco para o que considera ser superinteligência, a empresa dedique recursos suficientes para garantir que sistemas superinteligentes se comportem de forma segura.

A OpenAI já escreveu várias vezes sobre como fazer uma transição bem-sucedida para um mundo com superinteligência está “longe de ser garantido” e que não tem todas as respostas. “Não temos uma solução para direcionar ou controlar uma IA potencialmente superinteligente e impedir que ela se torne hostil”, escreveu a empresa em uma postagem datada de julho de 2023. “[N]ão seremos capazes de supervisionar de forma confiável os sistemas de IA muito mais inteligentes do que nós, e portanto, nossas técnicas atuais de alinhamento não escalarão para a superinteligência.”

No entanto, desde aquela postagem, a OpenAI dissolveu equipes focadas na segurança da IA, incluindo a segurança de sistemas superinteligentes, e viu vários pesquisadores influentes focados na segurança saírem. Vários desses funcionários citaram as ambições comerciais crescentes da OpenAI como o motivo de sua saída. A empresa está passando por uma reestruturação corporativa para torná-la mais atraente para investidores externos.

Perguntado em uma entrevista recente sobre críticos que dizem que a OpenAI não está focada o suficiente em segurança, Altman respondeu: “Apontaria para nosso histórico”.