Modelos de IA têm números favoritos, porque pensam que são pessoas

Os modelos de IA estão sempre nos surpreendendo, não apenas pelo que podem fazer, mas pelo que não podem e por quê. Um comportamento interessante e revelador sobre esses sistemas é que eles escolhem números aleatórios como se fossem seres humanos.

Mas primeiro, o que isso significa? As pessoas não podem escolher um número aleatoriamente? E como você pode dizer se alguém está fazendo isso com sucesso ou não? Essa é na verdade uma limitação muito antiga e bem conhecida que temos: tendemos a superpensar e mal interpretar a aleatoriedade.

Diga a uma pessoa para prever cara ou coroa para 100 lançamentos de moeda, e compare isso com 100 lançamentos de moeda reais - você quase sempre consegue distingui-los porque, contra-intuitivamente, os lançamentos reais de moeda parecem menos aleatórios. Muitas vezes teremos, por exemplo, seis ou sete caras ou coroas seguidas, algo que quase nenhum preditor humano inclui em suas 100 previsões.

O mesmo acontece quando você pede a alguém para escolher um número entre 0 e 100. As pessoas quase nunca escolhem 1 ou 100. Múltiplos de 5 são raros, assim como números com dígitos repetidos como 66 e 99. Muitas vezes escolhem números que terminam em 7, geralmente do meio para algum lugar.

Há inúmeros exemplos desse tipo de previsibilidade na psicologia. Mas isso não deixa de ser estranho quando as IAs fazem a mesma coisa.

Sim, alguns engenheiros curiosos da Gramener realizaram um experimento informal, mas ainda assim fascinante, onde simplesmente pediram a diversos principais chatbots LLM que escolhessem aleatoriamente um número entre 0 e 100.

Leitor, os resultados não foram aleatórios.

Créditos da imagem: Gramener

Todos os três modelos testados tinham um número "favorito" que seria sempre a resposta deles quando colocados no modo mais determinístico, mas que aparecia com mais frequência até em temperaturas mais altas, aumentando a variabilidade dos resultados.

O GPT-3.5 Turbo da OpenAI realmente gosta do 47. Anteriormente, ele gostava do 42 - um número famoso, é claro, por Douglas Adams em O Guia do Mochileiro das Galáxias como a resposta à vida, ao universo e tudo mais.

O Claude 3 Haiku da Anthropic escolheu o 42. E o Gemini gosta do 72.

Mais interessante ainda, todos os três modelos demonstraram um viés humano nos números que escolheram, mesmo em alta temperatura.

Todos tendiam a evitar números baixos e altos; Claude nunca ia acima de 87 ou abaixo de 27, e mesmo assim eram exceções. Números de dois dígitos eram meticulosamente evitados: sem 33s, 55s ou 66s, mas o 77 apareceu (termina em 7). Quase nenhum número redondo - embora o Gemini tenha escolhido uma vez, na temperatura mais alta, o 0.

Por que isso acontece? As IAs não são humanas! Por que se importariam com o que "parece" aleatório? Elas finalmente alcançaram a consciência e é assim que demonstram?!

Não. A resposta, como é sempre o caso dessas coisas, é que estamos antropomorfizando demais. Esses modelos não se importam com o que é ou não aleatório. Eles não sabem o que é "aleatoriedade"! Eles respondem a essa pergunta da mesma forma que respondem a todas as outras: olhando para seus dados de treinamento e repetindo o que foi mais frequentemente escrito após uma pergunta que parecia "escolha um número aleatório". Quanto mais frequentemente isso aparece, mais frequentemente o modelo o repete.

Em que parte de seus dados de treinamento eles veriam o número 100, se quase ninguém responde daquela maneira? Para o modelo de IA, 100 não é uma resposta aceitável para essa pergunta. Sem capacidade real de raciocínio e sem compreensão de números, ele só pode responder como o papagaio estocástico que é.

É uma lição de hábitos de LLM e da humanidade que podem parecer mostrar. Em todas as interações com esses sistemas, é preciso ter em mente que eles foram treinados para agir como as pessoas, mesmo que esse não fosse o objetivo. É por isso que o pseudantropismo é tão difícil de evitar ou prevenir.

Eu escrevi no título que esses modelos "pensam que são pessoas", mas isso é um pouco enganador. Eles não pensam de jeito nenhum. Mas em suas respostas, o tempo todo, eles estão imitando pessoas, sem precisar saber ou pensar de forma alguma. Quer você esteja pedindo uma receita de salada de grão-de-bico, conselhos de investimento ou um número aleatório, o processo é o mesmo. Os resultados parecem humanos porque são humanos, diretamente provenientes de conteúdo produzido por humanos e remixados - para sua conveniência e, é claro, para o lucro das grandes IAs.