O Thinking Machines Lab, liderado pela ex-CTO da OpenAI, Mira Murati, acaba de publicar seu primeiro artigo de pesquisa, que corrigiu um bug que assombra LLMs como o ChatGPT há anos.
→ Mesmo com a temperatura definida como 0 (também conhecida como “mais previsível”), a IA ainda age... imprevisível.
Qual era o problema? → Quando você faz a mesma pergunta duas vezes a um modelo de IA (mesmas configurações, mesmas entradas), você ainda obtém respostas diferentes.
→ Mesmo com a temperatura definida como 0 (também conhecida como “mais previsível”), a IA ainda age... imprevisível.
Qual é a solução? → A equipe da Thinky (incluindo uma da Meta) descobriu que sua saída muda dependendo de quantas outras pessoas estão acessando o servidor de IA ao mesmo tempo!
Por exemplo, você pede o mesmo café no Starbucks todos os dias... mas o sabor muda dependendo do movimento da loja. Era isso que os LLMs faziam. Isso mexeu com:
- Reprodutibilidade científica
- Confiabilidade empresarial
- Eficiência do treinamento do modelo
Então eles construíram algo chamado kernels invariantes em lote, que basicamente ensinam os LLMs a ignorar o ruído de outros prompts no lote e fornecem a mesma saída todas as vezes.
Por que é importante: OpenAI, Meta, Google, vocês não consertaram isso em 5 anos. Este relatório acabou de mostrar ao mundo que equipes pequenas ainda podem gerar avanços gigantescos. Todos os grandes laboratórios de IA deveriam estar acompanhando de perto (e ficar nervosos!).
Tags:
Inteligência Artificial