Ontem(30/09), a OpenAI surpreendeu o mercado com o lançamento do Sora 2, sua segunda geração de modelo de vídeo com inteligência artificial, acompanhado de um app dedicado que promete revolucionar a forma como criamos e interagimos com conteúdo audiovisual.
O que mudou?
Se você testou os primeiros modelos de geração de vídeo com IA, sabe que as limitações eram evidentes: física inconsistente, movimentos estranhos e falta de realismo. O Sora 2 representa um salto qualitativo significativo:
Física realista: Uma bola de basquete que erra a cesta agora realmente quica no aro ou no vidro de forma convincente. A ginasta executando um salto mortal demonstra flutuação e rigidez corporal fiéis ao mundo real.
Áudio sincronizado: Cada cena ganha vida com som gerado automaticamente, perfeitamente sincronizado com as imagens.
Controle aprimorado: O nível de precisão e consistência nas gerações alcançou um patamar inédito.
O Sora 2 traz física, realismo e controle em um novo nível:
👉 A bola de basquete erra a cesta? Ela realmente quica no aro ou no vidro.
👉 Uma ginasta faz um salto mortal em uma prancha? A flutuação e a rigidez funcionam como no mundo real.
👉 E agora, com áudio sincronizado, cada cena ganha ainda mais vida.
O lançamento vem junto com o novo app do Sora, onde você pode criar, remixar e até se colocar dentro de mundos gerados por IA através dos “cameos”.
Não é só geração de vídeo melhorada é um passo rumo à simulação de mundos completos: ambientes de treino onde agentes de IA (e talvez robôs) aprendem com erros e acertos.
Estamos mais próximos do que nunca de uma internet em que você não apenas assiste às histórias… você entra dentro delas.
Qual vai ser a primeira coisa que você vai criar por lá?
E pelos seus testes, o que está melhor, Sora2 ou Google Veo3? 👀