Openai lança GPT-5.5 ao público e o compara a rival 'perigoso' da Anthropic, acendendo debate sobre segurança de IA

Sebastien Bozon/AFP
Sebastien Bozon/AFP

A corrida pela supremacia na inteligência artificial (IA) ganha novos contornos com o recente lançamento do GPT-5.5 pela OpenAI. A empresa, criadora do popular ChatGPT, não apenas disponibilizou seu novo modelo ao público, mas também o comparou diretamente ao Mythos, da concorrente Anthropic, um sistema que foi considerado “poderoso demais para ser liberado” e mantido restrito a um grupo seleto de empresas. Essa decisão da OpenAI reacende o debate sobre o equilíbrio entre inovação, acesso e os potenciais riscos da IA avançada, especialmente no campo da cibersegurança.

O presidente da OpenAI, Greg Brockman, destacou em entrevista coletiva a crença da empresa em “empoderar as pessoas com IA”. O GPT-5.5 já está integrado ao ChatGPT e ao Codex, a plataforma de programação e automação da companhia, com a API (interface de programação de aplicações) prevista para os próximos dias. A movimentação da OpenAI contrasta com a postura mais cautelosa da Anthropic, que optou por limitar o acesso ao seu modelo mais avançado, o Mythos, a apenas 40 grandes empresas americanas, incluindo gigantes da tecnologia e instituições financeiras.

O dilema da cibersegurança e a inteligência artificial

A principal comparação entre os modelos reside na capacidade de encontrar falhas de segurança. Em um teste específico de habilidade em cibersegurança, o Mythos da Anthropic alcançou uma pontuação de 83,1%. O GPT-5.5, por sua vez, registrou 81,8%, tornando-se o modelo amplamente disponível com a pontuação mais alta nesse quesito. Essa proximidade de desempenho levanta questões cruciais sobre o uso e a responsabilidade no desenvolvimento de IAs com potencial para identificar vulnerabilidades.

A preocupação com a cibersegurança é latente. Modelos de IA tão poderosos podem ser ferramentas valiosas para empresas reforçarem suas defesas digitais, mas também representam um risco significativo se caírem nas mãos erradas, podendo ser explorados por criminosos para encontrar brechas em sistemas críticos. Essa dualidade impõe um desafio ético e prático para as empresas desenvolvedoras e para os formuladores de políticas públicas.

A estratégia da OpenAI: empoderamento com mitigações

A OpenAI afirma ter trabalhado por dois anos em um processo gradual para garantir o lançamento seguro do GPT-5.5. A empresa colabora com especialistas independentes para identificar e mitigar riscos em áreas sensíveis, como armas biológicas e, evidentemente, cibersegurança. Embora o público geral tenha acesso a uma versão com capacidades limitadas em atividades ligadas à segurança cibernética, empresas especializadas no setor podem solicitar acesso a uma versão sem restrições da tecnologia desde 8 de fevereiro.

“O Mythos é um modelo permissivo em termos de cibersegurança. O modelo que estamos lançando tem mitigações, não é um modelo permissivo”, declarou a OpenAI. Essa distinção é fundamental e reflete a tentativa da empresa de equilibrar a abertura da tecnologia com a responsabilidade de conter seus potenciais usos maliciosos. A abordagem da OpenAI sugere uma aposta na capacidade de controle e na colaboração com o setor para gerenciar os riscos inerentes a essas ferramentas.

A posição da Anthropic e o alerta de riscos

A Anthropic, por outro lado, adotou uma postura mais conservadora. Em 8 de abril, a empresa anunciou ter desenvolvido um “sistema poderoso demais para ser liberado ao público”, referindo-se ao Mythos. Logan Graham, chefe de uma equipe da Anthropic que testa novos modelos em busca de capacidades perigosas, descreveu o Mythos como “o ponto de partida para o que acreditamos ser uma virada na indústria”.

O executivo brasileiro Mike Krieger, que lidera o laboratório de ponta da Anthropic, explicou que a startup percebeu os riscos de seu novo modelo avançado e optou por “dar um passo atrás para preparar o mundo para esse desafio”. Essa cautela da Anthropic sublinha a seriedade com que algumas empresas de IA encaram o potencial destrutivo de suas criações, mesmo que isso signifique limitar o acesso a uma tecnologia revolucionária. A decisão da Anthropic gerou um alerta entre formuladores de políticas públicas sobre os riscos que uma IA avançada representa para a cibersegurança global.

Repercussão e o futuro da inteligência artificial

A liberação do GPT-5.5 pela OpenAI, com suas capacidades avançadas de cibersegurança e a comparação explícita com o modelo restrito da Anthropic, intensifica a discussão sobre a governança da inteligência artificial. A presidente do Banco Central Europeu, por exemplo, já havia alertado para os perigos de uma IA avançada. O cenário atual demonstra que, enquanto a inovação avança a passos largos, a necessidade de regulamentação e de um debate ético aprofundado se torna cada vez mais urgente para garantir que essas tecnologias sejam usadas para o bem da humanidade.

Para aprofundar-se nos desenvolvimentos mais recentes do setor de tecnologia e inteligência artificial, continue acompanhando as análises e notícias do Daniel Nunes. Nosso portal está comprometido em trazer informação relevante, atual e contextualizada, ajudando você a entender os impactos dessas transformações no Brasil e no mundo.

Fonte: redir.folha.com.br

Artigos Relacionados

🔥 EM ALTA

Tem uma ideia ou startup?

Transforme sua ideia em realidade com o Método ISTARTEI!

Conheça o método!
Proteção Legal

Só o registro no INPI protege a sua marca, o que acha?

Garanta a propriedade da sua marca e evite problemas jurídicos. Registro válido por 10 anos em todo território nacional.