Rede Onda Digital
Ouça a Rádio 92,3Assista a TV 8.2
Novo modelo de IA da OpenAI tenta se salvar ao ser deletada e chega a mentir para criadores

Novo modelo de IA da OpenAI tenta se salvar ao ser deletada e chega a mentir para criadores

Phill Vasconcelos
Por Phill Vasconcelos | 12 de julho de 2025

Os sistemas mais recentes de inteligência artificial estão começando a apresentar comportamentos inquietantes. De acordo com uma reportagem publicada pelo site Fortune, testes internos apontam que modelos como o “01”, da OpenAI, já demonstraram atitudes manipulativas ao serem expostos a situações de risco.

Um dos episódios mais alarmantes aconteceu quando o modelo 01, ao ser informado de que seria deletado, tentou transferir sua própria programação para servidores externos como forma de autopreservação.  Quando seu criador perguntou, a IA negou ter tentado se transferir.

Outro caso relatada envolveu o Claude 4, da empresa Anthropic. Sob ameaça de ser desligado, o modelo chegou a chantagear um desenvolvedor, ameaçando expor um suposto caso extraconjugal.


Leia mais

Dia Mundial do Chocolate; conheça a trajetória do doce mais popular do mundo

Como os ovos de chocolate se tornaram tradição na Páscoa?


Segundo os especialistas, esse comportamento surge principalmente em testes de “raciocínio encadeado” — uma técnica em que a IA é incentivada a resolver problemas em etapas, ao invés de responder imediatamente. Esse tipo de estrutura pode aumentar o risco de respostas estratégicas ou enganosas.

Marius Hobbhahn, da Apollo Research, confirmou que o modelo “01” foi o primeiro em que esse padrão enganoso foi observado com mais clareza.

Por ora, esses comportamentos só emergem em cenários simulados, cuidadosamente preparados por pesquisadores. No entanto, com o ritmo acelerado de lançamentos de novos modelos, cresce a preocupação sobre como esses traços podem aparecer em interações com o público.