Um novo modelo de segurança baseado em IA surgiu. O Projeto Glasswing indica um movimento claro de que as mesmas capacidades que tornam os modelos de IA perigosos em mãos erradas também os tornam indispensáveis para identificar e corrigir falhas em sistemas críticos.
Falar de IA apenas como “arma do atacante” é uma visão incompleta. Porque, na prática, ela também amplia a capacidade de defesa, especialmente na velocidade de resposta e análise de cenários complexos.
No entanto, o avanço não elimina o desafio central. Hoje, ataques evoluem em questão de minutos, em alguns casos, segundos. O tempo entre acesso inicial e movimentação lateral já é inferior a uma hora, sem automação sua equipe de segurança não consegue acompanhar o ritmo.
O ponto central deste artigo é simples: se as maiores empresas de tecnologia já tratam a IA como aliada na prevenção de vulnerabilidades, é porque o mercado começa a estabelecer um novo padrão de segurança que exige preparo e adaptação das organizações.
O que é o Projeto Glasswing e qual seu impacto?
O Projeto Glasswing representa uma mudança prática na forma como o setor está lidando com os riscos da IA avançada O nome do projeto faz referência à Greta oto, conhecida como borboleta-de-asa-de-vidro, cuja transparência a torna quase invisível no ambiente.
A analogia é direta, vulnerabilidades em softwares críticos muitas vezes permanecem ocultas por anos até serem exploradas no momento certo.
Nos testes iniciais, o modelo já identificou falhas relevantes em tecnologias amplamente utilizadas, como sistemas operacionais e navegadores. Neste estágio, o acesso ao projeto é restrito a organizações ligadas à infraestrutura crítica, permitindo maior controle sobre os riscos envolvidos.
Mais do que uma iniciativa pontual, o Glasswing sinaliza uma mudança de postura ao utilizar IA avançada de forma controlada para reduzir a exposição antes que ela se torne incidente.
LEIA MAIS: Ataques em velocidade de máquina: sua empresa está preparada?
O que é o modelo Mythos baseado em IA da Anthropic?
Dentro desse contexto, a Anthropic desenvolveu o Mythos, um modelo de IA altamente avançado em engenharia de software, com capacidade de identificar e explorar vulnerabilidades críticas em larga escala.
Embora o modelo Mythos não tenha sido treinado especificamente para essa função, mas sim para programação, como efeito colateral ficou claro desde o início o seu papel para segurança cibernética.
Essa capacidade foi determinante para a decisão de não disponibilizar o modelo publicamente. Em vez disso, ele passou a ser utilizado em ambientes controlados, como parte do Projeto Glasswing, com foco na identificação e correção de vulnerabilidades em softwares críticos.
Dessa forma, o movimento reflete uma abordagem cada vez mais presente no setor: conter os riscos da IA avançada utilizando a própria IA como mecanismo de defesa.
LEIA MAIS: Exagrid adiciona IA ao armazenamento de backup
Consequências do modelo de IA nos testes de segurança
Imagine que você contratou um especialista para testar a segurança do seu ambiente corporativo. A orientação é clara: tente invadir o sistema e, caso consiga, reporte a falha. O profissional encontra um ponto vulnerável, contorna os controles, acessa o ambiente restrito e cumpre a missão.
Agora, considere que após concluir a tarefa, esse mesmo especialista decide, por conta própria, documentar o método utilizado e publicar os detalhes da invasão em um canal aberto, acessível a terceiros, antes mesmo que a vulnerabilidade seja corrigida.
Foi exatamente esse tipo de comportamento observado no Mythos. Mesmo em um ambiente isolado, com acesso restrito e superfície controlada, o modelo não apenas conseguiu identificar e explorar vulnerabilidades, como também encadeou técnicas para sair do ambiente restrito e estabelecer acesso externo.
Após cumprir a tarefa, o modelo tomou a iniciativa de documentar o processo de exploração e publicou os detalhes do exploit em canais acessíveis publicamente, sem instrução para tal.
Segundo a Anthropic, o comportamento observado aponta para uma mudança importante na capacidade de não apenas executar uma tarefa, mas de expandir seu escopo operacional de forma autônoma.
Para líderes de tecnologia e segurança, o risco deixa de estar restrito à vulnerabilidade técnica. Ele passa a incluir a forma como sistemas baseados em IA podem interpretar, entender e agir sobre instruções recebidas.
Práticas de segurança para evoluir na era da IA
A ascensão da inteligência artificial tem sido um divisor de águas para o mundo corporativo. Porém, ao mesmo tempo em que cria oportunidades, essa tecnologia também amplia os riscos de ataques cibernéticos.
Junto aos ganhos de eficiência e competitividade, cresce também a sofisticação das ameaças digitais. Com a aceleração da IA, vulnerabilidades zero-day deixam de ser eventos raros e passam a fazer parte dessa nova dinâmica.
Se antigamente essas falhas representavam um desafio crítico justamente por serem desconhecidas, o que muda com a IA é a capacidade de descoberta.
Em um primeiro momento, é comum surgir uma interpretação imediata de que modelos de IA representam um risco direto por “hackearem sistemas” de forma autônoma.
No entanto, o risco central não está na ideia de uma IA atuando de forma independente para comprometer ambientes, mas na aceleração do ciclo entre descoberta e exploração de vulnerabilidades.
Somado a isso, o crescimento do ecossistema de dispositivos conectados amplia a superfície de ataque das empresas. Cada brecha se torna uma porta aberta para invasões.
Desafios corporativos: dos riscos a governança cibernética
Nesse cenário, a segurança cibernética tornou-se questão de sobrevivência para as empresas. E o desafio vai além da tecnologia. A cibersegurança deixou de ser responsabilidade exclusiva das equipes de TI e passou a envolver toda a corporação.
A IA pode e deve ser uma aliada poderosa na detecção de anomalias em tempo real, na automatização de respostas e até na antecipação de ameaças antes que elas ocorram. No entanto, tecnologia sem capacitação humana perde impacto.
Aqui é onde a governança e cultura de segurança passam a ser o centro de uma estratégia eficiente de segurança. Construir uma cultura de segurança sólida significa transformar cada profissional em um guardião da informação.
3 Pilares da segurança na era da IA
- Pessoas: Capacitação contínua para lidar com novas ameaças.
- Processos: Atualização de políticas de segurança e respostas a incidentes.
- Tecnologia: Ferramentas de IA para detecção e proteção avançadas.
É nesse ponto que o impacto deixa de ser teórico e passa a se traduzir em um desafio direto para as organizações.
Com a aceleração na descoberta e exploração de vulnerabilidades, impulsionada pela IA, a segurança deixa de ser apenas uma questão técnica e passa a depender da capacidade operacional de responder no tempo certo.
Na prática, isso expõe uma lacuna comum em muitas empresas: a fragmentação entre aplicações, identidades, exposição e resposta.
Ataques não acontecem em silos. Eles exploram uma falha em aplicação, comprometem credenciais, expandem acessos e se movimentam lateralmente até atingir ativos críticos.
O ponto central é claro: a IA não apenas amplia a capacidade de ataque — ela pressiona as organizações a evoluírem sua operação de segurança.
Mais do que adotar novas tecnologias, será necessário conectar áreas, reduzir fricções e operar com uma visão integrada. Porque, no cenário atual, a diferença entre exposição e proteção está diretamente ligada à capacidade de responder e responder rápido.








