
Você já imaginou como seria um ataque hacker potencializado pela inteligência artificial? Em 2025, essa ameaça não só existe como se tornou uma das principais preocupações das organizações em todo o mundo. O Relatório do Custo das Violações de Dados 2025, divulgado pela IBM em parceria com o Ponemon Institute, destaca um cenário onde a adoção acelerada da IA ultrapassou a capacidade das empresas de garantir segurança adequada, revelando uma preocupante “lacuna na supervisão da IA”.
Custo médio das violações cai, mas os EUA seguem na contramão
Pela primeira vez em cinco anos, o custo médio global das violações de dados diminuiu, caindo para US$ 4,44 milhões, uma redução de 9% em relação ao ano anterior. Essa queda é atribuída principalmente à utilização eficaz da própria IA pelas equipes de segurança para identificar e conter ataques rapidamente. Entretanto, os Estados Unidos destoaram dessa tendência, com um aumento recorde, atingindo uma média histórica de US$ 10,22 milhões por violação, impulsionados por multas mais altas e custos crescentes na detecção de ataques.
Esse contraste reflete claramente o impacto das legislações rigorosas e dos custos adicionais relacionados ao gerenciamento de crises nos EUA. Uma situação que merece atenção especial, já que a tendência observada pode indicar desafios adicionais para empresas americanas na prevenção e gerenciamento de ataques cibernéticos.
E no Brasil, como estão os custos das violações?
No Brasil, o custo médio de uma violação de dados também apresentou alta, chegando a R$ 7,19 milhões, representando um aumento significativo de aproximadamente 6,5% em relação ao ano anterior. Setores específicos foram especialmente afetados, como Saúde, com custo médio de R$ 11,43 milhões por incidente, seguido por Financeiro (R$ 8,92 milhões) e Serviços (R$ 8,51 milhões).
Esses números destacam claramente a importância crescente da segurança digital no país, especialmente em setores altamente regulamentados e que lidam com dados sensíveis.
A IA como ferramenta dos invasores
Um dos dados mais impressionantes do relatório é o uso crescente da inteligência artificial pelos próprios invasores. Em média, uma em cada seis violações (16%) já envolve o uso de IA para executar ataques, especialmente phishing e deepfakes. Com a IA generativa, invasores conseguem criar e-mails de phishing altamente convincentes em apenas cinco minutos, contra as 16 horas necessárias anteriormente. Um avanço assustador, não é mesmo?
Esse tipo de ataque se torna ainda mais perigoso devido à dificuldade crescente para identificar tentativas fraudulentas, já que a tecnologia pode replicar com precisão detalhes específicos das vítimas, aumentando a eficácia dos golpes.
IA invisível: um perigo oculto e caro
Outro destaque preocupante é o fenômeno da “IA invisível”, ou seja, o uso não autorizado ou não supervisionado de ferramentas de inteligência artificial dentro das próprias empresas. Cerca de 20% das organizações estudadas reportaram incidentes envolvendo essa forma de IA, resultando num custo adicional médio de US$ 200 mil por violação. Além disso, a maioria dessas empresas não possuía políticas claras ou controles adequados, ampliando ainda mais o impacto dos incidentes.
Essa falta de controle interno pode gerar vazamentos de dados sensíveis, expondo informações pessoais de clientes e propriedade intelectual, aumentando ainda mais os prejuízos financeiros e reputacionais.
Segurança da IA ainda está atrasada
Apesar dos riscos evidentes, 63% das organizações afetadas por violações não possuíam políticas de governança adequadas para seus sistemas de IA. Isso significa que muitas empresas estão se aventurando no uso da inteligência artificial sem garantir que existam processos sólidos para proteger seus dados e sistemas contra ataques direcionados a essas tecnologias emergentes.
A ausência dessas políticas expõe vulnerabilidades críticas e demonstra que ainda há muito trabalho a ser feito para integrar plenamente a IA com estratégias robustas de segurança cibernética.
Resiliência é a chave para o futuro
Para enfrentar esse cenário, a IBM sugere uma abordagem mais robusta e integrada para segurança e governança da IA. Entre as recomendações, destacam-se:
- Fortalecer identidades digitais (humanas e não humanas), garantindo controle rigoroso sobre credenciais.
- Usar amplamente IA em segurança, reduzindo o tempo e custos na resposta aos ataques.
- Integrar segurança e governança, garantindo visibilidade e mitigação eficaz de vulnerabilidades.
- Aumentar resiliência, preparando organizações para uma resposta rápida e eficaz a incidentes.
Essas ações, se bem implementadas, podem não apenas prevenir ataques, mas também reduzir significativamente os danos caso um incidente ocorra.
Ferramentas avançadas na segurança de dados
Outro aspecto relevante é a utilização intensiva de ferramentas avançadas de segurança impulsionadas por IA e automação. De acordo com o relatório, o uso extensivo dessas tecnologias pode resultar numa economia média de US$ 1,9 milhão por violação, demonstrando claramente o retorno sobre investimento proporcionado por soluções avançadas na proteção de dados.
Conclusão
Enquanto a inteligência artificial avança rapidamente, fica claro que não basta apenas adotar a tecnologia: é fundamental assegurar que a segurança acompanhe esse ritmo. O relatório de 2025 é um alerta poderoso sobre os riscos de negligenciar a supervisão da IA, uma lição valiosa para empresas que desejam evitar prejuízos financeiros e danos à sua reputação.
E você, já pensou na segurança da IA na sua empresa? Talvez seja hora de olhar mais atentamente para essa questão antes que seja tarde demais. Investir em segurança hoje pode evitar grandes prejuízos amanhã.
Fonte: IBM