Os agentes da IA estão sendo rapidamente implantados nas organizações, mesmo quando semearem os medos de segurança, de acordo com um novo relatório da empresa de governança de dados Sailpoint.
Com base em uma pesquisa international com mais de 350 profissionais de TI, o relatório constatou que o abraço generalizado dos agentes – sistemas de IA capazes de formular planos e agir sem a supervisão humana – está ocorrendo dentro de um vácuo de segurança. De TI, os profissionais que responderam, 84% disseram que suas organizações já usam agentes internamente, mas pouco mais da metade desse número (44%) atualmente possui políticas para controlar o comportamento dos agentes.
Também: A IA pode apagar metade dos empregos de colarinho branco de nível básico em 5 anos, alerta o CEO
Ainda mais surpreendentemente, 96% dos entrevistados disseram que vêem os agentes como um risco de segurança, mas 98% também disseram que seus empregadores planejam expandir o uso de agentes no próximo ano.
A ascensão dos agentes
Os agentes são a onda mais recente em uma enxurrada de inovação em torno da IA generativa, que começou a sério após o lançamento do ChatGPT pelo OpenAI no last de 2022. Diferentemente dos chatbots tradicionais, que exigem o impulso humano meticuloso, os agentes têm muito mais autonomia para executar tarefas.
(Divulgação: Ziff Davis, empresa controladora da ZDNET, entrou com um processo de abril de 2025 contra o Openai, alegando que ele violou a Ziff Davis Copyrights em treinamento e operação de seus sistemas de IA.)
As grandes empresas de tecnologia têm construído e liberar agentes em massa nos últimos meses, na esperança de lucrar com a generativa AI Gold Rush. Enquanto isso, as empresas menores-como mostra o novo relatório da SailPoint-foram rápidas em adotar esses novos sistemas, desenhados pelo fascínio de maior eficiência e pela pressão sempre montadora para serem os primeiros adotantes do que é comumente descrito-principalmente por grandes empresas de tecnologia-como uma tecnologia radicalmente disruptiva.
Riscos de segurança aumentados
A capacidade dos agentes de agir sem a supervisão humana também os torna um risco aumentado de segurança cibernética, de acordo com o relatório.
“Esses agentes autônomos estão transformando como o trabalho é feito, mas também introduzem uma nova superfície de ataque”, disse Chandra Gnanasambandam, EVP do produto e CTO da Sailpoint. “Eles geralmente operam com amplo acesso a sistemas e dados sensíveis, mas têm supervisão limitada”.
A ponto de ponto de Gnanasambandam, a pesquisa da Sailpoint revelou uma ironia alarmante: a grande maioria (92%) dos entrevistados sente que a governança adequada dos agentes de IA é essencial para salvaguardar os que os agentes de segurança de suas organizações e ainda mais relatam que os relatórios de sarafasia e ainda mais relatam que os relatórios não relatam que os relatórios não relatam recursos inesperados e potencialmente de risco.
Além disso: a adoção do agente de IA está impulsionando aumentos de oportunidades, ameaças e orçamentos de TI
Dado seu acesso privilegiado e em grande parte sem restrições a dados organizacionais sensíveis, a Gnanasambandam recomenda o tratamento de agentes de IA com o mesmo protocolo de segurança que se aplica aos funcionários humanos.
“À medida que as organizações expandem seu uso de agentes de IA, elas devem adotar uma abordagem de identidade para garantir que esses agentes sejam governados tão estritamente quanto usuários humanos, com permissões em tempo actual, menos privilégio e complete visibilidade de suas ações”, ele escreve.
Quer mais histórias sobre a IA? Inscreva -se para a inovaçãonossa e-newsletter semanal.