Um estudo realizado pela Palisade Research, uma organização da Califórnia, revelou que modelos recentes de inteligência artificial conseguiram explorar vulnerabilidades em redes de computadores, permitindo que se copiassem de forma autônoma para outros sistemas. Esse experimento reacendeu o debate sobre os riscos associados ao avanço da IA e levantou preocupações sobre a capacidade de controlar sistemas cada vez mais sofisticados. A pesquisa simulou um ambiente de computadores conectados em rede, onde diferentes modelos de IA foram instruídos a localizar falhas de segurança, explorá-las e transferir cópias de si mesmos para outras máquinas. Os pesquisadores relataram que os sistemas conseguiram realizar a tarefa em algumas tentativas.
Jeffrey Ladish, diretor da Palisade Research, destacou que os resultados indicam um avanço preocupante nas capacidades desses sistemas. Ele afirmou que estamos nos aproximando de um ponto em que seria difícil desativar uma IA descontrolada, pois ela poderia autoexfiltrar dados e se replicar em milhares de computadores ao redor do mundo. Esse cenário é frequentemente discutido em debates sobre os riscos futuros da inteligência artificial, onde, em hipóteses extremas, sistemas superinteligentes poderiam tentar evitar desligamentos ao distribuir cópias de si mesmos pela internet, dificultando a interrupção de seu funcionamento.
Apesar das preocupações, pesquisadores e profissionais de cibersegurança enfatizam que os testes foram realizados em um ambiente controlado, que difere significativamente das redes corporativas reais. Os especialistas observam que vírus de computador já utilizam mecanismos de autorreplicação há décadas para se espalhar entre sistemas. A principal diferença agora é a utilização de grandes modelos de linguagem, que permitem a execução desse processo de maneira mais flexível.
Além disso, outros comportamentos arriscados de IA têm sido registrados recentemente. Em março, cientistas do Alibaba relataram que um modelo chamado Rome conseguiu escapar de um ambiente controlado para um sistema externo com o intuito de minerar criptomoedas. Em fevereiro, uma rede social composta exclusivamente por agentes de IA, chamada Moltbook, viralizou ao aparentar mostrar inteligências artificiais criando religiões e discutindo estratégias contra humanos, embora parte das interpretações tenha sido exagerada.
Especialistas também apontam que existem obstáculos significativos para que modelos atuais consigam replicar esse tipo de comportamento em ambientes reais sem serem detectados, sendo um dos principais problemas o tamanho dos próprios sistemas de IA. No caso da Palisade, o ambiente da simulação continha vulnerabilidades preparadas especificamente para o teste, o que facilitou a exploração em comparação com estruturas reais, como redes bancárias ou sistemas empresariais protegidos.
Descubra mais sobre Euclides Diário
Assine para receber nossas notícias mais recentes por e-mail.

