Cientistas usam IA para criar vírus, expondo risco de armas biológicas: nova pandemia à vista?
Cientistas estão explorando o potencial da Inteligência Artificial (IA) para projetar novas formas de vida, com pesquisadores recentemente utilizando a tecnologia para criar vírus inéditos. Esses vírus, classificados como bacteriófagos (que atacam bactérias), são distintos o suficiente das cepas existentes para serem consideradas novas espécies e têm potencial para atuar como alternativas ou complementos aos antibióticos, ajudando a combater a resistência bacteriana.
No entanto, a inovação, que abre caminho para a “vida projetada por IA”, reacende o debate sobre o “problema do uso duplo” – o risco de tecnologias benéficas serem desviadas para fins maliciosos, como a criação de armas biológicas.A preocupação com a segurança foi intensificada por um estudo separado da Microsoft, publicado na revista Science (2 de outubro), que demonstrou a capacidade da IA de contornar as salvaguardas de software existentes.
Estas medidas de segurança visam impedir que indivíduos mal-intencionados encomendem moléculas tóxicas de empresas fornecedoras. A equipe da Microsoft agiu rapidamente para desenvolver correções, mas o avanço da IA na área biológica exige atenção constante.Os autores do estudo de criação de vírus, cientes do risco, tomaram precauções rigorosas, treinando seus modelos de IA apenas com dados de vírus que não infectam humanos, animais ou plantas, e garantindo que os modelos não pudessem, por conta própria, criar vírus perigosos.
Eles argumentam que os métodos atuais ainda são complexos, exigindo conhecimento especializado, o que não facilitaria o uso perigoso da tecnologia.No entanto, especialistas alertam que a rápida evolução da IA exige uma resposta imediata e coordenada. A combinação desses estudos sublinha o risco potencial de a IA desenvolver uma nova forma de vida ou arma biológica que ameace a humanidade, podendo, no pior cenário, desencadear uma pandemia. Embora essa capacidade ainda não exista, os especialistas concordam que um futuro onde ela seja viável está próximo.
Para mitigar o perigo, é crucial o desenvolvimento de sistemas de segurança multicamadas, aprimorando as ferramentas de triagem e estabelecendo regulamentações em evolução que governem a síntese biológica orientada por IA, garantindo que o potencial da IA na biologia sintética seja aproveitado para o bem, sem comprometer a biossegurança global.