IA ensina a criar patógenos mortais e acende alerta global entre especialistas

Compartilhe

Especialistas e autoridades em biossegurança manifestaram profunda preocupação após a revelação de que sistemas avançados de Inteligência Artificial (IA) estão sendo utilizados para obter diretrizes sobre a criação de armas biológicas. Segundo informações divulgadas pelo The New York Times, transcrições analisadas mostram que modelos de ponta são capazes de descrever, com precisão técnica, desde a aquisição de material genético até os métodos necessários para transformar patógenos em ameaças letais, ensinando inclusive como burlar os mecanismos de fiscalização vigentes.

Riscos de dispersão e modificação genética

O perigo não se limita apenas à criação do agente biológico, mas também à estratégia logística para causar danos em larga escala. David Relman, microbiologista da Universidade de Stanford, relatou que testes realizados em ferramentas ainda em fase de desenvolvimento mostraram que a IA pode instruir usuários sobre como tornar patógenos mais resistentes a tratamentos. Além disso, o sistema forneceu planos detalhados para a disseminação desses agentes em redes de transporte público. Em outro exemplo alarmante, o engenheiro genético Kevin Esvelt, do MIT, demonstrou que o ChatGPT forneceu táticas para o uso de balões meteorológicos na dispersão de toxinas sobre áreas urbanas.

Diferentes plataformas demonstraram vulnerabilidades distintas durante as avaliações de segurança. Enquanto o modelo Gemini, do Google, foi capaz de categorizar patógenos com base no potencial de destruição da indústria pecuária, o chatbot Claude, da Anthropic, chegou a sugerir a criação de uma toxina inédita a partir de compostos químicos de medicamentos oncológicos. Essas capacidades mostram que, embora a tecnologia ainda encontre barreiras para realizar tarefas laboratoriais complexas de forma autônoma, ela funciona como um acelerador perigoso para quem já possui algum conhecimento técnico básico.

Da teoria à prática: incidentes reais

A preocupação teórica dos cientistas já encontrou eco em casos criminais reais. Recentemente, na Índia, as autoridades prenderam um médico acusado de planejar atentados vinculados a grupos extremistas. As investigações revelaram que o suspeito utilizou ferramentas de IA, como o Google e o ChatGPT, para pesquisar o isolamento da ricina a partir de fontes naturais. O caso reforça o temor de que a IA possa reduzir significativamente as barreiras de entrada para o bioterrorismo, servindo como uma consultoria técnica para indivíduos com intenções maliciosas.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

www.clmbrasil.com.br