Inteligência artificial pode representar uma ameaça de “nível de extinção” para os humanos, alerta relatório dos EUA

Compartilhe

Um novo relatório que os seus autores afirmam ter sido encomendado pelo Departamento de Estado dos EUA pinta um quadro alarmante dos riscos “catastróficos” para a segurança nacional representados pela inteligência artificial em rápida evolução e alerta que o tempo está a esgotar-se para o governo federal evitar o desastre.

As conclusões basearam-se em entrevistas com mais de 200 pessoas ao longo de mais de um ano – incluindo altos executivos de empresas líderes de IA, investigadores de segurança cibernética, especialistas em armas de destruição maciça e responsáveis ​​de segurança nacional dentro do governo.

O relatório , divulgado esta semana pela Gladstone AI, afirma categoricamente que os sistemas de IA mais avançados poderiam, na pior das hipóteses, “representar uma ameaça de extinção para a espécie humana”.

O Departamento de Estado dos EUA não respondeu ao pedido de comentários.

O aviso constante do relatório é mais um lembrete de que, embora o potencial da IA ​​continue a cativar os investidores e o público , também existem perigos reais .

“A IA já é uma tecnologia economicamente transformadora. Poderia permitir-nos curar doenças, fazer descobertas científicas e superar desafios que antes pensávamos serem intransponíveis”, disse Jeremie Harris, CEO e cofundador da Gladstone AI, à CNN

“Mas também pode trazer riscos graves, incluindo riscos catastróficos, dos quais precisamos estar cientes”, disse Harris. “E um conjunto crescente de evidências – incluindo pesquisas e análises empíricas publicadas nas principais conferências de IA do mundo – sugere que acima de um certo limite de capacidade, as IAs podem potencialmente tornar-se incontroláveis.”

A porta-voz da Casa Branca, Robyn Patterson, disse que a ordem executiva do presidente Joe Biden sobre IA é a “ação mais significativa que qualquer governo no mundo tomou para cumprir a promessa e gerenciar os riscos da inteligência artificial”.

“O Presidente e o Vice-Presidente continuarão a trabalhar com os nossos parceiros internacionais e a instar o Congresso a aprovar legislação bipartidária para gerir os riscos associados a estas tecnologias emergentes”, disse Patterson.

‘Necessidade clara e urgente’ de intervir

Os investigadores alertam para dois perigos centrais representados pela IA.

Primeiro, disse Gladstone AI, os sistemas de IA mais avançados poderiam ser transformados em armas para infligir danos potencialmente irreversíveis. Em segundo lugar, o relatório afirmou que havia preocupações privadas dentro dos laboratórios de IA de que, em algum momento, poderiam “perder o controlo” dos próprios sistemas que estavam a desenvolver, com “consequências potencialmente devastadoras para a segurança global”.

“A ascensão da IA ​​​​e da AGI [inteligência artificial geral] tem o potencial de desestabilizar a segurança global de maneiras que lembram a introdução de armas nucleares”, disse o relatório, acrescentando que há o risco de uma “corrida armamentista” de IA, conflito e “ Acidentes fatais em escala de armas de destruição em massa.”

O relatório da Gladstone AI apela a novas medidas dramáticas destinadas a enfrentar esta ameaça, incluindo o lançamento de uma nova agência de IA, impondo salvaguardas regulamentares de “emergência” e limites sobre a quantidade de energia informática que pode ser utilizada para treinar modelos de IA.

“Há uma necessidade clara e urgente de intervenção do governo dos EUA”, escreveram os autores do relatório.

O relatório observa que, embora o trabalho tenha sido produzido para o Departamento de Estado, as suas opiniões “não reflectem as opiniões” da agência nem do governo dos EUA em geral.

Um aviso governamental emitido em 2022 pelo Gabinete do Fundo de Não Proliferação e Desarmamento do Departamento de Estado mostra que o governo se oferecia para pagar até 250.000 dólares por uma avaliação sobre os “riscos de proliferação e segurança” ligados à IA avançada.

Preocupações de segurança

Harris, executivo da Gladstone AI, disse que o “nível de acesso sem precedentes” que sua equipe teve a funcionários dos setores público e privado levou a conclusões surpreendentes. Gladstone AI disse que conversou com equipes técnicas e de liderança do proprietário do ChatGPT, OpenAI, Google DeepMind, Meta e Anthropic, controladora do Facebook.

“Ao longo do caminho, aprendemos algumas coisas preocupantes”, disse Harris em um vídeo postado no site da Gladstone AI anunciando o relatório. “Nos bastidores, a situação de segurança e proteção na IA avançada parece bastante inadequada em relação aos riscos de segurança nacional que a IA poderá introduzir em breve.”

O relatório da Gladstone AI afirma que as pressões competitivas estão a pressionar as empresas a acelerar o desenvolvimento da IA ​​”às custas da segurança e protecção”, levantando a perspectiva de que os sistemas de IA mais avançados possam ser “roubados” e “armados” contra os Estados Unidos.

As conclusões somam-se a uma lista crescente de alertas sobre os riscos existenciais colocados pela IA – inclusive por parte de algumas das figuras mais poderosas da indústria.

Há quase um ano, Geoffrey Hinton, conhecido como o “Padrinho da IA”, deixou seu emprego no Google e denunciou a tecnologia que ajudou a desenvolver. Hinton disse que há 10% de chance de que a IA leve à extinção humana nas próximas três décadas.

Hinton e dezenas de outros líderes da indústria de IA, acadêmicos e outros assinaram uma declaração em junho passado que dizia que “mitigar o risco de extinção da IA ​​deveria ser uma prioridade global”.

Os líderes empresariais estão cada vez mais preocupados com estes perigos – ao mesmo tempo que investem milhares de milhões de dólares em investimentos em IA. No ano passado, 42 por cento dos CEOs entrevistados no Yale CEO Summit do ano passado disseram que a IA tem o potencial de destruir a humanidade daqui a cinco a dez anos.

Habilidades humanas para aprender

No seu relatório, a Gladstone AI destacou alguns dos indivíduos proeminentes que alertaram sobre os riscos existenciais representados pela IA, incluindo Elon Musk, a presidente da Comissão Federal de Comércio, Lina Khan, e um ex-alto executivo da OpenAI.

Alguns funcionários de empresas de IA compartilham preocupações semelhantes em particular, de acordo com a Gladstone AI.

“Um indivíduo de um conhecido laboratório de IA expressou a opinião de que, se um modelo específico de IA da próxima geração fosse lançado como acesso aberto, isso seria ‘terrivelmente ruim'”, disse o relatório, “porque o potencial persuasivo do modelo capacidades poderiam ‘quebrar a democracia’ se alguma vez fossem aproveitadas em áreas como interferência eleitoral ou manipulação eleitoral.”

Gladstone disse que pediu a especialistas em IA em laboratórios fronteiriços que compartilhassem em particular suas estimativas pessoais sobre a chance de um incidente de IA levar a “efeitos globais e irreversíveis” em 2024. As estimativas variaram entre 4% e até 20%, de acordo com ao relatório, que indica que as estimativas eram informais e provavelmente sujeitas a distorções significativas.

Um dos maiores curingas é a rapidez com que a IA evolui – especificamente AGI, que é uma forma hipotética de IA com capacidade de aprendizagem semelhante à humana ou mesmo sobre-humana.

O relatório diz que a AGI é vista como o “principal impulsionador do risco catastrófico de perda de controle” e observa que OpenAI, Google DeepMind, Anthropic e Nvidia declararam publicamente que a AGI poderia ser alcançada até 2028 – embora outros pensem que está muito, muito mais longe .

A Gladstone AI observa que as divergências sobre os prazos da AGI tornam difícil o desenvolvimento de políticas e salvaguardas e há o risco de que, se a tecnologia se desenvolver mais lentamente do que o esperado, a regulamentação possa “ser prejudicial”.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

www.clmbrasil.com.br