Elon Musk em guerra contra a Inteligência Artificial enquanto Bill Gates a defende: que riscos ela traz para o mundo segundo os especialistas?

Compartilhe

Especialistas argumentam que é essencial evitar que a tecnologia seja mais esperta que nós, humanos, e manter a capacidade de controlá-la de maneira eficaz.

O CEO da SpaceX, Tesla e Twitter, Elon Musk, e o cofundador da Apple, Steve Wozniak, publicaram uma carta aberta na semana passada pedindo um hiato de seis meses no desenvolvimento de sistemas de inteligência artificial (IA) mais poderosos que o GPT-4  . 

A carta, que já tem mais de 16.000 assinaturas, expressa temores de que “uma corrida fora de controle” entre programas como o  ChatGPT da OpenAI, o chatbot Bing AI da Microsoft e o Bard da Alphabet  possa trazer “riscos profundos para a sociedade” e a humanidade”.

No entanto, alguns desenvolvedores e especialistas, e até mesmo o cofundador da Microsoft, Bill Gates, não hesitaram em se posicionar contra a petição e defender o avanço da nova tecnologia. “Não acho que pedir a um grupo específico para fazer uma pausa resolverá os desafios”, disse Gates  na segunda-feira. “Claramente há enormes benefícios nessas coisas”, disse ele, acrescentando que, no entanto, concorda que “as áreas mais difíceis precisam ser identificadas”.

Quais são as preocupações?

Quando chega a hora, você tem que admitir que as preocupações de Musk e Wozniak são bastante compreensíveis, pois eles apontam que as empresas de IA “criam mentes digitais cada vez mais poderosas, que ninguém, nem mesmo seus criadores, conhecem    . prever ou controlar. 

Ao mesmo tempo, os sistemas de IA geralmente apresentam bugs e preocupações com a privacidade , além de espalhar desinformação , especialmente se usados ​​de forma maliciosa. Por outro lado, eles também poderiam substituir trabalhadores humanos quando se trata de atuar, por exemplo, como assistentes de atendimento ao cliente, economizando salários para as empresas, especifica a CNBC  .

No entanto, pelo menos uma empresa de pesquisa de IA com seu próprio chatbot não compartilha dessas preocupações, considerando que as tecnologias atuais não “levam preocupação iminente” . Esta é a Anthropic , com sede em São Francisco  , que recebeu um investimento de US$ 400 milhões da Alphabet.

Segundo a empresa, os sistemas de IA podem se tornar “muito mais poderosos” na próxima década e para “ajudar a reduzir os riscos” as barreiras limitantes já devem começar a ser construídas. O único problema é que a Anthropic ainda não sabe quais são essas barreiras.

Por outro lado, o CEO da OpenAI, Sam Altman, reconheceu na semana passada que “uma estrutura regulatória global eficaz que inclua governança democrática” é um dos elementos “necessários para um bom futuro” compartilhado com a inteligência geral artificial (AGI). ). Mas Altman, cuja empresa financiada pela Microsoft fabrica o ChatGPT e ajudou a desenvolver o chatbot do Bing, não especificou o que essas diretrizes podem implicar.

Por sua vez, Richard Socher, um pesquisador de IA e CEO da You.com, uma empresa de mecanismos de busca apoiada por IA, insistiu que o imediatismo de ameaças potenciais não deve ser exagerado para criar pânico desnecessário em torno do assunto, nem encorajar o uso de tecnologia. para fins maliciosos. Socher afirma que as propostas na carta aberta de Musk e Wozniak são “impossíveis de aplicar e abordar a questão no nível errado ” .

Existe uma solução possível?

Como a carta de Musk e Wozniak não obteve muito apoio dos criadores de IA, é altamente improvável que eles concordem em cessar voluntariamente suas atividades pelo período de meio ano , observa a CNBC. Uma opção mais credível parece ser o estabelecimento de maior regulamentação por parte dos governos no desenvolvimento e formação dos sistemas. 

Stuart Russell, um cientista da computação da UC Berkeley e importante pesquisador de IA, que também assinou a carta, disse que tais regulamentos deveriam ser implementados antes que a tecnologia avançasse ainda mais, embora uma pausa também jogasse a favor dos desenvolvedores. lhes permitiria demonstrar que suas obras “não apresentam risco indevido” .

Deve-se notar que tanto as pessoas que assinaram a carta quanto as que se opuseram a ela concordam com uma ideia muito importante: é essencial prevenir os piores cenários que podem surgir devido ao rápido desenvolvimento da IA. Esta conclusão significa que é necessário evitar que a tecnologia seja mais esperta que nós humanos e manter a capacidade de controlá-la de forma eficaz .

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

www.clmbrasil.com.br