Elon Musk em guerra contra a Inteligência Artificial enquanto Bill Gates a defende: que riscos ela traz para o mundo segundo os especialistas?
Especialistas argumentam que é essencial evitar que a tecnologia seja mais esperta que nós, humanos, e manter a capacidade de controlá-la de maneira eficaz.
O CEO da SpaceX, Tesla e Twitter, Elon Musk, e o cofundador da Apple, Steve Wozniak, publicaram uma carta aberta na semana passada pedindo um hiato de seis meses no desenvolvimento de sistemas de inteligência artificial (IA) mais poderosos que o GPT-4 .
A carta, que já tem mais de 16.000 assinaturas, expressa temores de que “uma corrida fora de controle” entre programas como o ChatGPT da OpenAI, o chatbot Bing AI da Microsoft e o Bard da Alphabet possa trazer “riscos profundos para a sociedade” e a humanidade”.
No entanto, alguns desenvolvedores e especialistas, e até mesmo o cofundador da Microsoft, Bill Gates, não hesitaram em se posicionar contra a petição e defender o avanço da nova tecnologia. “Não acho que pedir a um grupo específico para fazer uma pausa resolverá os desafios”, disse Gates na segunda-feira. “Claramente há enormes benefícios nessas coisas”, disse ele, acrescentando que, no entanto, concorda que “as áreas mais difíceis precisam ser identificadas”.
Quais são as preocupações?
Quando chega a hora, você tem que admitir que as preocupações de Musk e Wozniak são bastante compreensíveis, pois eles apontam que as empresas de IA “criam mentes digitais cada vez mais poderosas, que ninguém, nem mesmo seus criadores, conhecem “ . prever ou controlar.
Ao mesmo tempo, os sistemas de IA geralmente apresentam bugs e preocupações com a privacidade , além de espalhar desinformação , especialmente se usados de forma maliciosa. Por outro lado, eles também poderiam substituir trabalhadores humanos quando se trata de atuar, por exemplo, como assistentes de atendimento ao cliente, economizando salários para as empresas, especifica a CNBC .
No entanto, pelo menos uma empresa de pesquisa de IA com seu próprio chatbot não compartilha dessas preocupações, considerando que as tecnologias atuais não “levam preocupação iminente” . Esta é a Anthropic , com sede em São Francisco , que recebeu um investimento de US$ 400 milhões da Alphabet.
Segundo a empresa, os sistemas de IA podem se tornar “muito mais poderosos” na próxima década e para “ajudar a reduzir os riscos” as barreiras limitantes já devem começar a ser construídas. O único problema é que a Anthropic ainda não sabe quais são essas barreiras.
Por outro lado, o CEO da OpenAI, Sam Altman, reconheceu na semana passada que “uma estrutura regulatória global eficaz que inclua governança democrática” é um dos elementos “necessários para um bom futuro” compartilhado com a inteligência geral artificial (AGI). ). Mas Altman, cuja empresa financiada pela Microsoft fabrica o ChatGPT e ajudou a desenvolver o chatbot do Bing, não especificou o que essas diretrizes podem implicar.
Por sua vez, Richard Socher, um pesquisador de IA e CEO da You.com, uma empresa de mecanismos de busca apoiada por IA, insistiu que o imediatismo de ameaças potenciais não deve ser exagerado para criar pânico desnecessário em torno do assunto, nem encorajar o uso de tecnologia. para fins maliciosos. Socher afirma que as propostas na carta aberta de Musk e Wozniak são “impossíveis de aplicar e abordar a questão no nível errado ” .
Existe uma solução possível?
Como a carta de Musk e Wozniak não obteve muito apoio dos criadores de IA, é altamente improvável que eles concordem em cessar voluntariamente suas atividades pelo período de meio ano , observa a CNBC. Uma opção mais credível parece ser o estabelecimento de maior regulamentação por parte dos governos no desenvolvimento e formação dos sistemas.
Stuart Russell, um cientista da computação da UC Berkeley e importante pesquisador de IA, que também assinou a carta, disse que tais regulamentos deveriam ser implementados antes que a tecnologia avançasse ainda mais, embora uma pausa também jogasse a favor dos desenvolvedores. lhes permitiria demonstrar que suas obras “não apresentam risco indevido” .
Deve-se notar que tanto as pessoas que assinaram a carta quanto as que se opuseram a ela concordam com uma ideia muito importante: é essencial prevenir os piores cenários que podem surgir devido ao rápido desenvolvimento da IA. Esta conclusão significa que é necessário evitar que a tecnologia seja mais esperta que nós humanos e manter a capacidade de controlá-la de forma eficaz .