Pesquisa perturbadora adverte que a IA pode ser o 'Grande Filtro' que apaga a civilização humana
A IA avançada pode se comportar como uma 'segunda espécie inteligente' com quem os humanos eventualmente compartilham a Terra
Encontre seus favoritos na seção Independent Premium, no meu perfil
Vídeo relacionado: Ele ajudou a criar a IA. Agora ele está preocupado que isso destrua a humanidade
A inteligência artificial avançada pode representar um risco catastrófico para a humanidade e acabar com civilizações inteiras, alerta um novo estudo.
A IA pode ser a resposta potencial do "Grande Filtro" ao paradoxo de Fermi, com o potencial de acabar com a vida inteligente no universo antes que ela possa fazer contato com outras pessoas, sugeriu o estudo ainda a ser revisado por pares, publicado no arXiv servidor de pré-impressão.
O Paradoxo de Fermi, traduzido popularmente pela frase "Onde está todo mundo?", intriga os cientistas há décadas. Refere-se à ideia inquietante de que, se a vida extraterrestre é provável no universo, então por que os humanos ainda não a encontraram?
Muitas teorias foram propostas, oferecendo diferentes explicações para nossa presença solitária até agora no cosmos.
Embora os cálculos de probabilidade, como a popular Equação de Drake, sugiram que pode haver um número de civilizações inteligentes na galáxia, ainda há um intrigante silêncio cósmico.
Uma hipótese popular – conhecida como o Grande Filtro – sugere que algum evento necessário para o surgimento de vida inteligente é extremamente improvável, daí o silêncio cósmico.
Um equivalente lógico dessa teoria é que algum fenômeno cósmico catastrófico provavelmente está impedindo a expansão da vida por todo o universo.
“Isso pode ser um evento natural ou, mais desconcertante, algo que seres inteligentes fazem a si mesmos que leva à sua própria extinção”, escreveu o autor do estudo, Mark Bailey, da National Intelligence University (NIU), nos EUA.
A nova pesquisa teorizou que o avanço da IA pode ser o tipo exato de evento de risco catastrófico que poderia acabar com civilizações inteiras.
No estudo, o Dr. Bailey enquadra o contexto do Grande Filtro dentro do risco potencial de longo prazo de tecnologias como IA que não entendemos completamente.
“Os humanos são péssimos em estimar intuitivamente o risco a longo prazo”, disse o cientista da NIU, acrescentando que não entendemos completamente a IA, mas “ela está se infiltrando rapidamente em nossas vidas”.
“A IA do futuro provavelmente tenderá a sistemas mais generalizáveis e direcionados a objetivos com controle mais significativo, onde as consequências de resultados não intencionais se tornarão significativamente mais graves”, alertou.
Bailey postulou o que chama de "argumento da segunda espécie", que levanta a possibilidade de que a IA avançada poderia efetivamente se comportar como uma "segunda espécie inteligente" com a qual eventualmente compartilharíamos este planeta.
Considerando o que aconteceu quando os humanos modernos e os neandertais coexistiram na Terra, os pesquisadores da NIU disseram que os “resultados potenciais são sombrios”.
“É lógico que uma tecnologia fora de controle, especialmente uma direcionada a objetivos como a IA, seria uma boa candidata para o Grande Filtro”, escreveu Bailey no estudo.
"Devemos nos perguntar: como nos preparamos para essa possibilidade?"
Participe de conversas instigantes, siga outros leitores independentes e veja suas respostas
O fundador da DeepMind, Demis Hassabis, afirma que estamos a apenas alguns anos da inteligência geral artificial em nível humano
iStock/Getty Images
Quer marcar seus artigos e histórias favoritos para ler ou consultar mais tarde? Comece sua assinatura Independent Premium hoje.