banner

Notícias

Aug 17, 2023

Pesquisa perturbadora adverte que a IA pode ser o 'Grande Filtro' que apaga a civilização humana

A IA avançada pode se comportar como uma 'segunda espécie inteligente' com quem os humanos eventualmente compartilham a Terra

Encontre seus favoritos na seção Independent Premium, no meu perfil

Vídeo relacionado: Ele ajudou a criar a IA. Agora ele está preocupado que isso destrua a humanidade

A inteligência artificial avançada pode representar um risco catastrófico para a humanidade e acabar com civilizações inteiras, alerta um novo estudo.

A IA pode ser a resposta potencial do "Grande Filtro" ao paradoxo de Fermi, com o potencial de acabar com a vida inteligente no universo antes que ela possa fazer contato com outras pessoas, sugeriu o estudo ainda a ser revisado por pares, publicado no arXiv servidor de pré-impressão.

O Paradoxo de Fermi, traduzido popularmente pela frase "Onde está todo mundo?", intriga os cientistas há décadas. Refere-se à ideia inquietante de que, se a vida extraterrestre é provável no universo, então por que os humanos ainda não a encontraram?

Muitas teorias foram propostas, oferecendo diferentes explicações para nossa presença solitária até agora no cosmos.

Embora os cálculos de probabilidade, como a popular Equação de Drake, sugiram que pode haver um número de civilizações inteligentes na galáxia, ainda há um intrigante silêncio cósmico.

Uma hipótese popular – conhecida como o Grande Filtro – sugere que algum evento necessário para o surgimento de vida inteligente é extremamente improvável, daí o silêncio cósmico.

Um equivalente lógico dessa teoria é que algum fenômeno cósmico catastrófico provavelmente está impedindo a expansão da vida por todo o universo.

“Isso pode ser um evento natural ou, mais desconcertante, algo que seres inteligentes fazem a si mesmos que leva à sua própria extinção”, escreveu o autor do estudo, Mark Bailey, da National Intelligence University (NIU), nos EUA.

A nova pesquisa teorizou que o avanço da IA ​​pode ser o tipo exato de evento de risco catastrófico que poderia acabar com civilizações inteiras.

No estudo, o Dr. Bailey enquadra o contexto do Grande Filtro dentro do risco potencial de longo prazo de tecnologias como IA que não entendemos completamente.

“Os humanos são péssimos em estimar intuitivamente o risco a longo prazo”, disse o cientista da NIU, acrescentando que não entendemos completamente a IA, mas “ela está se infiltrando rapidamente em nossas vidas”.

“A IA do futuro provavelmente tenderá a sistemas mais generalizáveis ​​e direcionados a objetivos com controle mais significativo, onde as consequências de resultados não intencionais se tornarão significativamente mais graves”, alertou.

Bailey postulou o que chama de "argumento da segunda espécie", que levanta a possibilidade de que a IA avançada poderia efetivamente se comportar como uma "segunda espécie inteligente" com a qual eventualmente compartilharíamos este planeta.

Considerando o que aconteceu quando os humanos modernos e os neandertais coexistiram na Terra, os pesquisadores da NIU disseram que os “resultados potenciais são sombrios”.

“É lógico que uma tecnologia fora de controle, especialmente uma direcionada a objetivos como a IA, seria uma boa candidata para o Grande Filtro”, escreveu Bailey no estudo.

"Devemos nos perguntar: como nos preparamos para essa possibilidade?"

Participe de conversas instigantes, siga outros leitores independentes e veja suas respostas

O fundador da DeepMind, Demis Hassabis, afirma que estamos a apenas alguns anos da inteligência geral artificial em nível humano

iStock/Getty Images

Quer marcar seus artigos e histórias favoritos para ler ou consultar mais tarde? Comece sua assinatura Independent Premium hoje.

COMPARTILHAR