banner

blog

Aug 07, 2023

AI não vai acabar com a humanidade (ainda)

Michael Calore Lauren Goode

A ideia de que a inteligência das máquinas um dia dominará o mundo há muito tempo é um elemento básico da ficção científica. Mas, devido aos rápidos avanços nas ferramentas de inteligência artificial no nível do consumidor, o medo parece mais próximo da realidade nos últimos meses do que nunca. A mania generativa da IA ​​despertou empolgação e apreensão em igual medida, deixando muitas pessoas inquietas sobre para onde está indo o futuro dessa tecnologia claramente poderosa, mas ainda nascente. Esta semana, por exemplo, o grupo sem fins lucrativos Center for AI Safety divulgou uma breve declaração alertando que a sociedade deveria levar a IA tão a sério como uma ameaça existencial quanto fazemos com guerras nucleares e pandemias.

Esta semana, no Gadget Lab, conversamos com o escritor sênior da WIRED, Will Knight, sobre o quão perigosa a IA realmente é e quais proteções podemos colocar para evitar o apocalipse do robô.

Leia a história de Will sobre os especialistas preocupados com o fato de a IA representar uma ameaça existencial para a humanidade. Leia toda a cobertura da WIRED sobre IA.

Will recomenda o romance Antimatter Blues de Edward Ashton. Mike recomenda armazenar sua comida com Bee's Wrap em vez de produtos de plástico descartáveis. Lauren recomenda o podcast Succession da HBO, apresentado por Kara Swisher.

Will Knight pode ser encontrado no Twitter @willknight. Lauren Goode é @LaurenGoode. Michael Calore é @snackfight. Bling a linha direta principal em @GadgetLab. O show é produzido por Boone Ashworth (@booneashworth). Nossa música tema é de Solar Keys.

Você sempre pode ouvir o podcast desta semana através do reprodutor de áudio desta página, mas se quiser se inscrever gratuitamente para obter todos os episódios, veja como:

Se você estiver em um iPhone ou iPad, abra o aplicativo chamado Podcasts ou apenas toque neste link. Você também pode baixar um aplicativo como Overcast ou Pocket Casts e procurar por Gadget Lab. Se você usa Android, pode nos encontrar no aplicativo Google Podcasts apenas tocando aqui. Estamos no Spotify também. E caso você realmente precise, aqui está o feed RSS.

Lauren Goode: Mike.

Michael Heat: Lauren.

Lauren Goode: Eu estava pensando que deveríamos falar sobre nossa própria extinção hoje.

Lauren Goode

Lauren Goode

Julian Chokkattu

Equipe WIRED

Michael Heat: Você quer dizer como jornalistas ou podcasters ou como seres humanos?

Lauren Goode: Talvez ambos.

Michael Heat: Ótimo.

Lauren Goode : Sim. Sim. É outro podcast sobre IA, mas acho que as pessoas realmente vão querer ouvir este.

Michael Heat: Então, posso perguntar quando vamos dar às pessoas algo para ouvir que seja realmente esperançoso?

Lauren Goode: Bem, na verdade eu acho que isso faz parte do show também.

Michael Heat: OK ótimo.

Lauren Goode: Então vamos fazer isso.

[Música de introdução do Gadget Lab toca]

Lauren Goode : Oi pessoal. Bem-vindo ao Gadget Lab. Eu sou Lauren Goode. Sou redator sênior da WIRED.

Michael Heat : E eu sou Michael Calore. Sou editor sênior da WIRED.

Lauren Goode : E hoje nosso colega escritor, Will Knight, se junta a nós de Cambridge, Massachusetts. Will, é ótimo ter você de volta no Gadget Lab.

Will Knight : Olá. É ótimo estar de volta.

Lauren Goode : Um dia desses, Will, vamos entrar em contato com você e dizer: "Gostaria de falar sobre acessórios para gatos ou algo assim?" Mas, por enquanto, você está diretamente no domínio da cobertura de IA. É sobre isso que estamos falando. Sim, estamos falando de IA mais uma vez, mas desta vez é uma declaração de um grupo de tecnólogos que alertam sobre uma ameaça existencial à humanidade. Foi a declaração de uma frase que foi ouvida em todo o mundo da tecnologia no início desta semana. “Mitigar o risco de extinção da IA ​​deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear”. Isso veio do Center for AI Safety, que é uma organização sem fins lucrativos, e foi assinado por figuras importantes no desenvolvimento da IA. Agora, obviamente não é a primeira vez que somos avisados ​​sobre os perigos da IA. Alguns de nossos ouvintes podem se lembrar da pausa que centenas dos principais tecnólogos e pesquisadores estavam pedindo em março, e até agora não resultou em uma pausa. Mas todos esses avisos do fim do mundo nos fizeram pensar: o que devemos acreditar sobre o potencial de dano da IA ​​e quem entre esses pesquisadores e tecnólogos está oferecendo a opinião mais confiável agora? Will, queríamos trazê-lo para falar sobre isso. Primeiro, ande um pouco para trás. Conte-nos um pouco sobre esta declaração do Center for AI Safety. O que estimulou isso?

COMPARTILHAR