AI não vai acabar com a humanidade (ainda)
Michael Calore Lauren Goode
A ideia de que a inteligência das máquinas um dia dominará o mundo há muito tempo é um elemento básico da ficção científica. Mas, devido aos rápidos avanços nas ferramentas de inteligência artificial no nível do consumidor, o medo parece mais próximo da realidade nos últimos meses do que nunca. A mania generativa da IA despertou empolgação e apreensão em igual medida, deixando muitas pessoas inquietas sobre para onde está indo o futuro dessa tecnologia claramente poderosa, mas ainda nascente. Esta semana, por exemplo, o grupo sem fins lucrativos Center for AI Safety divulgou uma breve declaração alertando que a sociedade deveria levar a IA tão a sério como uma ameaça existencial quanto fazemos com guerras nucleares e pandemias.
Esta semana, no Gadget Lab, conversamos com o escritor sênior da WIRED, Will Knight, sobre o quão perigosa a IA realmente é e quais proteções podemos colocar para evitar o apocalipse do robô.
Leia a história de Will sobre os especialistas preocupados com o fato de a IA representar uma ameaça existencial para a humanidade. Leia toda a cobertura da WIRED sobre IA.
Will recomenda o romance Antimatter Blues de Edward Ashton. Mike recomenda armazenar sua comida com Bee's Wrap em vez de produtos de plástico descartáveis. Lauren recomenda o podcast Succession da HBO, apresentado por Kara Swisher.
Will Knight pode ser encontrado no Twitter @willknight. Lauren Goode é @LaurenGoode. Michael Calore é @snackfight. Bling a linha direta principal em @GadgetLab. O show é produzido por Boone Ashworth (@booneashworth). Nossa música tema é de Solar Keys.
Você sempre pode ouvir o podcast desta semana através do reprodutor de áudio desta página, mas se quiser se inscrever gratuitamente para obter todos os episódios, veja como:
Se você estiver em um iPhone ou iPad, abra o aplicativo chamado Podcasts ou apenas toque neste link. Você também pode baixar um aplicativo como Overcast ou Pocket Casts e procurar por Gadget Lab. Se você usa Android, pode nos encontrar no aplicativo Google Podcasts apenas tocando aqui. Estamos no Spotify também. E caso você realmente precise, aqui está o feed RSS.
Lauren Goode: Mike.
Michael Heat: Lauren.
Lauren Goode: Eu estava pensando que deveríamos falar sobre nossa própria extinção hoje.
Lauren Goode
Lauren Goode
Julian Chokkattu
Equipe WIRED
Michael Heat: Você quer dizer como jornalistas ou podcasters ou como seres humanos?
Lauren Goode: Talvez ambos.
Michael Heat: Ótimo.
Lauren Goode : Sim. Sim. É outro podcast sobre IA, mas acho que as pessoas realmente vão querer ouvir este.
Michael Heat: Então, posso perguntar quando vamos dar às pessoas algo para ouvir que seja realmente esperançoso?
Lauren Goode: Bem, na verdade eu acho que isso faz parte do show também.
Michael Heat: OK ótimo.
Lauren Goode: Então vamos fazer isso.
[Música de introdução do Gadget Lab toca]
Lauren Goode : Oi pessoal. Bem-vindo ao Gadget Lab. Eu sou Lauren Goode. Sou redator sênior da WIRED.
Michael Heat : E eu sou Michael Calore. Sou editor sênior da WIRED.
Lauren Goode : E hoje nosso colega escritor, Will Knight, se junta a nós de Cambridge, Massachusetts. Will, é ótimo ter você de volta no Gadget Lab.
Will Knight : Olá. É ótimo estar de volta.
Lauren Goode : Um dia desses, Will, vamos entrar em contato com você e dizer: "Gostaria de falar sobre acessórios para gatos ou algo assim?" Mas, por enquanto, você está diretamente no domínio da cobertura de IA. É sobre isso que estamos falando. Sim, estamos falando de IA mais uma vez, mas desta vez é uma declaração de um grupo de tecnólogos que alertam sobre uma ameaça existencial à humanidade. Foi a declaração de uma frase que foi ouvida em todo o mundo da tecnologia no início desta semana. “Mitigar o risco de extinção da IA deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear”. Isso veio do Center for AI Safety, que é uma organização sem fins lucrativos, e foi assinado por figuras importantes no desenvolvimento da IA. Agora, obviamente não é a primeira vez que somos avisados sobre os perigos da IA. Alguns de nossos ouvintes podem se lembrar da pausa que centenas dos principais tecnólogos e pesquisadores estavam pedindo em março, e até agora não resultou em uma pausa. Mas todos esses avisos do fim do mundo nos fizeram pensar: o que devemos acreditar sobre o potencial de dano da IA e quem entre esses pesquisadores e tecnólogos está oferecendo a opinião mais confiável agora? Will, queríamos trazê-lo para falar sobre isso. Primeiro, ande um pouco para trás. Conte-nos um pouco sobre esta declaração do Center for AI Safety. O que estimulou isso?