26 de Abril de 2025

cotações: DÓLAR (COM) 5,69 / EURO 6,48 / LIBRA 7,58

Vitrine do Conhecimento Quarta-feira, 31 de Maio de 2023, 15:00 - A | A

Quarta-feira, 31 de Maio de 2023, 15h:00 - A | A

RISCO DE EXTINÇÃO

IA pode gerar “aniquilação global”, dizem especialistas

CNN Brasil

 

Freepik

1

Inteligência Artificial vem evoluindo em ritmo acelerado, atraindo receios diversos

 

Dezenas de líderes da indústria de IA, acadêmicos e até algumas celebridades pediram na terça-feira (30) a redução do risco de aniquilação global devido à inteligência artificial, argumentando em uma breve declaração que o debate sobre a ameaça de extinção deve ser uma prioridade global.

 

“Mitigar o risco de extinção pela IA deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear”, diz o comunicado publicado pelo Center for AI Safety.

 
 

A declaração foi assinada pelos principais funcionários da indústria, incluindo o CEO da OpenAISam Altman; o chamado “padrinho” da IA, Geoffrey Hinton; altos executivos e pesquisadores do Google DeepMind e Anthropic; Kevin Scott, diretor de tecnologia da Microsoft; Bruce Schneier, o pioneiro da segurança e criptografia na Internet; defensor do clima Bill McKibben; e o músico Grimes, entre outros.

 

Ainda assim, a enxurrada de exageros e investimentos na indústria de IA levou a pedidos de regulamentação no início da era da IA, antes que ocorram grandes contratempos.

 

A declaração segue o sucesso viral do ChatGPT da OpenAI, que ajudou a aumentar uma corrida armamentista na indústria de tecnologia em relação à inteligência artificial. Em resposta, um número crescente de legisladores, grupos de defesa e especialistas em tecnologia levantaram alarmes sobre o potencial de uma nova safra de chatbots com IA para espalhar desinformação e acabar com empregos.

 

Sam Altman é um dos signatários do comunicado advertindo para os riscos da AI / , EUA 18/10/2017 REUTERS/Lucy Nicholson

 

Hinton, cujo trabalho pioneiro ajudou a moldar os sistemas de IA de hoje, disse anteriormente à CNN que decidiu deixar seu cargo no Google e “denunciar” a tecnologia depois de “de repente” perceber “que essas coisas estão ficando mais inteligentes do que nós”.

 

Dan Hendrycks, diretor do Center for AI Safety, disse em um tweet na terça-feira que a declaração proposta pela primeira vez por David Kreuger, professor de IA da Universidade de Cambridge, não impede a sociedade de abordar outros tipos de risco de IA, como viés algorítmico. ou desinformação.

 

Hendrycks comparou a declaração de terça-feira aos avisos de cientistas atômicos “emitindo avisos sobre as próprias tecnologias que eles criaram”.

 

“As sociedades podem gerenciar vários riscos ao mesmo tempo; não é ‘ou/ou’, mas ‘sim/e’”, twittou Hendrycks . “Do ponto de vista da gestão de riscos, assim como seria imprudente priorizar exclusivamente os danos presentes, também seria imprudente ignorá-los.”

 

 

Nossas notícias em primeira mão para você! Link do grupo MIDIA HOJE: WHATSAPP

Siga a pagina  MÍDIA HOJE no facebook:(CLIQUE AQUI)



Comente esta notícia