Investing.com - Mais uma vez, um grupo de especialistas e líderes do setor de tecnologia alertou sobre os possíveis perigos da IA em uma carta aberta ontem, chegando ao ponto de advertir que a inteligência artificial poderia levar à extinção da humanidade.
Eles também disseram que o controle e a redução dos riscos associados a essa tecnologia devem ser uma prioridade global.
A IA ameaça a humanidade de extinção, assim como as pandemias e as guerras nucleares
"Mitigar o risco de extinção associado à IA deve ser uma prioridade global, assim como outros riscos para toda a sociedade, como pandemias e guerras nucleares", diz a declaração publicada na terça-feira.
GOOGLMSFTA carta foi assinada por Sam Altman, CEO da OpenAI, a editora do ChatGPT, bem como por executivos da DeepMind, o braço de IA do Google (NASDAQ: ) e da Microsoft (NASDAQ: ), agrupados sob o nome de "Centro de Segurança de IA".
A tecnologia de IA ganhou ritmo nos últimos meses, depois que o chatbot ChatGPT foi disponibilizado ao público em novembro. Apenas dois meses após seu lançamento, ele atingiu 100 milhões de usuários, depois de surpreender os pesquisadores e o público em geral com sua capacidade de gerar respostas semelhantes às humanas.
A declaração de terça-feira disse que tem havido uma discussão crescente sobre uma "ampla gama de riscos importantes e urgentes associados à IA".
A tecnologia se acelerou nos últimos meses, depois que o chatbot ChatGPT foi lançado ao público em novembro e se tornou viral. Apenas dois meses após seu lançamento, ele atingiu 100 milhões de usuários.
O ChatGPT surpreendeu os pesquisadores e o público em geral com sua capacidade de gerar respostas semelhantes às humanas às perguntas feitas pelos usuários, sugerindo que a IA poderia substituir empregos e imitar os humanos.
Controle dos riscos associados ao crescimento da IA
O comunicado de terça-feira afirma que há uma discussão crescente sobre uma "ampla gama de riscos importantes e urgentes associados à IA".
No entanto, a carta lamenta que seja "difícil expressar preocupações sobre alguns dos riscos mais graves da IA avançada" e enfatiza que o objetivo é superar essa barreira e abrir discussões.
Altman, CEO da OpenAI, admitiu em março que estava "um pouco assustado" com a IA, temendo que governos autoritários usassem a tecnologia.
No início deste mês, ele também testemunhou perante o Congresso, passando a maior parte do tempo pedindo aos legisladores que regulamentassem seu setor.
TSLAAAPLOutros líderes tecnológicos, como Elon Musk, da Tesla (NASDAQ: ), o ex-CEO do Google, Eric Schmidt, e o cofundador da Apple (NASDAQ: ), Steve Wozniak, alertaram sobre os riscos que a IA representa para a sociedade.
Juntamente com outras figuras importantes do mundo da tecnologia, eles já haviam solicitado aos laboratórios de IA em março que parassem de treinar sistemas mais potentes do que o GPT-4, pedindo uma pausa de seis meses.