Personalidades como Bill Gates, Stephen Hawking e Elon Musk já expressaram o temor de a inteligência artificial superar a humana e, assim, colocar em risco a nossa civilização.
A Universidade de Stanford, na Califórnia, lançou um projeto de longo prazo para avaliar os efeitos dessas tecnologias em nossa sociedade. Agora, um estudo intitulado "12 riscos globais que representam ameaça à civilização humana", divulgado este mês, lista as chamadas superinteligências como um risco real para a nossa existência no planeta.
A pesquisa foi elaborada pela Fundação Global Challenges, em
parceria com o Instituto Futuro da Humanidade, da Universidade de Oxford, no
Reino Unido.
O trabalho é considerado o primeiro a selecionar os
principais perigos para a civilização humana. Entre os riscos atuais, estão as
mudanças climáticas extremas, a guerra nuclear, as catástrofes ecológicas,
pandemias e crises sócio-econômicos com potencial de disseminação global.
Na categoria "riscos exógenos", estão um
improvável impacto de asteroide e uma eventual erupção de um supervulcão. Já
entre os "riscos emergentes", são listadas a biologia sintética, a
nanotecnologia, a inteligência artificial e um item chamado de "riscos
incertos". Há uma última categoria chamada de "risco de políticas
globais", na qual estão relacionadas apenas as "falhas de governança
futura".
— Esta revisão acadêmica foi elaborada a fim de dar suporte
em conhecimento aos formuladores de políticas sobre a existência e alcance
desses riscos globais, e fornecer um caminho para ações imediatas em escala
internacional para prevenir ou limitar os seus efeitos — explica Dennis Pamlin,
consultor da fundação e coautor do relatório.
A Inteligência Artificial é apontada como uma das ameaças
menos compreendidas, pois existem incertezas consideráveis sobre previsões de
quanto tempo levará para o desenvolvimento de superinteligências e quando elas
aprenderão a se desenvolver sozinhas. Os riscos mais imediatos se referem à
substituição de humanos no trabalho, mas elas podem avançar tanto a ponto de
saírem do controle.
“Tais inteligências extremas podem não ser fáceis de
controlar, e poderiam agir de forma a aumentar suas próprias inteligências e a
maximizar a aquisição de recursos para suas motivações iniciais. E se essas
motivações não detalharem a sobrevivência e o valor da humanidade em detalhes
exaustivos, a inteligência pode ser levada a construir um mundo sem humanos”,
descreve o estudo.
Apesar de a Inteligência Artificial ser colocada como uma
séria ameaça à nossa sobrevivência, existem outros desafios mais urgentes.
Mudanças Climáticas Extremas, Guerra Nuclear, Catástrofe Ecológica, Pandemia e
Colapso do Sistema Global são citados como os riscos atuais.
DESAFIOS ATUAIS
Os impactos da mudança climática serão mais intensos em
países pobres, que podem se tornar completamente inabitáveis dependendo da
intensidade das alterações no clima. Entre os cenários possíveis, o relatório
aponta mortes em massa, fome, colapso social e migração em massa.
“Combinado com choques na agricultura e nas indústrias
dependentes da biosfera em países mais desenvolvidos, isso poderia levar a um
conflito global e, possivelmente, ao colapso da civilização”, alerta o estudo.
A possibilidade de uma guerra total entre Rússia e EUA
diminuiu consideravelmente, mas o potencial para um conflito nuclear deliberado
ou acidental ainda existe. Segundo estimativas, as chances de uma guerra
nuclear acontecer nos próximos cem anos é de aproximadamente 10%. O impacto vai
depender das dimensões do conflito, que podem gerar desde impactos locais ao
inverno nuclear.
O pior dos cenários é que as explosões causem incêndios tão
grandes que a fumaça alcance a estratosfera, o que reduziria drasticamente a
temperatura do planeta e afetaria a produção global de alimentos.