Robôs que buscam e eliminam alvos de forma autônoma, sem
intervenção humana, podem parecer ficção, mas, um grupo de renomados
cientistas, que inclui nomes como Stephen Hawking, Elon Musk e Steve Wozniak,
alertam que essa tecnologia será viável em poucos anos. Em carta divulgada
nesta quarta-feira, na abertura da International Joint Conferences on
Artificial Intelligence, pesquisadores de todo o mundo se posicionaram contra a
criação de máquinas assassinas. O temor, dizem eles, é que uma nova corrida
armamentista se inicie.
“A tecnologia de inteligência artificial alcançou um ponto
onde o desenvolvimento desses sistemas será viável em anos, não décadas, e as
apostas são altas: armas autônomas estão sendo descritas como a terceira
revolução na guerra, depois da pólvora e das armas nucleares”, argumentam os
signatários da carta. “Se alguma grande força militar começar o desenvolvimento
de armas com IA, uma corrida armamentista global é virtualmente inevitável, e o
fim desta trajetória tecnológica é óbvia: armas autônomas se tornarão a Kalashnikov
de amanhã”.
Hoje, veículos aéreos não-tripulados já estão nos campos de
batalha, mas sempre com um ser humano no controle, mesmo que à distância, que
decide se deve ou não matar. Tecnologias de localização, navegação e
reconhecimento de imagem e ambiente já existem, basta serem programadas para a
guerra. Já é possível, por exemplo, criar um quadricóptero que atire contra
alvos vivos vestidos com determinada roupa.
O temor dos pesquisadores é que, ao serem desenvolvidas,
elas caiam nas mãos não apenas de forças regulares, mas de terroristas e
ditadores. Diferente das armas nucleares, que requerem materiais raros, a
inteligência artificial será barata o suficiente para a produção em massa de
imensos exércitos.
“Será apenas uma questão de tempo até que elas apareçam no
mercado negro e cheguem às mãos de terroristas, ditadores querendo aumentar o
seu controle sobre a população, senhores da guerra querendo realizar limpezas
étnicas. Armas autônomas são ideais para tarefas como assassinatos,
desestabilizar nações, subjugar populações e matar seletivamente um grupo
étnico em particular”, dizem os cientistas.
Fernando Santos Osório, professor do Instituto de Ciências
Matemáticas e de Computação da USP/São Carlos, é um dos signatários da carta.
Ele explica que o grupo não é contra os robôs militares, que podem auxiliar
missões de resgate, reconhecimento e até salvar vidas. O temor é dar às
máquinas autonomia para matar.
— É extremamente temerário, você pode perder o controle
sobre a máquina. Uma programação errada e ela pode se voltar contra o próprio
pesquisador — explica Osório.
Entretanto, o temor (ainda) não é que as máquinas se
levantem e dominem a humanidade, como a Skynet em “O Exterminador do Futuro”,
mas que armamentos extremamente letais e descartáveis caiam nas mãos erradas. O
que falta, diz Osório, é exatamente inteligência. Com a tecnologia disponível,
as máquinas não seriam capazes de realizar juízo de valor. Em uma guerra, por
exemplo, elas não distinguiriam um soldado inimigo levantando uma bandeira de
rendição de outro com uma arma em mãos.
— Por enquanto, não existe o risco de os robôs tomarem conta
no mundo — diz Osório. — A comunidade acadêmica discute isso e está dividida,
mas é como discutir o sexo dos anjos, é um debate sobre um problema que ainda
não está próximo.
A carta serve para marcar posição. Como químicos e biólogos
não têm interesse em construir armas químicas e biológicas, a maioria dos
pesquisadores em inteligência artificial e robótica não têm interesse em
construir armas autônomas. Sobretudo porque tal desenvolvimento pode manchar o
campo e criar reação pública negativa à tecnologia.
“Em resumo, nós acreditamos que a inteligência artificial
tem potencial para beneficiar a humanidade em diversas formas, e o objetivo do
campo deve ser esse. Começar uma corrida armamentistas é uma ideia ruim, e deve
ser prevenida pelo banimento de armamentos autônomos ofensivos além do controle
humano”, dizem os signatários.