O medo de que os robôs um dia façam um grande estrago na humanidade já é discurso antigo, mas segundo uma ex-engenheira de software da Google a ameaça está maior que nunca.
Laura Nolan, que trabalhou na gigante da tecnologia por quatro anos, revela que o Projeto Maven, para o qual havia sido contratada nos seus últimos dias na empresa, pode ser extremamente perigoso para a humanidade.
A profissional deixou a companhia após receber o pedido para que aprimorasse drones militares, em protesto contra a possível criação de armas autônomas para os Estados Unidos. Agora, ela pede que qualquer “máquina de matar” que não seja operada por humanos seja banida.
Segundo a engenheira, a Google pediu a ela e a outros funcionários que construíssem uma inteligência artificial capaz de diferenciar pessoas e objetos a uma velocidade infinitamente mais rápida.
Ao contrário dos drones militares, que podem ser controlados pelas equipes a longas distâncias, as armas autônomas podem causar grandes destruições caso não sejam usadas com o intuito para as quais foram programadas. Esses sistemas podem atingir o alvo inimigo sem a participação humana, sendo capaz também de distinguir entre objetos e pessoas.
Mas não foi só Nolan quem se revoltou contra o Project Maven. O projeto precisou ser pausado em maio deste ano quando milhares de funcionários assinaram uma petição contra ele, enquanto dezenas de outros também pediram demissão em protesto.
Nolan agora protesta junto à Campanha Para Parar Robôs Assassinos (Campaign to Stop Killer Robots), que aborda quais são os perigos que as armas autônomas podem trazer para a humanidade.
“A probabilidade de um desastre é proporcional a como muitas dessas máquinas estarão em uma área particular de uma só vez”, conta a ex-engenheira de software da Google. “O que vocês estão vendo são possíveis atrocidades e matanças ilegais mesmo dentro das leis de guerra, principalmente se centenas de milhares dessas máquinas forem lançadas”, completa, dizendo ainda que os sistemas são muito imprevisíveis e perigosos.
De acordo com o The Guardian, no entanto, não há provas de que a Google esteja envolvida no desenvolvimento de sistemas de armas autônomas. Em um debate da ONU ocorrido no mês passado, governantes disseram que a Google estava evitando o uso da inteligência artificial em armas, optando pelas melhores práticas.
Fonte: Canaltech