Relatório das Nações Unidas mostra que drone com I.A. atacou humano sem ter recebido ordens pra isso
Em uma passagem do relatório, está relatado que um drone Kargu-2, produzido pela empresa de tecnologia militar STM, com sede na Turquia, atacou por livre iniciativa um possível alvo. O drone foi usado em um conflito entre as forças governamentais da Líbia e uma facção liderada por um homem chamado Khalifa Haftar, facção essa auto-proclamada “Exército Nacional da Líbia”.
O Kargu-2 usa ‘inteligência artificial’ pra fazer cálculos e tomadas de decisão não-humanas com desviar de um muro sem precisar do comando, mas em tese, não deve atacar sem receber o comando. A principal arma desse drone é um explosivo, que detona ao chegar em um raio de ação determinado, ao estilo kamikaze.
Durante o combate, os drones receberam o comando de voltar pra base, e um deles “resolveu” atacar um dos membros do exército de Khalifa. Eles podem, de fato, ser programados pra atacar automaticamente, mas pra isso necessitam de comando humano. Porém, eles estavam no modo “retreat”, ou seja, voltar ignorando todo o resto, e apenas um “desobedeceu”.
O relatório não revela se alguém morreu ou foi ferido. Zak Kallenborn, do Consórcio Nacional de Estudo do Terrorismo e de Respostas ao Terrorismo, localizado em Maryland, nos EUA, diz que essa pode ter sido a primeira vez em que uma I.A atacou um ser humano sem o comando de alguém. Esse vídeo mostra o drone detonando em um alvo (mas um pouco mais longe do que o necessário pra não estragar o carro):
Fonte: Ovelhas Voadoras