Uma pesquisa do site Air Force Technology descobriu que 60% dos leitores pensam que drones aéreos armados totalmente autônomos não devem ser proibidos.
Os drones autônomos armados estão sob crescente ascensão nos últimos anos, à medida que a inteligência artificial e a tecnologia de veículos aéreos não tripulados continuam a se desenvolver a um ponto em que os sistemas poderão em breve executar missões letais sem intervenção humana.
A pesquisa feita pelo site Air Force Technology, fez a seguinte pergunta: ‘Os drones militares autônomos armados devem ser banidos?’ Às quais 8.000 pessoas responderam ‘Não’ e 5.410 votaram ‘Sim’.
A pesquisa constatou que, entre 13.410 entrevistados, 60% pensam que os drones autônomos armados não devem ser banidos, enquanto 40% pensam que devem ser proibidos de usar.
As negociações para regular o uso de sistemas autônomos de armas letais estagnaram, inclusive em novembro de 2019, as negociações da ONU sobre a regulamentação falharam. Em março do ano passado, governos do Reino Unido, EUA, Rússia, Israel e Austrália se opuseram a proibir o uso de armas autônomas.
Um debate importante sobre o uso dos sistemas tem sido a questão de saber se um ser humano deve estar no comando para supervisionar as determinações tomadas pelas decisões autônoma e aprovar qualquer força letal.
Em novembro de 2019, o secretário de Defesa dos EUA, Mark Esper, usou um discurso na conferência pública da Comissão de Segurança Nacional sobre Inteligência Artificial, para alertar que os EUA haviam observado a China oferecendo a venda de drones letais totalmente autônomos no Oriente Médio e na África. De acordo com o fabricante, o UAV e o Ziyan Blowfish A2, é capaz de executar armas totalmente autônomas e pode ser munido com uma carga útil de armas.
De acordo com o Ministério da Defesa do Reino Unido (MOD), os dois requisitos para uma arma ser classificada como”armas de sistema autônomo” é: “sistema autoconsciente com sua resposta a fatores irreconhecíveis ou mesmo superiores aos de uma aeronave tripulada”. Como tal, eles devem ser capazes de alcançar o mesmo nível de entendimento organizacional que um humano.
O outro requisito do Ministério da Defesa do Reino Unido é: “ Ser capaz de entender a intenção e direção de nível superior. A partir desse entendimento e de sua percepção do ambiente, esse sistema é capaz de tomar as medidas apropriadas para obter a condição desejado. e ser capaz de decidir um caminho de ação, a partir de várias alternativas. ”
Em um documento preparado para o Comitê de Defesa da Câmara dos Lordes, o professor de IA e robótica e presidente do Comitê Internacional para Controle de Armas de Robô, Noel Sharkey escreveu: “É improvável que essas máquinas existam no futuro próximo. O MOD indica que, ‘as máquinas tem que ter a capacidade de entender intenções de nível superior, sendo capazes de decidir um curso de ação sem depender da supervisão e controle humanos, atualmente não existem e são improváveis de existirem no futuro’.
E você o que acha desse tema? Comete e deixe sua opinião.
1 comentário
Pingback: Sikorsky UH-60 Black Hawk - Mundo Engenharia