Robôs Assassinos: cientistas 'atacam' uso de IA em guerra

© Sputnik / Ekaterina NenakhovaRobô de combate Soratnik é mostrado durante o fórum militar EXÉRCITO 2018
Robô de combate Soratnik é mostrado durante o fórum militar EXÉRCITO 2018 - Sputnik Brasil
Nos siga no
Foi organizado um painel de discussão sobre o controle do crescente armamento militar usando inteligência artificial, no qual os participantes expuseram seus argumentos.

Foi promovido um debate sobre a inteligência artificial militar em uma conferência da Campanha para Deter os Robôs Assassinos, que realizou sua primeira reunião na Argentina, em Buenos Aires. O evento decorre entre a quarta-feira (26) e sexta-feira (28).

O desenvolvimento de sistemas militares baseados em inteligência artificial concebidos para selecionar alvos e dirigir ataques sem controle rigoroso ou tomada de decisão por parte de seres humanos está no centro de um intenso debate jurídico, moral e político no mundo contemporâneo.

A proliferação de armamento autônomo, o software de inteligência artificial (IA) aplicado a veículos não tripulados e robôs armados, levaria a desigualdades ainda maiores entre países do primeiro mundo e países em desenvolvimento, segundo foi dito no evento. Ela perpetuaria a violência contra mulheres, crianças e civis e criaria um vácuo de responsabilidade que quebraria consensos do direito internacional.

Contra o abuso de tecnologia militar

Cientistas e ativistas argentinos e internacionais apresentaram durante a conferência seus argumentos contra a pesquisa e o uso militar de programas de computador automatizados que ativam ataques de drones aéreos, terrestres, marítimos ou espaciais.

"Quando comecei a pensar nas consequências que o uso militar dos mesmos modelos que eu estava desenvolvendo poderia ter, comecei a desenvolver uma postura crítica, que eu acho que é algo que muitas vezes está faltando na comunidade científica em geral, com perspectivas limitadas na solução de problemas", disse Vanina Martínez, pesquisadora em informática e especialista em inteligência artificial simbólica que participou do painel, à Sputnik Mundo.

Martínez explicou que seu trabalho difere de outras aplicações da IA, como o aprendizado de máquina, pois seus estudos utilizam modelos baseados em conhecimento especializado através de esquemas lógicos matemáticos.

"As técnicas mais desenvolvidas que existem estão na sua infância. Ainda não entendemos bem como funcionam, não sabemos se vão evoluir para ter uma compreensão do contexto", afirmou Martínez.

© Sputnik / Ministério da Defesa da Rússia / Acessar o banco de imagensRobô de inspeção Sfera
Robôs Assassinos: cientistas 'atacam' uso de IA em guerra - Sputnik Brasil
Robô de inspeção Sfera

"Elas não podem representar o conhecimento do senso comum, interpretar o que está acontecendo ou discernir entre um combatente e um civil, e muito menos se o primeiro está tentando se fazer passar pelo segundo", explicou a cientista argentina.

Inteligência artificial, mais artificial do que inteligente?

Martinez não foi a única cientista a apresentar seus argumentos durante a conferência. A engenheira de software irlandesa Laura Nolan, uma antiga funcionária da empresa de tecnologia norte-americana Google, também participou como oradora.

Nolan disse que deixou seu emprego em 2018 em protesto contra o Projeto Maven, um contrato da Google com o Departamento de Defesa dos EUA para desenvolver inteligência artificial que melhorasse as capacidades de pontaria e vigilância dos drones no campo de batalha. Desde dezembro de 2019, Google abandonou o projeto, que permanece nas mãos da empresa de tecnologia americana Palantir.

"A proporcionalidade não pode ser quantificada, o discernimento não pode ser codificado. Isto pode levar à simplificação, como o cálculo de danos em termos do número de vítimas de um ataque sem uma perspectiva humana. Pode baixar o limite do que significa iniciar uma guerra, porque reduz o risco para os combatentes do país que tem essa tecnologia", disse Nolan em sua apresentação.

María Pía Devoto, coordenadora da Rede de Segurança Humana na América Latina e Caribe (SEHLAC, na sigla em espanhol) e mediadora da conferência, explicou à Sputnik Mundo que as armas autônomas representam problemas éticos e legais.

"O fato de um software decidir sobre a vida e a morte afeta diretamente a dignidade humana", disse ela. "No direito humanitário internacional existe o chamado 'princípio da distinção' na guerra, que exige uma diferenciação entre alvos militares e civis. É muito difícil para uma máquina sozinha interpretar esta complexidade."

© AP Photo / Apichart WeerawongRobô militar Big Dog durante mostra em Tailândia, em 4 de fevereiro de 2009
Robôs Assassinos: cientistas 'atacam' uso de IA em guerra - Sputnik Brasil
Robô militar Big Dog durante mostra em Tailândia, em 4 de fevereiro de 2009

"Por outro lado, quem é o responsável por um ato de guerra ilícito cometido por um drone, um robô, um tanque, um submarino?", argumentou a cientista política e referência no campo da não-proliferação de armas.

A apresentação

A conferência também contou com apresentações da professora norte-americana e ativista de direitos humanos Jody Williams, ganhadora do Prêmio Nobel da Paz de 1997 por seu trabalho contra o uso de minas terrestres, e Sylvie Ndongmo, de Camarões, representante da África da Liga Internacional das Mulheres pela Paz e Liberdade (WILPF, na sigla em inglês).

A Campanha para Deter os Robôs Assassinos foi formada em 2012 e é uma aliança de 86 organizações não governamentais de diferentes países de todo o mundo. Até agora, 30 países assinaram o apelo para proibir o uso dessas armas autônomas e manter um controle humano sobre o uso da força.

Feed de notícias
0
Para participar da discussão
inicie sessão ou cadastre-se
loader
Bate-papos
Заголовок открываемого материала