19:22 11 Novembro 2019
Ouvir Rádio
    Inteligência artificial (IA)

    Erro irreversível: quais os riscos da inteligência artificial ligada ao arsenal nuclear?

    CC0
    Análise
    URL curta
    9121
    Nos siga no

    O perigo da utilização da inteligência artificial (IA) no setor militar foi discutido com um especialista, na sequência do artigo da Breaking Defence com declarações do ex-secretário adjunto da Defesa dos EUA, Robert Work.

    Segundo o ex-responsável pela Segurança Nacional americana, citado pela revista americana, os militares precisam da IA, mas não há necessidade de exagerar seu papel em futuros conflitos.

    O físico e professor assistente da Universidade da Carolina do Norte (EUA), Dr. Mark Gubrud, membro da Comissão Internacional para o Controle de Armas Robotizadas, disse à Sputnik Internacional que a inteligência artificial tem um grande potencial para ser usada em armas, mas os "humanos são melhores a julgar as situações mais complicadas e ambíguas".

    Ataque nuclear iminente

    "Infelizmente, na guerra, os erros são muitas vezes irreversíveis, e se os sistemas automatizados começarem a lutar uns contra os outros, poderemos ser incapazes de pará-los, ou mesmo de compreender o que está acontecendo, antes que seja tarde demais", destaca o professor.

    O especialista sugere que a solução seria a criação de um tratado que faça do controle humano de todas as armas uma questão de direito e que permita verificar que não estão sendo utilizadas armas autônomas.

    "Os EUA estão alegadamente desenvolvendo sistemas de inteligência artificial para análise de dados de inteligência que poderiam alertar sobre um ataque nuclear iminente da Coreia do Norte […] O que torna isso especialmente perigoso é que os sistemas são destinados a acelerar o processo, tornando a análise mais rápida e antes que os humanos possam verificar ou fazer uma análise alternativa", afirma o físico, ao ser questionado sobre a pressão do Pentágono na questão da inteligência artificial.

    'Momento mais perigoso'

    Na opinião de Gubrud, é improvável que os EUA ou qualquer outra nação permita que um computador lance armas nucleares sem uma decisão humana.

    A Rússia supostamente tem um sistema automatizado que pode reagir se um primeiro ataque inimigo destruir a liderança do país, mas o sistema russo envolve seres humanos e só seria ativado se se considerasse que o ataque era realmente iminente, acredita o analista.

    Inteligência artificial (IA)
    Inteligência artificial (IA)

    "Infelizmente, esse é o momento mais perigoso […] É exatamente isso que estamos fazendo hoje com a destruição de tratados e a chamada nova corrida armamentista, com novas armas nucleares e não nucleares que encurtam os tempos de ataque e de resposta. Com a perda do Tratado INF, é muito importante que os EUA e a Rússia renovem o START e considerem novas iniciativas, tais como limites aos testes de mísseis e sua implantação, uma proibição de testes de armas hipersônicas, de armas antissatélite, baseadas no espaço e de robôs assassinos."

    Objetivos contraditórios

    Quando perguntado sobre o grau de segurança dos sistemas de inteligência artificial, o especialista explica que o "problema fundamental da dissuasão nuclear é que ela só funciona se puder falhar", ou seja, "se a guerra nuclear continuar sendo uma possibilidade".

    "O controle humano é essencial, mas não é suficiente. A única verdadeira segurança é acabar com a corrida armamentista e acabar com as armas nucleares", ressalta o professor.

    "Com os nossos sistemas de alerta, tentamos garantir que nunca ocorrerá um falso alarme, mas também que estes não deixem de nos avisar de um ataque real […] Com nossos sistemas de comando e controle nuclear, tentamos garantir que o sistema não possa ser acionado por uma ordem não autorizada, um hacker ou um erro interno, mas também que eles funcionarão como pretendido, mesmo sob ataque, se uma ordem adequada for dada", conclui Gubrud.

    As opiniões expressas nesta matéria podem não necessariamente coincidir com as da redação da Sputnik

    Mais:

    Como inteligência artificial poderia provocar guerra nuclear?
    EUA vão testar inteligência artificial em drones militares de combate
    Empresas russas são mais ativas na adoção da inteligência artificial, revela pesquisa
    Tags:
    robô de combate, Robert Work, guerra nuclear, inteligência artificial
    Padrões da comunidadeDiscussão
    Comentar no FacebookComentar na Sputnik
    • Comentar