20:21 23 Janeiro 2020
Ouvir Rádio
    Defesa
    URL curta
    8 0 0
    Nos siga no

    Conselho de Inovação da Defesa (DIB), uma organização consultiva do Pentágono, lançou um conjunto de princípios sobre "ética da inteligência artificial (IA)" para o uso "responsável" de armas autônomas.

    A inteligência artificial está cada vez mais se tornando um fator que definirá a guerra futura, com as forças armadas de grandes potências analisando suas vantagens.

    Em consequência disso, estudiosos e líderes tecnológicos estão alertando que se essa tecnologia for instalada em sistemas de armas ela poderia posteriormente aprender como travar hostilidades sozinha ou tomar decisões independentes durante o combate.

    Para aliviar os temores em relação a essa tecnologia, foram lançadas cinco diretrizes para a IA que receberam aprovação unânime.

    Analisar próprias ações

    A inteligência artificial deve ser confiável o suficiente para cumprir suas funções programadas e ser "rastreável", para que possa potencialmente ser auditada por observadores externos, de acordo com o Pentágono.

    Os humanos ainda devem ser responsáveis pelo desenvolvimento, implantação e resultados de seu uso. A IA deve ser livre de qualquer "viés não intencional", como racismo ou sexismo, a menos que isso seja necessário em um ambiente militar.

    Inteligência artificial (IA)
    © CC0
    Inteligência artificial (IA)

    Outro princípio requer que um sistema de IA seja capaz de analisar suas próprias ações e parar assim que detectar a possibilidade de causar danos desnecessários, devendo também ter uma opção para entregar o controle a um operador humano.

    "As recomendações do DIB ajudarão a aumentar o compromisso do DoD [Departamento de Defesa dos EUA] em manter os mais altos padrões éticos, conforme descrito na estratégia de IA do DoD, enquanto assume a forte história do Exército dos EUA de aplicação de testes rigorosos e uso de padrões para inovações tecnológicas", disse o tenente-general John N.T. "Jack" Shanahan, diretor do Centro Conjunto de Inteligência Artificial.

    Ataques letais

    Acredita-se que a IA vai ajudar os militares dos EUA a vencerem adversários quase iguais, como a China ou a Rússia.

    Os ataques letais com drones americanos – uma dimensão da guerra que faz uso de tecnologias modernas e depende de controle remoto – têm sido criticados há muito tempo por matar dezenas de civis inocentes.

    Mais:

    Inteligência artificial militar dos EUA estaria trabalhando para acelerar ataques de armas
    Como inteligência artificial poderia provocar guerra nuclear?
    Erro irreversível: quais os riscos da inteligência artificial ligada ao arsenal nuclear?
    Tags:
    ética, drone, inteligência artificial, Pentágono
    Padrões da comunidadeDiscussão
    Comentar no FacebookComentar na Sputnik
    • Comentar