Especialista avalia IA nos produtos militares: promessa ou pesadelo de Musk?

© AP Photo / Robert BumstedRabino usa programa de inteligência artificial Chat GPT no Centro Judaico de Hamptons em Nova York, EUA, 10 de fevereiro de 2023
Rabino usa programa de inteligência artificial Chat GPT no Centro Judaico de Hamptons em Nova York, EUA, 10 de fevereiro de 2023 - Sputnik Brasil, 1920, 16.02.2023
Nos siga no
A inteligência artificial tem sido usada em diferentes sistemas militares da Rússia e ocidentais. O bilionário Elon Musk, por sua vez, alertou para potenciais perigos.
A tecnologia de IA (inteligência artificial) tem ganhado relevo na área militar mundial. No entanto, o empreendedor e bilionário Elon Musk, fundador e CEO de empresas como Starlink, SpaceX e Tesla, chamou o avanço da IA de principal ameaça para a humanidade.
Sobre os benefícios, Yuri Knutov, especialista militar e diretor do Museu das Tropas de Defesa Antiaérea da Rússia, explicou ao serviço russo da Rádio Sputnik que a velocidade necessária para ativar um sistema projetado com o objetivo de interceptar um míssil balístico é tal que uma pessoa não é capaz de tomar uma decisão a tempo.
"Então somente a IA pode tomar a decisão apropriada. Nossos sistemas de mísseis antiaéreos franceses e americanos são todos construídos com isso em mente. Com o sistema antiaéreo de mísseis e artilharia Pantsir, o operador não tem tempo para fazer nada, tudo é feito pela IA: ela detecta o alvo e abre fogo. O mesmo sistema está no [complexo de defesa antiaérea] Mamba, que a França e a Itália estão planejando fornecer à Ucrânia", disse ele.
Quanto à aviação, Knutov acredita que mesmo um piloto da mais alta classe não pode competir com a inteligência artificial.
"Nosso [caça de quinta geração] Su-57 tem apenas um piloto, e na verdade deveria haver dois. Em vez de um segundo piloto, a IA é usada com bastante sucesso. Mas há controle lá por um humano na cabine", assinalou. Ele referiu que nos EUA já testaram um membro da Marinha dos EUA "do mais alto nível" usando um simulador contra um simulador para a IA. O resultado foi que ao fim de dez testes o humano só conseguiu acompanhar a IA durante um máximo de 20 segundos.
Ao mesmo tempo, o especialista militar adverte que a inteligência artificial pode cometer erros com consequências perigosas, como no caso de americanos dispararem em testes contra Abrams, e não T-72.
Inteligência artificial (IA) - Sputnik Brasil, 1920, 06.02.2023
Ciência e sociedade
'Devastação nuclear': parlamentar australiano adverte sobre perigos da IA com texto escrito por ela
"Existe um conceito chamado de visão mecânica. Digamos que uma máquina é alimentada com imagens de um tanque no inverno, no verão, no outono, na primavera, na natureza, na cidade e assim por diante. E quando há hostilidades, a IA, com base nas informações que tem em sua memória, determina se é um [tanque] T-72 ou um Abrams", mencionou.
Comentando as declarações de Musk sobre a IA, Yuri Knutov vê a capacidade inerente de autoaprendizado da IA como podendo de fato tornar os supercomputadores perigosos para os humanos.
"Quando for criada uma IA em um nível bastante alto, no processo de autoaprendizado ela pode decidir que é mais inteligente, mais avançada, e [que] tem o direito de estar na Terra, e os humanos são criaturas supérfluas. A probabilidade de que isso aconteça é muito alta. Há algumas regras de Isaac Asimov [escritor de ficção científica dos EUA que formulou as 'três leis da robótica'], segundo as quais a IA nunca deve agir contra os humanos."
"Mas em primeiro lugar, isso é apenas uma afirmação. E, em segundo lugar, no processo de autoaprendizado da IA, podem se acumular certos erros, o que pode ser de natureza sistêmica. Como resultado, assumiremos que a IA age de acordo com um roteiro, mas pode acumular erros de programação que a levarão a olhar para as pessoas de forma hostil ou a decidir que é Deus", concluiu Yuri Knutov.
Feed de notícias
0
Para participar da discussão
inicie sessão ou cadastre-se
loader
Bate-papos
Заголовок открываемого материала