Para cientista, os robôs jamais vão virar humanos

© Sputnik / Yevgeny Odinokov / Abrir o banco de imagensRobôs de combate
Robôs de combate - Sputnik Brasil
Nos siga noTelegram
Por ocasião da conferência sobre robôs assassinos realizada 13 e 17 de novembro em Genebra, a Sputnik conversou com o especialista em inteligência artificial e professor da Universidade de Berlim, Raúl Rojas González, sobre as perspectivas do desenvolvimento deste tipo de "armas letais". Rojas deixou claro: um robô jamais será humano.

O professor indica que é precisamente isso o que diferenciará sempre a inteligência humana da artificial e também a razão pela qual não parece uma boa ideia deixar os robôs e os aviões militares à vontade sem a supervisão de um humano.

No entanto, durante a conferência, patrocinada pela ONU, em que os representantes dos governos de vários países e diversos especialistas discutiram sobre a possível proibição deste tipo de máquinas, não se conseguiu chegar a nenhum acordo.

Guerras sem responsáveis

Robôs - Sputnik Brasil
Robôs poderão mesmo desencadear 3ª Guerra Mundial como acredita Elon Musk?
Para que um sistema seja autônomo é necessário, antes de tudo, que seja capaz de tomar decisões por conta própria, explica Rojas à Sputnik Alemanha. Os drones, por exemplo, devem ser capazes não apenas de reconhecer um tanque, mas também de persegui-lo se este se desloca. Mas no caso dos robôs assassinos, para Rojas não há dúvidas.

"A verdade é que a fronteira entre este tipo de armas e sistemas, como os mísseis, que através de GPS localizam seu objetivo, não está clara", diz, afirmando que esta é a razão por que na conferência de Genebra não foi alcançado nenhum acordo sobre a proibição deste tipo de armas. Uma proibição destas características afetaria muitos tipos de armamento.

Segundo o especialista mexicano, o objetivo das novas tecnologias militares é, em primeiro lugar, "manter as pessoas longe das zonas de conflito em toda uma série de cenários de guerra", mas a esse primeiro objetivo adiciona-se outro: o de que essa distância entre as pessoas e o conflito seja, além disso, psicológica. De maneira que o tema da responsabilidade pelos atos cometidos fica relegada para um segundo plano.

Decisões erradas

Drones de ataque com mísseis Grey Eagle (imagem ilustrativa) - Sputnik Brasil
Armas de destruição em massa: especialistas apelam pela proibição de 'robôs assassinos'
Para Rojas, o principal perigo dos robôs é que eles acabem tomando decisões erradas, algo que pode acontecer, sobretudo no caso dos drones. Uma pessoa, explica, sempre pode confiar em sua intuição e no seu conhecimento da situação.

"Os robôs, pelo contrário, não têm intuição", afirma o pesquisador. "O robô está programado para responder a situações básicas. É impossível programar todos os cenários."
Rojas argumenta também que as máquinas se podem enganar muito facilmente, e coloca como exemplo os foguetes que perseguem aeronaves. Essas mesmas aeronaves podem separar objetos a altas temperaturas que acabam despistando o míssil.

A questão de saber se, com o tempo, todas estas limitações podem ser solucionadas, o pesquisador mexicano volta a mostrar-se cético. Na sua opinião, "é impossível" pedir aos drones e robôs militares que aprendam a diferenciar entre "inimigos" e "não inimigos". Algo que é particularmente difícil, aponta, quando aqueles que estão envolvidos no conflito não usam uniforme."

Robô submarino russo, foto de arquivo - Sputnik Brasil
Sem precedentes: Rússia vai organizar competições de robôs militares
"Seria necessário que este tipo de armas contasse com inteligência humana. E isso, na minha opinião, é impossível."

Também não têm moral

"Creio que não se pode implementar a ética nas máquinas", diz Rojas. Como é que se ia comportar um robô assassino em frente a um grupo de terroristas entre a população civil? Os atos neste tipo de cenários requerem, para o professor, uma análise racional da situação e empatia. Qualidades todas elas longe do alcance dos robôs.
Rojas se mostra cauteloso e acredita que as máquinas não devem tomar decisões cujos resultados possam ser letais sem o consentimento ou aprovação prévia de um humano. "Alguém deve ser responsável pela situação e não culpar as máquinas."

Feed de notícias
0
Para participar da discussão
inicie sessão ou cadastre-se
loader
Bate-papos
Заголовок открываемого материала