09:55 13 Agosto 2020
Ouvir Rádio
    Ciência e tecnologia
    URL curta
    420
    Nos siga no

    Por ocasião da conferência sobre robôs assassinos realizada 13 e 17 de novembro em Genebra, a Sputnik conversou com o especialista em inteligência artificial e professor da Universidade de Berlim, Raúl Rojas González, sobre as perspectivas do desenvolvimento deste tipo de "armas letais". Rojas deixou claro: um robô jamais será humano.

    O professor indica que é precisamente isso o que diferenciará sempre a inteligência humana da artificial e também a razão pela qual não parece uma boa ideia deixar os robôs e os aviões militares à vontade sem a supervisão de um humano.

    No entanto, durante a conferência, patrocinada pela ONU, em que os representantes dos governos de vários países e diversos especialistas discutiram sobre a possível proibição deste tipo de máquinas, não se conseguiu chegar a nenhum acordo.

    Guerras sem responsáveis

    Para que um sistema seja autônomo é necessário, antes de tudo, que seja capaz de tomar decisões por conta própria, explica Rojas à Sputnik Alemanha. Os drones, por exemplo, devem ser capazes não apenas de reconhecer um tanque, mas também de persegui-lo se este se desloca. Mas no caso dos robôs assassinos, para Rojas não há dúvidas.

    "A verdade é que a fronteira entre este tipo de armas e sistemas, como os mísseis, que através de GPS localizam seu objetivo, não está clara", diz, afirmando que esta é a razão por que na conferência de Genebra não foi alcançado nenhum acordo sobre a proibição deste tipo de armas. Uma proibição destas características afetaria muitos tipos de armamento.

    Segundo o especialista mexicano, o objetivo das novas tecnologias militares é, em primeiro lugar, "manter as pessoas longe das zonas de conflito em toda uma série de cenários de guerra", mas a esse primeiro objetivo adiciona-se outro: o de que essa distância entre as pessoas e o conflito seja, além disso, psicológica. De maneira que o tema da responsabilidade pelos atos cometidos fica relegada para um segundo plano.

    Decisões erradas

    Para Rojas, o principal perigo dos robôs é que eles acabem tomando decisões erradas, algo que pode acontecer, sobretudo no caso dos drones. Uma pessoa, explica, sempre pode confiar em sua intuição e no seu conhecimento da situação.

    "Os robôs, pelo contrário, não têm intuição", afirma o pesquisador. "O robô está programado para responder a situações básicas. É impossível programar todos os cenários."
    Rojas argumenta também que as máquinas se podem enganar muito facilmente, e coloca como exemplo os foguetes que perseguem aeronaves. Essas mesmas aeronaves podem separar objetos a altas temperaturas que acabam despistando o míssil.

    A questão de saber se, com o tempo, todas estas limitações podem ser solucionadas, o pesquisador mexicano volta a mostrar-se cético. Na sua opinião, "é impossível" pedir aos drones e robôs militares que aprendam a diferenciar entre "inimigos" e "não inimigos". Algo que é particularmente difícil, aponta, quando aqueles que estão envolvidos no conflito não usam uniforme."

    "Seria necessário que este tipo de armas contasse com inteligência humana. E isso, na minha opinião, é impossível."

    Também não têm moral

    "Creio que não se pode implementar a ética nas máquinas", diz Rojas. Como é que se ia comportar um robô assassino em frente a um grupo de terroristas entre a população civil? Os atos neste tipo de cenários requerem, para o professor, uma análise racional da situação e empatia. Qualidades todas elas longe do alcance dos robôs.
    Rojas se mostra cauteloso e acredita que as máquinas não devem tomar decisões cujos resultados possam ser letais sem o consentimento ou aprovação prévia de um humano. "Alguém deve ser responsável pela situação e não culpar as máquinas."

    Mais:

    De olho na inteligência artificial, Rússia quer criar novas armas até 2025
    Boa ideia: ensinar a inteligência artificial a ganhar guerras
    Tags:
    inteligência artificial, guerra, robô de combate
    Padrões da comunidadeDiscussão
    Comentar na SputnikComentar no Facebook
    • Comentar