09:15 23 Janeiro 2020
Ouvir Rádio
    Ciência e tecnologia
    URL curta
    391
    Nos siga no

    Muitos especialistas, inclusive o chefe da SpaceX, Elon Musk, advertiram para o perigo que o desenvolvimento desregulado da inteligência artificial pode provocar, alertando para a dificuldade de prever o comportamento de robôs com inteligência artificial.

    Tom Chivers, autor do livro recém-lançado chamado "A Inteligência Artificial Não Quer te Matar", em entrevista ao tabloide britânico Daily Star, disse que o debate com especialistas de inteligência artificial revelou que a criação deste tipo de inteligência sobre-humana irá provavelmente acontecer nos próximos 50 anos e poderá potencialmente levar à imortalidade ou à completa destruição da civilização humana.

    Chivers falou sobre sua conversa com o engenheiro da Google Paul Crowley para mostrar que os cientistas estão divididos relativamente à questão se a humanidade irá testemunhar o avanço rápido das poderosas máquinas desenvolvidas à base da IA. O autor do livro disse que ficou particularmente horrorizado com a opinião do engenheiro da Google.

    "O seu raciocínio era, se você olhar para o que a maioria dos pesquisadores de IA pensa sobre quando é que virá a verdadeira inteligência artificial sobre-humana, de acordo com a maioria dos especialistas esse tempo irá chegar no espaço entre 50 a 100 anos", afirmou Chivers.

    "E se você perguntar a eles qual será o resultado de algo semelhante acontecer, a maioria deles pensa que existe uma probabilidade de entre 20% e 30% de isso pôr fim à civilização humana. Ela irá literalmente matar todo o mundo", advertiu o autor do livro.

    Porém, Chivers fez notar também que muitos especialistas acreditam que a criação da IA sobre-humana permitirá acabar com a pobreza e ajudar na cura das doenças, conduzindo assim à imortalidade.

    "É a ideia de que nós podemos estar à beira de algo realmente incrível ou algo completamente catastrófico, na geração de meus filhos e possivelmente na minha", acrescentou Chivers.

    Em novembro de 2017, o fundador da empresa espacial SpaceX, o empreendedor Elon Musk, disse que a IA pode ser mais perigosa do que as armas nucleares. Segundo ele, é muito provável que a IA saia do controle dos humanos e decida se livrar deles.

    Mais:

    Google, Facebook e Microsoft propõem que Pentágono controle inteligência artificial
    QI superior a 9.000 pontos: militares russos obterão apoio de inteligência artificial
    Tags:
    Elon Musk, catástrofe humanitária, humanidade, inteligência artificial, robô, Google
    Padrões da comunidadeDiscussão
    Comentar no FacebookComentar na Sputnik
    • Comentar