Recentemente, tem havido uma série de artigos na grande imprensa, e uma avalanche de pessoas de alto perfil que estão em tecnologia, mas não em IA, especulando sobre os perigos da IA ​​malévola sendo desenvolvida, e como devemos nos preocupar com essa possibilidade. Eu digo, relaxe. Calafrio. Tudo isso vem de alguns equívocos fundamentais sobre a natureza do progresso inegável que está sendo feito na IA, e de um equívoco de quão longe estamos realmente de ter seres artificialmente inteligentes volitivos ou intencionais, sejam eles profundamente benevolentes ou malévolos.

A propósito, isso não é um novo medo, e vimos isso acontecer em filmes por um longo tempo, de “2001: Uma Odisséia no Espaço”, em 1968, “Colossus: The Forbin Project” em 1970, através de muitos outros e, em seguida, “Eu, Robô”, em 2004. Em todos os casos, um computador decidiu que não se podia confiar nos seres humanos para administrar as coisas e começar a matá-los. O computador sabia melhor do que as pessoas que os construíram, então começou a matá-los. (Felizmente isso não acontece com a maioria dos adolescentes, que sempre sabem melhor do que os pais que os construíram.)

Acho que é um erro se preocupar com o fato de desenvolvermos IA malévola a qualquer momento nos próximos cem anos . Penso que a preocupação deriva de um erro fundamental em não distinguir a diferença entre os avanços recentes muito reais em um aspecto particular da IA, e a enormidade e complexidade da construção da inteligência volitiva consciente.

Avanços recentes na aprendizagem profunda de máquinas nos permitem ensinar às nossas máquinas coisas como distinguir classes de entradas e ajustar curvas a dados de tempo. Isso permite que nossas máquinas “saibam” se uma imagem é de um gato ou não, ou “saiba” o que está prestes a falhar à medida que a temperatura aumenta em um sensor específico dentro de um motor a jato. Mas isso é apenas parte de ser inteligente, e a Lei de Moore, aplicada a esse avanço técnico muito real, não trará por si só o nível humano ou a inteligência do nível super humano. Enquanto o aprendizado profundo pode surgir com uma categoria de coisas que aparecem em vídeos que se correlacionam com gatos, não ajuda muito em “saber” que tipo de gato é, em vez de dogness, nem que esses conceitos são muito mais semelhantes a uns aos outros do que a salamandra. E o aprendizado profundo não ajuda a dar uma “intenção” à máquina, ou quaisquer metas abrangentes ou “desejos”. E isso não ajuda uma máquina a explicar como é que “sabe” algo, ou quais são as implicações do conhecimento, ou quando esse conhecimento pode ser aplicável, ou contrafactualmente quais seriam as conseqüências desse conhecimento ser falso.

Vamos continuar inventando uma IA melhor e mais inteligente. Vai levar muito tempo, mas haverá recompensas a cada passo ao longo do caminho. Os robôs se tornarão abundantes em nossas casas, lojas, fazendas, escritórios, hospitais e em todos os nossos locais de trabalho. Como nossos dispositivos portáteis atuais, não saberemos como vivíamos sem eles.

DEIXE UMA RESPOSTA

Please enter your comment!
Please enter your name here