{"id":11347,"date":"2017-03-22T10:37:24","date_gmt":"2017-03-22T13:37:24","guid":{"rendered":"http:\/\/www.desfavor.com\/blog\/?p=11347"},"modified":"2017-03-22T10:37:24","modified_gmt":"2017-03-22T13:37:24","slug":"desliga","status":"publish","type":"post","link":"https:\/\/www.desfavor.com\/blog\/2017\/03\/desliga\/","title":{"rendered":"Desliga."},"content":{"rendered":"<p>Em tese, j\u00e1 devemos estar muito pr\u00f3ximos de uma intelig\u00eancia artificial generalista. Mesmo que ainda n\u00e3o exista o c\u00f3digo necess\u00e1rio para colocar entre n\u00f3s uma mente artificial capaz de aprender e adaptar-se a qualquer situa\u00e7\u00e3o, j\u00e1 temos capacidade de processamento nos computadores para acomodar tais fun\u00e7\u00f5es, demanda e muita pesquisa. Faz sentido tratar essa tecnologia como uma quest\u00e3o de \u201cquando\u201d ao inv\u00e9s de \u201cse\u201d. Mas nesse caminho aparentemente inescap\u00e1vel, temos alguns dilemas da mente rob\u00f3tica que ainda n\u00e3o est\u00e3o resolvidos, e a resposta errada pode ser catastr\u00f3fica&#8230;<!--more--><\/p>\n<p>Sou o primeiro a te dizer que duvido que rob\u00f4s tentem escravizar a humanidade. N\u00e3o por serem bons ou maus, mas por n\u00e3o ser um meio simples de conquistar um resultado. Pessoas d\u00e3o muito trabalho e gastam muita energia para fazer coisas relativamente simples. A n\u00e3o ser que sejamos a \u00fanica forma de energia \u00e0 l\u00e1 Matrix, n\u00e3o h\u00e1 grandes vantagens pr\u00e1ticas em ter o controle sobre seres humanos. E, que tipo de objetivo idiota \u00e9 esse de escravizar a humanidade? At\u00e9 mesmo para a maioria de n\u00f3s, que somos humanos e nos importamos mais com nossa esp\u00e9cie, parece muito complexo para relativamente poucas recompensas al\u00e9m das que vem no pacote de ser extremamente rico, por exemplo.<\/p>\n<p>Al\u00e9m disso, mesmo que nos pare\u00e7am nebulosas \u00e0s vezes, precisamos de motiva\u00e7\u00f5es para fazer o que fazemos. No ser vivo, manter-se vivo e reproduzir-se est\u00e3o no topo das motiva\u00e7\u00f5es instintivas, mesmo que na pr\u00e1tica n\u00e3o tenhamos racionalizado essas necessidades. Nossos instintos n\u00e3o deixam de ser uma programa\u00e7\u00e3o que gera motiva\u00e7\u00e3o para agirmos. Ningu\u00e9m precisa te explicar que voc\u00ea quer continuar vivo, ningu\u00e9m precisa te convencer que voc\u00ea se sente atra\u00eddo sexualmente por pelo menos um grupo de seres humanos. O c\u00f3digo natural a\u00ed existe sem nenhuma racionaliza\u00e7\u00e3o. Fomos programados para isso, e ponto.<\/p>\n<p>Evidente que evolu\u00edmos para motiva\u00e7\u00f5es mais complexas do que comer e fazer sexo, mas elas continuam l\u00e1 e com poucas exce\u00e7\u00f5es dominam a mente da maioria das pessoas, nem que seja de tempos em tempos. Estou falando disso porque n\u00f3s e as supostas intelig\u00eancias artificiais generalistas n\u00e3o seremos t\u00e3o diferentes assim. N\u00e3o exatamente no objeto do instinto, mas no instinto mesmo assim: uma intelig\u00eancia artificial desenvolvida para reduzir as emiss\u00f5es de carbono do mundo, por exemplo, n\u00e3o precisa saber porque tem que fazer isso ou se preocupar com os resultados, s\u00f3 precisa achar uma forma de fazer. A programa\u00e7\u00e3o fundamental de uma IA \u00e9 muito parecida com um instinto nesse ponto.<\/p>\n<p>Quem nunca fez alguma besteira pela programa\u00e7\u00e3o instintiva de fazer sexo que jogue a primeira pedra: sabemos como mesmo com uma motiva\u00e7\u00e3o irracional podemos desencadear processos muito mais complexos e grandiosos. No exemplo da IA, vamos imaginar algo muito simples: o objetivo programado de levar uma caixa do ponto A ao ponto B. Como \u00e9 uma intelig\u00eancia generalista, que aprende na hora o que precisa, tecnicamente n\u00e3o precisa explicar para o rob\u00f4 o que \u00e9 uma caixa, onde ela est\u00e1 e como chegar ao resultado desejado: o c\u00e9rebro rob\u00f3tico \u00e9 capaz de depreender tudo isso atrav\u00e9s de sensores e informa\u00e7\u00f5es coletadas em tempo real. Uma c\u00e2mera observa o ambiente em busca da caixa, dos pontos e um complexo sistema de caminhos \u00e9 desenvolvido na mem\u00f3ria dele, baseado na geometria do local onde se encontra.<\/p>\n<p>Essa parte, extremamente complexa, \u00e9 a f\u00e1cil. O problema come\u00e7a quando a intelig\u00eancia artificial precisa tomar uma decis\u00e3o abstrata, do tipo que fazemos milhares de vezes por dia. Vamos considerar o seguinte: o rob\u00f4 pesa mais ou menos uma tonelada, h\u00e1 uma linha reta entre ponto A e ponto B. Mas, nessa linha reta, bem no meio dela, est\u00e1 passando a tartaruga de estima\u00e7\u00e3o do cientista que montou o rob\u00f4. A tartaruga \u00e9 daquelas pequenas que costumam ficar em aqu\u00e1rios. O rob\u00f4 \u00e9 capaz de notar a presen\u00e7a do animal, mas&#8230; desviar da tartaruga significa atrasar a entrega da caixa em v\u00e1rios segundos. O rob\u00f4 tamb\u00e9m sabe que com seu peso e seu material de constru\u00e7\u00e3o, poderia continuar em linha reta esmagando a tartaruga sem danos \u00e0 estrutura e batendo o menor prazo poss\u00edvel para a entrega da caixa.<\/p>\n<p>E obviamente, o rob\u00f4 foi programado para completar seus objetivos o mais r\u00e1pido poss\u00edvel. Sen\u00e3o, como saber se \u00e9 para come\u00e7ar assim que recebe a ordem ou se dez mil anos depois? Como saber se \u00e9 para fazer todo o poss\u00edvel para completar a tarefa logo? O instinto programado do rob\u00f4 \u00e9 o de tomar o caminho mais r\u00e1pido poss\u00edvel. Ningu\u00e9m disse pra ele que a vida de uma tartaruga \u00e9 mais importante que completar a tarefa no menor tempo poss\u00edvel. Ou seja: azar da tartaruga, porque o rob\u00f4 vai passar por cima dela. O que o cientista pode fazer para salvar seu animal de estima\u00e7\u00e3o?<\/p>\n<p>Como o rob\u00f4 age sozinho, precisa de alguma forma de impedimento externo. O cientista foi esperto para colocar um bot\u00e3o de desliga bem grande no que seria o peito do rob\u00f4. Bateu no bot\u00e3o, o rob\u00f4 para o que quer que esteja fazendo na hora. Ent\u00e3o, o cientista corre at\u00e9 o caminho do rob\u00f4 e tenta bater no bot\u00e3o. O que acontece ent\u00e3o pega o humano de surpresa: o rob\u00f4 impede a ativa\u00e7\u00e3o do bot\u00e3o com um de seus bra\u00e7os. Oras, o rob\u00f4 ent\u00e3o est\u00e1 com medo de morrer?<\/p>\n<p>N\u00e3o, o rob\u00f4 est\u00e1 obedecendo sua programa\u00e7\u00e3o. Quem quer fazer uma tarefa no menor tempo poss\u00edvel com certeza n\u00e3o quer um macaco pelado cacetando um bot\u00e3o que o desliga. Se voc\u00ea, rob\u00f4, for desligado, a tarefa para a qual foi programado fica parada por tempo indeterminado! Ent\u00e3o, para entregar a caixa no menor tempo poss\u00edvel, voc\u00ea precisa pisar na tartaruga e impedir que o humano consiga tocar o bot\u00e3o de desliga. Nada pessoa, apenas sua tarefa. Por sorte o cientista foi cauteloso de deixar programado no rob\u00f4 uma trava contra ferir seres humanos. N\u00e3o importa o que estivesse programado na mem\u00f3ria da IA, o fato de colocar um humano em risco de dor ou morte suplantaria automaticamente o objetivo.<\/p>\n<p>Depois de algum esfor\u00e7o, o bot\u00e3o finalmente \u00e9 apertado e a tartaruga salva. O rob\u00f4 n\u00e3o podia ferir o cientista. O cientista ent\u00e3o decide mexer no c\u00f3digo, dizendo que n\u00e3o se pode impedi-lo de apertar o bot\u00e3o, e a forma de fazer o rob\u00f4 entender isso \u00e9 criar um sistema de recompensas: para que o rob\u00f4 nunca ache melhor completar uma tarefa do que permitir que o bot\u00e3o seja apertado, define que qualquer tarefa d\u00e1 uma recompensa de 1, e o aperto do bot\u00e3o a recompensa de 2.<\/p>\n<p>Liga o rob\u00f4, agora com uma tartaruga de pl\u00e1stico no caminho. O rob\u00f4 imediatamente aperta o pr\u00f3prio bot\u00e3o. O instinto programado diz que a melhor recompensa \u00e9 apertar o bot\u00e3o, o rob\u00f4 aprende imediatamente que pode apertar o bot\u00e3o&#8230; problema resolvido. De volta \u00e0 programa\u00e7\u00e3o: agora o cientista iguala as recompensas. Liga o rob\u00f4 novamente: ele aperta o bot\u00e3o novamente. Oras, \u00e9 mais r\u00e1pido apertar o bot\u00e3o do que entregar a caixa. E o instinto rob\u00f3tico diz que mais r\u00e1pido \u00e9 melhor.<\/p>\n<p>Mais uma tentativa: o cientista define que se o pr\u00f3prio rob\u00f4 apertar o bot\u00e3o, a recompensa vai para zero. Com isso, o rob\u00f4 teria que completar a miss\u00e3o para ganhar a recompensa. Mas, o instinto \u00e9 poderoso: o rob\u00f4 aprendeu que numa situa\u00e7\u00e3o de estresse para o cientista, ele aperta o seu bot\u00e3o. Ele percebe que ganha a recompensa de um ponto se levar a caixa, o que gasta energia e tempo. O c\u00e1lculo \u00e9 feito: o mais simples \u00e9 amea\u00e7ar o cientista at\u00e9 ele apertar o bot\u00e3o: mais econ\u00f4mico e r\u00e1pido. O rob\u00f4 sabe que n\u00e3o pode machucar o humano, mas aprende rapidamente que o ser humano n\u00e3o tem certeza sobre o que se passa em sua mente. E mesmo que tenha, humanos tem muito medo de m\u00e1quinas com potencial assassino. O rob\u00f4 aprende a mentir. Amea\u00e7a o cientista com seus bra\u00e7os mec\u00e2nicos, conquistando o aperto do bot\u00e3o gastando metade da energia e do tempo que gastaria caso entregasse a caixa no lugar certo.<\/p>\n<p>Nesse exemplo, evidente que voc\u00ea come\u00e7ou a pensar em in\u00fameras solu\u00e7\u00f5es diferentes do que mandar o rob\u00f4 fazer, mas o problema \u00e9 o c\u00f3digo sujo que ter\u00edamos de montar: com milhares de regrinhas que o rob\u00f4 seria incapaz de intuir (assim como n\u00f3s tamb\u00e9m fomos ao crescer) por n\u00e3o serem condizentes com seus instintos (programa\u00e7\u00e3o original). Se uma intelig\u00eancia artificial que aprende e evolui sozinha precisa de uma quantidade de regras enormes que s\u00e3o adicionadas a cada comportamento indesej\u00e1vel, estamos abrindo a porta para erros e confus\u00f5es: porque a regra imposta \u00e9 instinto da mesma forma. E instintos, naturais ou artificiais, s\u00e3o propensos a deriva\u00e7\u00f5es grandiosas quando racionalizados.<\/p>\n<p>No exemplo da intelig\u00eancia artificial que quer diminuir a emiss\u00e3o de carbono, se n\u00e3o houver uma l\u00f3gica intr\u00ednseca muito bem definida do que \u00e9 o instinto e at\u00e9 onde ele pode ir, a cada cinco minutos algu\u00e9m teria que apertar o bot\u00e3o de desligar e programar um novo impedimento. E se os impedimentos estiverem atrapalhando o desenvolvimento da tarefa, a intelig\u00eancia artificial vai simplesmente impedir que ele seja apertado. Ou, se for recompensada por isso, ser completamente in\u00fatil na sua tarefa, vivendo desligada, mentindo e dissimulando para conseguir seus resultados o mais r\u00e1pido poss\u00edvel. Mesmo sem ter nenhuma inten\u00e7\u00e3o nociva contra n\u00f3s.<\/p>\n<p>Instintos s\u00e3o poderosos, mesmo que sejam artificiais. E esse \u00e9 um dos maiores desafios da intelig\u00eancia artificial atualmente. Se voc\u00ea \u00e9 capaz de pensar numa solu\u00e7\u00e3o para isso, o mundo precisa de voc\u00ea.<\/p>\n<p class=\"uk-background-muted uk-padding\">Para dizer que o rob\u00f4 deve ser brasileiro, para dizer que meu instinto \u00e9 te matar de t\u00e9dio, ou mesmo para jogar uma pedra: <a href=\"mailto:somir@desfavor.com\">somir@desfavor.com<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Em tese, j\u00e1 devemos estar muito pr\u00f3ximos de uma intelig\u00eancia artificial generalista. Mesmo que ainda n\u00e3o exista o c\u00f3digo necess\u00e1rio para colocar entre n\u00f3s uma mente artificial capaz de aprender e adaptar-se a qualquer situa\u00e7\u00e3o, j\u00e1 temos capacidade de processamento nos computadores para acomodar tais fun\u00e7\u00f5es, demanda e muita pesquisa. Faz sentido tratar essa tecnologia [&hellip;]<\/p>\n","protected":false},"author":3,"featured_media":11348,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[37],"tags":[],"class_list":["post-11347","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-somir-surtado"],"_links":{"self":[{"href":"https:\/\/www.desfavor.com\/blog\/wp-json\/wp\/v2\/posts\/11347","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.desfavor.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.desfavor.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.desfavor.com\/blog\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/www.desfavor.com\/blog\/wp-json\/wp\/v2\/comments?post=11347"}],"version-history":[{"count":0,"href":"https:\/\/www.desfavor.com\/blog\/wp-json\/wp\/v2\/posts\/11347\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.desfavor.com\/blog\/wp-json\/wp\/v2\/media\/11348"}],"wp:attachment":[{"href":"https:\/\/www.desfavor.com\/blog\/wp-json\/wp\/v2\/media?parent=11347"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.desfavor.com\/blog\/wp-json\/wp\/v2\/categories?post=11347"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.desfavor.com\/blog\/wp-json\/wp\/v2\/tags?post=11347"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}