ai - inteligencia artificial

6
Na semana passada, cientistas se movimentaram para assinar esta carta aberta. Basicamente, a proposta pede que a humanidade dedique uma porção da sua pesquisa em inteligência artificial para “alinhá-la aos interesses humanos”. Em outras palavras, vamos tentar não criar nós mesmos os Cavaleiros do Apocalipse, né pessoal? Embora alguns cientistas revirem os olhos a qualquer menção a uma Singularidade, muitos especialistas e tecnólogos – como, digamos, Stephen Hawking e Elon Musk – vêm nos alertando sobre os perigos que a IA pode representar no futuro. Mas embora recomendem a busca por conhecimento na área com cautela, eles são um pouco menos claros sobre o que exatamente estão tentando alertar. Felizmente, outros cientistas não fazem cerimônia na hora de pintar o cenário do caos. Aqui estão cinco das mais ameaçadoras profecias de destruição pela singularidade que nossas mentes mais brilhantes temem que possam acontecer. As máquinas tomarão nossos empregos O primeiro impacto da tecnologia Daniel Dewey, pesquisador no Instituto do Futuro da Humanidade, pega carona no pensamento de Armstrong na Aeon Magazine. Afinal, se e quando os humanos ficarem obsoletos, viraremos apenas pedras nos sapatos metafóricos dos robôs. . “Mas nessa diferença reside o contraste entre sete bilhões de habitantes e um lugar permanente na lista de

Upload: thiagofs5

Post on 09-Nov-2015

273 views

Category:

Documents


1 download

DESCRIPTION

artigos sobre AI

TRANSCRIPT

Na semana passada, cientistas se movimentaram para assinar esta carta aberta. Basicamente, a proposta pede que a humanidade dedique uma poro da sua pesquisa em inteligncia artificial para alinh-la aos interesses humanos. Em outras palavras, vamos tentar no criar ns mesmos os Cavaleiros do Apocalipse, n pessoal?Embora alguns cientistas revirem os olhos a qualquer meno a uma Singularidade, muitos especialistas e tecnlogos como, digamos, Stephen Hawking e Elon Musk vm nos alertando sobre os perigos que a IA pode representar no futuro. Mas embora recomendem a busca por conhecimento na rea com cautela, eles so um pouco menos claros sobre o que exatamente esto tentando alertar.Felizmente, outros cientistas no fazem cerimnia na hora de pintar o cenrio do caos. Aqui esto cinco das mais ameaadoras profecias de destruio pela singularidade que nossas mentes mais brilhantes temem que possam acontecer.As mquinas tomaro nossos empregosO primeiro impacto da tecnologia Daniel Dewey, pesquisador no Instituto do Futuro da Humanidade, pega carona no pensamento de Armstrong na Aeon Magazine. Afinal, se e quando os humanos ficarem obsoletos, viraremos apenas pedras nos sapatos metafricos dos robs.. Mas nessa diferena reside o contraste entre sete bilhes de habitantes e um lugar permanente na lista de espcies ameaadas. Ou seja, possvel que uma vantagem intelectual relativamente pequena se agrave rapidamente e torne-se um fator decisivo.... O problema bsico a forte percepo de que a maioria das motivaes incompatvel com a existncia humana, dizDewey. Uma IA pode querer fazer certas coisas com a matria para alcanar um objetivo, coisas como construir computadores gigantes, ou outros projetos de engenharia de larga escala. Essas coisas podem envolver etapas intermedirias, como dilacerar a Terra para construir enormes painis solares. Uma super-inteligncia pode no levar os nossos interesses em conta nessas situaes, da mesma forma que no ligamos para sistemas de razes e colnias de formigas quando vamos construir um prdio.Voc poderia dar a ela uma meta benevolente algo fofinho e utilitrio, como maximizar a felicidade humana. Mas uma IA pode achar que a felicidade humana um fenmeno bioqumico. Ela pode achar que inundar a nossa corrente sangunea com doses no letais de herona a melhor forma de maximizar a nossa felicidade.A inteligncia artificial no ser to inteligenteEstou especialmente preocupado com o possvel uso militarde sistemas de armas robticas sistemas que podem tomar a deciso de entrar em uma batalha sem interveno humana --, precisamente porque a IA atual no muito boa e pode facilmente piorar umasituao, com consequncias potencialmente aterrorizantes, disse o Professor Bishop.Ento fcil concordar que a IA talvez represente uma ameaa existencial real humanidade sem ter que imaginar que ela algum dia chegue ao nvel de inteligncia super humana, disse. Devemos temer a IA, mas pelos motivos contrrios aos dados pelo Professor Hawking, explicou.A sndrome de Wall-ENs notamosque a raa humana podefacilmente se permitir manter emuma posio de tamanha dependncia das mquinas a ponto de no ter uma escolha prtica que no a de aceitar todas as decises das mquinas. Na medida em que a sociedade e os problemas que ela enfrenta se tornam mais e mais complexos - e as mquinas, mais e mais inteligentes - as pessoas deixaro que mquinas tomem as decises por elas, simplesmente porque decises feitas pormquinas traro resultados melhores que as tomadas por humanos. Em certo ponto, talvez seja alcanado um estgio no qual as decises necessrias para manter o sistema funcionando sero to complexas que seres humanos sero incapazes de tom-las de maneira inteligente. Nesse ponto, as mquinas estaro efetivamente nocontrole. As pessoas no conseguiro deslig-las, porque sero to dependentes que o desligamento equivaleria ao suicdio.Os robs iro nos devorarSe as mquinas da nanotecnologia que podem ser cem mil vezes menores que o dimetro de um fio de cabelo descobrirem como se replicar espontaneamente, isso naturalmente traria implicaes medonhas humanidadeSe a nanotecnologia desenvolver um apetite pode carne humana ou alguma das outras coisas de que dependemos para sobreviver, como florestas ou mquinas --, ela poderia dizimar tudo no planeta em questo de dias. Esses minirrobs famintos poderiam transformar o nosso lar azul e verde em uma bola cinzenta

http://www.msn.com/pt-br/noticias/ciencia-e-tecnologia/cinco-especialistas-explicam-como-a-intelig%c3%aancia-artificial-pode-acabar-com-a-humanidade/ar-AA8nVSF?ocid=mailsignoutmd

O fsico mais conhecido do mundo est nos alertando dos riscos da superinteligncia das mquinas, dizendo que essa pode ser a coisa mais significativa a acontecer na histria da humanidade e possivelmente a ltima.A superinteligncia artificial representa uma ameaa em potencial humanidade, ento bom ver um cientista respeitado como Stephen Hawking reconhecer a questo e fazer o que pode para espalhar a mensagem.Hawking, junto com o cientista da computao Stuart Russell e os fsicos Max Tegmark e Frank Wilczek, diz que os potenciais benefcios podem ser imensos, mas no podemos prever o que pode ser conseguido quando a inteligncia artificial estiver bem desenvolvida nem o que pode vir de bom nisso, nem o que pode acontecer de ruim.

Escrevendo para a The Independent, o cientista alerta:Olhando para o futuro, no h limites fundamentais para o que pode ser alcanado: no h nenhuma lei fsica impedindo partculas de se organizarem de forma que executem clculos ainda mais avanados do que os arranjos de partculas em crebros humanos. Uma transio explosiva possvel, apesar de talvez ser um pouco diferente de um filme: como Irving Good percebeu em 1965, mquinas com inteligncia sobre-humana podem repetidamente melhorar o prprio design, ativando o que Vernor Vinge chamou de singularidade e o personagem do filme de Johnny Depp chama de transcendncia.Algum pode pensar que tal tecnologia pode ser mais inteligente que mercados financeiros, superar pesquisadores humanos, ficar alm da manipulao de lderes humanos e desenvolver armas que nem conseguimos entender. Considerando que o impacto de curto prazo da AI depende de quem a controla, o impacto a longo prazo depende se ela pode ser de alguma forma controlada.Ento, encarando possveis futuros de benefcios e riscos incalculveis, os especialistas certamente vo fazer tudo possvel para garantir o melhor resultado, certo? Errado. Se uma civilizao aliengena superior nos envia uma mensagem Estamos chegando dentro de algumas dcadas, ns responderamos apenas Ok, ligue quando estiverem por aqui vamos deixar as luzes acesas? Provavelmente no mas mais ou menos isso o que est acontecendo com a inteligncia artificial. Apesar de estarmos prestes a encarar o que potencialmente ser a melhor ou pior coisa da histria da humanidade, pouca pesquisa sria est sendo feita sobre essas questes fora de instituies sem fins lucrativos como o Centro de Estudos de Risco Existencial em Cambridge, o Instituto do Futuro da Humanidade, o Instituto de Pesquisa de Inteligncia de Mquina, e o Instituto de Vida Futura. Todos devamos nos perguntar o que podemos fazer para melhorar as chances de colher os benefcios e evitar os riscos.http://gizmodo.uol.com.br/stephen-hawking-inteligencia-artificial/