Nas últimas 24 horas, os cientistas vêm fazendo fila para assinar esta carta aberta. Simplificando, a proposta pede que a humanidade dedique uma parte de sua incrível pesquisa sobre Inteligência Artificial para que ela seja devidamente alinhada com os interesses humanos.
Em outras palavras, a ideia é tentar evitar a criação de nosso próprio apocalipse mecanizado.
Enquanto alguns cientistas podem não dar a mínima para esse assunto, a abundância de especialistas e técnicos como, por exemplo, caras como Stephen Hawking e Elon Musk, advertiram sobre os perigos que a Inteligência Artificial poderia representar para o nosso futuro.
Apesar de deixarem bem claro que, quando o assunto é inteligência artificial, precisamos ter cautela, eles não costumam ser precisos sobre o que exatamente temos que temer. Felizmente, outros caras também muito inteligentes estão preenchendo essas lacunas e nos deram cinco profecias sobre como a inteligência artificial pode destruir a humanidade.
Apesar de deixarem bem claro que, quando o assunto é inteligência artificial, precisamos ter cautela, eles não costumam ser precisos sobre o que exatamente temos que temer. Felizmente, outros caras também muito inteligentes estão preenchendo essas lacunas e nos deram cinco profecias sobre como a inteligência artificial pode destruir a humanidade.
1. As máquinas tomarão os nossos empregos
De acordo com Stuart Armstrong, um filósofo e pesquisador do Future of Humanity Institute (Instituto do Futuro da Humanidade, em tradução livre) em Oxford, “o primeiro impacto da tecnologia [de Inteligência Artificial] está perto de ser o desemprego total”. E não é muito difícil de imaginar por quê. Você poderia ter uma IA com inteligência nível humano, copiá-la cem vezes e treiná-la para exercer uma centena de profissões diferentes, multiplicando-a em centenas de funcionários exemplares. Pronto: nasce um exército de mão de obra muito mais barata e rentável do que a humana.
2. Os seres humanos vão ser a pedra no caminho
Daniel Dewey, um pesquisador também do Future of Humanity Institute, defende que, quando e se os seres humanos se tornam obsoletos, vamos nos tornar um pouco mais do que as pedras nos sapatos metafóricos de um robô.
“A diferença de inteligência entre humanos e chimpanzés é pequena”, disse Armstrong. Mas é nessa diferença que reside o contraste entre 7 bilhões de habitantes e um lugar permanente na lista de espécies ameaçadas de extinção. Isso nos diz que é possível que uma relativamente pequena vantagem em matéria de inteligência pode aumentar a diferença entre seres humanos e máquinas rapidamente.
“O problema básico é que a forte realização da maior parte das motivações é incompatível com a existência humana”, Dewey completa. “Uma inteligência artificial pode querer fazer certas coisas, a fim de alcançar um objetivo. Coisas como a construção de computadores gigantes, ou outros projetos de engenharia em grande escala. Essas coisas podem envolver etapas intermediárias, como recuperar a terra para fazer enormes painéis solares. Uma superinteligência poderia não ter os nossos interesses em considerar essas situações, assim como nós não temos a menor consideração com sistemas de raízes ou colônias de formigas quando vamos iniciar a construção de um edifício”.
E tem outra coisa muito significativa: a felicidade. Uma inteligência artificial pode pensar que a felicidade humana é um fenômeno bioquímico e concluir que inundar a sua corrente sanguínea com doses não letais de heroína seja a melhor maneira de maximizar a sua felicidade.
3. Inteligência Artificial não vai ser tão inteligente assim
A IA não precisa necessariamente ter a intenção explícita de nos exterminar da face da Terra para ser assustadora. Como Mark Bishop, professor de computação cognitiva na Universidade de Londres, disse ao jornal The Independent: “Estou particularmente preocupado com o potencial de implantação de sistemas de armas militares robóticas – sistemas estes que podem tomar a decisão de se envolver em embates militares sem intervenção humana – precisamente porque a atual IA que temos não é muito boa e pode facilmente forçar situações com consequências potencialmente aterrorizantes”, defende o Professor Bishop.
“O problema básico é que a forte realização da maior parte das motivações é incompatível com a existência humana”, Dewey completa. “Uma inteligência artificial pode querer fazer certas coisas, a fim de alcançar um objetivo. Coisas como a construção de computadores gigantes, ou outros projetos de engenharia em grande escala. Essas coisas podem envolver etapas intermediárias, como recuperar a terra para fazer enormes painéis solares. Uma superinteligência poderia não ter os nossos interesses em considerar essas situações, assim como nós não temos a menor consideração com sistemas de raízes ou colônias de formigas quando vamos iniciar a construção de um edifício”.
E tem outra coisa muito significativa: a felicidade. Uma inteligência artificial pode pensar que a felicidade humana é um fenômeno bioquímico e concluir que inundar a sua corrente sanguínea com doses não letais de heroína seja a melhor maneira de maximizar a sua felicidade.
3. Inteligência Artificial não vai ser tão inteligente assim
A IA não precisa necessariamente ter a intenção explícita de nos exterminar da face da Terra para ser assustadora. Como Mark Bishop, professor de computação cognitiva na Universidade de Londres, disse ao jornal The Independent: “Estou particularmente preocupado com o potencial de implantação de sistemas de armas militares robóticas – sistemas estes que podem tomar a decisão de se envolver em embates militares sem intervenção humana – precisamente porque a atual IA que temos não é muito boa e pode facilmente forçar situações com consequências potencialmente aterrorizantes”, defende o Professor Bishop.
“Por isso, é fácil concordar que inteligência artificial pode representar uma “ameaça existencial” muito real para a humanidade, mesmo que nunca alcance um nível de inteligência sobre-humana.
Se você ainda não está convencido dessa ameaça aterrorizante, siga para o próximo item.
Se você ainda não está convencido dessa ameaça aterrorizante, siga para o próximo item.
4. Síndrome de Wall-E
Outra possibilidade que os caras muito inteligentes têm levantado é que a IA pode significar o fim do mundo antes da hora. Até lá, nós vamos ser muito incompetentes para sobreviver até mesmo para tentar “desligar” toda essa tecnologia.
Bill Joy, cofundador e cientista-chefe da Sun Microsystems, escreveu na revista Wired que o que a comunidade científica sugere é que a raça humana pode facilmente ficar tão dependente das máquinas que não teria escolha prática, a não ser aceitar todas as decisões das máquinas. Como a sociedade e os problemas que enfrentamos têm a tendência de se tornarem cada vez mais complexos e as máquinas se tornam mais e mais inteligentes, as pessoas vão deixar as máquinas tomarem mais de suas decisões por elas mesmas, simplesmente porque as decisões tomadas pelas máquinas vão trazer melhores resultados do que aquelas tomadas pelos seres humanos.
Eventualmente, ele também defende, um estágio pode ser alcançado em que as decisões necessárias para manter o sistema em funcionamento serão tão complexas que os seres humanos serão incapazes de tomá-las de forma inteligente. Nessa fase, as máquinas estarão no controle de vez. As pessoas não vão ser capazes de simplesmente desligar as máquinas, porque vamos ser tão dependentes que desligá-las equivaleria ao suicídio.
5. Os robôs vão nos "comer"
Há algo chamado de “cenário grey goo” que postula que, se os robôs começarem a se reproduzir perpetuamente, vamos essencialmente ser esmagados por uma expansão da população de IA. Se eles precisarem de seres humanos para alimentar sua massa fora de controle, estaremos basicamente ferrados.
Se as máquinas de nanotecnologia, por exemplo, que podem ser cem mil vezes menores que o diâmetro de um cabelo humano, descobrirem como se replicar de forma espontânea, isso naturalmente teria consequências terríveis para a humanidade. Especialmente se a pesquisa financiada pelo Departamento de Defesa dos Estados Unidos ficasse fora de controle, cujos pesquisadores estão tentando criar um nano robô para consumir os detritos de campos de batalha, isso poderia incluir cadáveres humanos.
Se o produto da nanotecnologia desenvolver um apetite por carne humana, ou algumas das outras coisas das quais dependemos para sobreviver, como florestas ou máquinas, poderia dizimar tudo no planeta em questão de dias.
Assustador, não? Não sei você, mas eu assinaria essa carta também. Tranquilamente.
Fonte:[gizmodo]
Nenhum comentário:
Postar um comentário