HOME

NOTÍCIAS

Cofundador do Skype revela os 3 riscos existenciais que o preocupam

Cofundador do Skype revela os 3 riscos existenciais que o preocupam

Jaan Tallinn, cofundador do Skype Centro de Estudo de Risco Existencial

O co-fundador do Skype, Jaan Tallinn, identificou o que ele acredita serem as três maiores ameaças à existência da humanidade neste século. Enquanto a emergência climática e a pandemia de coronavírus são vistas como questões que requerem soluções globais urgentes, Tallinn disse ao canal americano CNBC que a inteligência artificial, a biologia sintética e as chamadas incógnitas desconhecidas representam, cada uma, um risco existencial até 2100. A biologia sintética é o projeto e a construção de novas partes, dispositivos e sistemas biológicos, enquanto desconhecidos desconhecidos são “coisas nas quais talvez não possamos pensar agora”, de acordo com Tallinn. O programador de computador da Estônia que ajudou a criar a plataforma de compartilhamento de arquivos Kazaa nos anos 90 e o serviço de videochamada Skype nos anos 2000 está cada vez mais preocupado com a IA nos últimos anos. “A mudança climática não será um risco existencial a menos que haja um cenário de fuga”, disse ele à CNBC via Skype. Com certeza, as Nações Unidas reconheceram a crise climática como a “questão definidora de nosso tempo”, reconhecendo seus impactos como globais em escopo e sem precedentes em escala. O grupo internacional também alertou que há evidências alarmantes que sugerem que “pontos de inflexão importantes, levando a mudanças irreversíveis nos principais ecossistemas e no sistema climático planetário, podem já ter sido alcançados ou ultrapassados”. Das três ameaças com as quais Tallinn está mais preocupado, a IA é seu foco e ele está gastando milhões de dólares para tentar garantir que a tecnologia seja desenvolvida com segurança. Isso inclui fazer investimentos iniciais em laboratórios de IA como o DeepMind (em parte para que ele possa manter o controle sobre o que estão fazendo) e financiar pesquisas de segurança em IA em universidades como Oxford e Cambridge. Referindo-se a um livro do professor Toby Ord de Oxford, Tallinn disse que há uma chance em seis de que os humanos não sobrevivam neste século. Uma das maiores ameaças potenciais a curto prazo é a IA, de acordo com o livro, embora afirme que a probabilidade de uma mudança climática causar um evento de extinção humana é inferior a 1%. Predizendo o futuro da IA Quando se trata de IA, ninguém sabe o quão inteligentes as máquinas se tornarão, e tentar adivinhar o quão avançada a IA será nos próximos 10, 20 ou 100 anos é basicamente impossível. Tentar prever o futuro da IA é ainda mais complicado pelo fato de que os sistemas de IA estão começando a criar outros sistemas de IA sem intervenção humana. “Há um parâmetro muito importante ao tentar prever a IA e o futuro”, disse Tallinn. “Quão forte e exatamente o feedback do desenvolvimento de IA para o desenvolvimento de IA? Sabemos que os IAs estão sendo usados atualmente para pesquisar arquiteturas de IA. ” Se descobrir que a IA não é ótima para construir outras IAs, não precisamos nos preocupar excessivamente, pois haverá tempo para que os ganhos de capacidade de IA sejam “dispersos e implantados”, disse Tallinn. Se, no entanto, a IA é proficiente na construção de outras IAs, então é “muito justificado estar preocupado ... com o que acontece a seguir”, disse ele. Tallinn explicou como existem dois cenários principais que os pesquisadores de segurança de IA estão analisando. O primeiro é um acidente de laboratório em que uma equipe de pesquisa deixa um sistema de IA para treinar em alguns servidores de computador à noite e “o mundo não está mais lá pela manhã”. O segundo é onde a equipe de pesquisa produz uma prototecnologia que, em seguida, é adotada e aplicada a vários domínios “onde eles acabam tendo um efeito negativo”. Tallinn disse que está mais focado no primeiro, pois há menos pessoas pensando nesse cenário. Questionado sobre se ele está mais ou menos preocupado com a ideia de superinteligência (o ponto hipotético em que as máquinas alcançam inteligência de nível humano e rapidamente a superam) do que há três anos, Tallinn diz que sua visão se tornou mais “turva” ou “matizada. ” “Se alguém está dizendo que vai acontecer amanhã, ou não vai acontecer nos próximos 50 anos, ambos eu diria que estão muito confiantes”, disse ele. Laboratórios abertos e fechados As maiores empresas de tecnologia do mundo estão dedicando bilhões de dólares para o avanço do estado da IA. Embora algumas de suas pesquisas sejam publicadas abertamente, muitas delas não são, e isso tem soado alarmes em alguns cantos. “A questão da transparência não é nada óbvia”, diz Tallinn, alegando que não é necessariamente uma boa ideia publicar os detalhes sobre uma tecnologia muito poderosa. Algumas empresas estão levando a segurança da IA mais a sério do que outras, de acordo com Tallinn. A DeepMind, por exemplo, está em contato regular com pesquisadores de segurança em IA em lugares como o Future of Humanity Institute em Oxford . Também emprega dezenas de pessoas que se concentram na segurança de IA. No outro extremo da escala, centros corporativos, como Google Brain e Facebook AI Research, estão menos engajados com a comunidade de segurança de IA, de acordo com Tallinn. O Google Brain e o Facebook não responderam imediatamente ao pedido de comentários da CNBC. Se a IA se tornar mais “corrida armamentista”, será melhor se houver menos participantes no jogo, de acordo com Tallinn, que recentemente ouviu o audiobook de “The Making of The Atomic Bomb”, onde havia grandes preocupações sobre quantas pesquisas grupos estavam trabalhando na ciência. “Acho que é uma situação semelhante”, disse ele. “Se ficar claro que a IA não será muito perturbadora tão cedo, então com certeza seria útil ter empresas realmente tentando resolver alguns dos problemas de uma maneira mais distribuída”, disse ele. Publicado pelo canal americano CNBC

Redação