HOME

NOTÍCIAS

Pesquisadores de Inteligência Artificial pedem aos reguladores que não pisem no freio em seu desenvolvimento

Pesquisadores de Inteligência Artificial pedem aos reguladores que não pisem no freio em seu desenvolvimento

Gerd Altmann por Pixabay

Pesquisadores de inteligência artificial argumentam que há pouco sentido em impor regulamentações rígidas sobre seu desenvolvimento nesta fase, já que a tecnologia ainda está em sua infância e a burocracia só vai retardar o progresso no campo. Os sistemas de IA atualmente são capazes de realizar tarefas relativamente “restritas” - como jogos, tradução de idiomas e recomendação de conteúdo. Mas eles estão longe de ser “gerais” de alguma forma e alguns argumentam que os especialistas não estão mais perto do Santo Graal da AGI (inteligência artificial geral) - a capacidade hipotética de uma IA de compreender ou aprender qualquer tarefa intelectual que um ser humano podem - do que eram na década de 1960, quando os chamados “padrinhos da IA” tiveram algumas descobertas iniciais. Cientistas da computação na área disseram à CNBC que as habilidades da IA ​​foram significativamente exageradas por alguns. Neil Lawrence, professor da Universidade de Cambridge, disse à CNBC que o termo AI se transformou em algo que não é. “Ninguém criou nada que se pareça com as capacidades da inteligência humana”, disse Lawrence, que foi diretor de aprendizado de máquina da Amazon em Cambridge. “Estas são coisas simples de tomada de decisão algorítmica.” Lawrence disse que não há necessidade de reguladores impor novas regras estritas sobre o desenvolvimento de IA neste estágio. As pessoas dizem “e se criarmos uma IA consciente e for uma espécie de livre arbítrio”, disse Lawrence. “Acho que estamos muito longe disso, mesmo sendo uma discussão relevante.” A questão é: a que distância estamos? Alguns anos? Algumas décadas? Alguns séculos? Ninguém sabe ao certo, mas alguns governos estão ansiosos para garantir que eles estejam prontos. Falando IA Em 2014, Elon Musk advertiu que a IA poderia “ser potencialmente mais perigosa do que as armas nucleares” e o falecido físico Stephen Hawking disse no mesmo ano que a IA poderia acabar com a humanidade . Em 2017, Musk mais uma vez enfatizou os perigos da IA, dizendo que isso poderia levar a uma terceira guerra mundial e pediu que o desenvolvimento da IA ​​seja regulamentado. “A IA é um risco existencial fundamental para a civilização humana, e não acho que as pessoas apreciem isso totalmente”, disse Musk. No entanto, muitos pesquisadores de IA ter problema com as opiniões de Musk no AI. Em 2017, Demis Hassabis, o fundador do polímata e CEO da DeepMind, concordou com pesquisadores de IA e líderes empresariais (incluindo Musk) em uma conferência que a “superinteligência” existirá um dia. A superinteligência é definida pelo professor de Oxford Nick Bostrom como “qualquer intelecto que exceda em muito o desempenho cognitivo dos humanos em praticamente todos os domínios de interesse”. Ele e outros especularam que as máquinas superinteligentes poderiam um dia se voltar contra os humanos. Várias instituições de pesquisa em todo o mundo estão se concentrando na segurança de IA, incluindo o Future of Humanity Institute em Oxford e o Center for the Study Existential Risk em Cambridge. Bostrom, o diretor fundador do Instituto Futuro da Humanidade, disse à CNBC no ano passado que há três maneiras principais pelas quais a IA pode acabar causando danos se de alguma forma se tornar muito mais poderosa. Eles estão: A IA pode fazer algo mal aos humanos. Os humanos podem fazer algo ruim uns com os outros usando IA. Os humanos podem fazer coisas ruins com a IA (neste cenário, a IA teria algum tipo de status moral). “Cada uma dessas categorias é um lugar plausível onde as coisas podem dar errado”, disse o filósofo sueco. O co-fundador do Skype, Jaan Tallinn, vê a IA como uma das ameaças existenciais mais prováveis à existência da humanidade . Ele está gastando milhões de dólares para tentar garantir que a tecnologia seja desenvolvida com segurança. Isso inclui fazer investimentos iniciais em laboratórios de IA como o DeepMind (em parte para que ele possa manter o controle sobre o que eles estão fazendo) e financiar pesquisas de segurança em IA nas universidades. Tallinn disse à CNBC em novembro passado que é importante observar quão fortemente e quão significativamente o desenvolvimento de IA será realimentado no desenvolvimento de IA. “Se um dia os humanos estão desenvolvendo IA e no dia seguinte os humanos estão fora do circuito, acho que é muito justificado se preocupar com o que acontece”, disse ele. Mas Joshua Feast, um graduado do MIT e fundador da Cogito, empresa de software de IA com sede em Boston, disse à CNBC: “Não há nada na tecnologia (IA) hoje que implique que algum dia chegaremos à AGI com ela.” Feast acrescentou que não é um caminho linear e que o mundo não está progressivamente chegando à AGI. Ele admitiu que poderia haver um “salto gigante” em algum ponto que nos colocaria no caminho para a AGI, mas ele não nos vê como estando nesse caminho hoje. Feast disse que os legisladores estariam melhor se concentrando no viés da IA, que é um grande problema com muitos dos algoritmos atuais. Isso porque, em alguns casos, eles aprenderam a fazer coisas como identificar alguém em uma foto com base em conjuntos de dados humanos que possuem visões racistas ou sexistas incorporadas. Novas leis A regulamentação da IA ​​é uma questão emergente em todo o mundo e os formuladores de políticas têm a difícil tarefa de encontrar o equilíbrio certo entre estimular seu desenvolvimento e gerenciar os riscos associados. Eles também precisam decidir se tentam regulamentar a “IA como um todo” ou se tentam introduzir uma legislação de IA para áreas específicas, como reconhecimento facial e carros autônomos. A tecnologia de direção autônoma da Tesla é considerada uma das mais avançadas do mundo. Mas os veículos da empresa ainda colidem com as coisas - no início deste mês, por exemplo, um Tesla colidiu com um carro da polícia nos Estados Unidos “Para que (a legislação) seja praticamente útil, você tem que falar sobre isso no contexto”, disse Lawrence, acrescentando que os formuladores de políticas devem identificar que “coisa nova” a IA pode fazer que não era possível antes e, em seguida, considerar se a regulamentação é necessária . Os políticos na Europa estão provavelmente fazendo mais para tentar regulamentar a IA do que qualquer outra pessoa. Em fevereiro de 2020, a UE publicou seu projeto de documento de estratégia para promover e regulamentar a IA, enquanto o Parlamento Europeu apresentou recomendações em outubro sobre o que as regras da IA ​​deveriam abordar no que diz respeito à ética, responsabilidade e direitos de propriedade intelectual. O Parlamento Europeu disse que “as tecnologias de IA de alto risco, como aquelas com capacidade de autoaprendizagem, devem ser projetadas para permitir a supervisão humana a qualquer momento.” Ele acrescentou que garantir que as capacidades de autoaprendizagem da IA ​​possam ser “desativadas” se for perigoso também é uma prioridade. Os esforços de regulamentação nos EUA têm se concentrado amplamente em como tornar os carros autônomos seguros e se a IA deve ou não ser usada na guerra. Em um relatório de 2016, o Conselho Nacional de Ciência e Tecnologia abriu um precedente para permitir que os pesquisadores continuem a desenvolver novos softwares de IA com poucas restrições. A Comissão de Segurança Nacional de IA, liderada pelo ex-CEO do Google Eric Schmidt, divulgou um relatório de 756 páginas neste mês dizendo que os EUA não estão preparados para defender ou competir na era da IA. O relatório avisa que os sistemas de IA serão usados ​​na “busca do poder” e que “a IA não permanecerá no domínio das superpotências ou no reino da ficção científica.” A comissão instou o presidente Joe Biden a rejeitar os pedidos de proibição global de armas autônomas, dizendo que é improvável que China e Rússia sigam qualquer tratado que assinem. “Não seremos capazes de nos defender contra ameaças habilitadas por IA sem recursos de IA onipresentes e novos paradigmas de guerra”, escreveu Schmidt. Enquanto isso, há também iniciativas de regulamentação global de IA em andamento. Em 2018, Canadá e França anunciaram planos para um painel internacional apoiado pelo G-7 para estudar os efeitos globais da IA ​​nas pessoas e economias, ao mesmo tempo em que direciona o desenvolvimento da IA. O painel seria semelhante ao painel internacional sobre mudanças climáticas. Ela foi renomeada como Global Partnership on AI em 2019. Os EUA ainda não a endossaram.

Redação