×

Startups e acadêmicos se chocam se a IA sobre -humana está realmente ‘entrando à vista’

Startups e acadêmicos se chocam se a IA sobre -humana está realmente 'entrando à vista'

Startups e acadêmicos se chocam se a IA sobre -humana está realmente ‘entrando à vista’



O hype está crescendo de líderes das principais empresas de IA de que a inteligência de computadores “forte” superará iminentemente os seres humanos, mas muitos pesquisadores do campo vêem as reivindicações como uma rotação de marketing.

A crença de que a inteligência humana ou besteira-geralmente chamada de “inteligência geral artificial” (AGI)-emergirá das atuais técnicas de aprendizado de máquina alimentam hipóteses para o futuro, desde a hiperabundância entregue a máquina até a extinção humana.

“Os sistemas que começam a apontar para a AGI estão aparecendo”, escreveu o chefe do Openai, Sam Altman, em um post no mês passado. Dario Amodei, da Anthrópica, disse que o marco “pode ​​chegar a 2026”.

Tais previsões ajudam a justificar as centenas de bilhões de dólares sendo despejados em hardware de computação e o suprimento de energia para executá -lo.

Outros, embora sejam mais céticos.

O principal cientista da META da AI, Yann Lecun, disse à AFP no mês passado que “não vamos chegar à IA no nível humano, apenas dimensionando os LLMs”-os grandes modelos de idiomas por trás de sistemas atuais como ChatGPT ou Claude.

A visão de Lecun aparece apoiada pela maioria dos acadêmicos no campo.

Mais de três quartos dos entrevistados a uma pesquisa recente da Associação dos EUA para o Avanço da Inteligência Artificial (AAAI) concordaram que “aumentar as abordagens atuais” não era improvável que produza a AGI.

‘Genie fora da garrafa’

Alguns acadêmicos acreditam que muitas das reivindicações das empresas, que às vezes ladeavam com avisos sobre os perigos da AGI para a humanidade, são uma estratégia para capturar a atenção.

As empresas “fizeram esses grandes investimentos e precisam valer a pena”, disse Kristian Kersting, pesquisadora líder da Universidade Técnica de Darmstadt, na Alemanha, e a AAAI, destacou suas realizações no campo.

“Eles apenas dizem: ‘Isso é tão perigoso que só eu posso operá -lo, na verdade eu mesmo tenho medo, mas já deixamos o gênio sair da garrafa, então vou me sacrificar em seu nome – mas então você é dependente de mim'”.

O ceticismo entre os pesquisadores acadêmicos não é total, com figuras proeminentes como o físico ganhador do Nobel Geoffrey Hinton ou o vencedor do prêmio Turing de 2018, Yoshua Bengo, alerta sobre os perigos da poderosa IA.

“É um pouco como o aprendiz de Goethe ‘The Sorcerer’s’s, você tem algo de repente que não pode mais controlar”, disse Kersting-referindo-se a um poema em que um suposto rio-sero perde o controle de uma vassoura que ele encantou para fazer suas tarefas.

Um experimento de pensamento mais recente e semelhante é o “Paperclip Maximiser”.

Essa IA imaginada buscaria seu objetivo de criar clipes de papel com tanta força que transformaria a Terra e, finalmente, tudo importa no universo em clipes de papel ou máquinas de fabricação de clipes de papel-depois de se livrar dos seres humanos que julgou pode prejudicar seu progresso, desligando-se.

Embora não “mal”, o maximizador ficaria fatalmente curto com o que os pensadores no campo chamam de “alinhamento” da IA ​​com objetivos e valores humanos.

Kerting disse que “pode ​​entender” esses medos – sugerindo que “a inteligência humana, sua diversidade e qualidade é tão destacada que levará muito tempo, se é que alguma vez” para os computadores o combinam.

Ele está muito mais preocupado com os danos de curto prazo da IA ​​já existente, como a discriminação nos casos em que interage com os seres humanos.

‘Maior coisa de todos’

O abismo aparentemente grosso, nas perspectivas entre os líderes acadêmicos e a indústria da IA, pode simplesmente refletir as atitudes das pessoas enquanto escolhem uma carreira, sugeriu Sean O Heigeartaigh, diretor da IA: Programa de Futuros e Responsabilidade da Universidade de Cambridge, na Grã -Bretanha.

“Se você está muito otimista sobre o quão poderosos são as técnicas atuais, provavelmente é mais provável que trabalhe em uma das empresas que está investindo muito recurso para tentar fazer isso acontecer”, disse ele.

Mesmo que Altman e Amodei possam ser “bastante otimistas” sobre as escalas de tempo rápidas e a AGI surgir muito mais tarde, “deveríamos estar pensando nisso e levando isso a sério, porque seria a maior coisa que jamais aconteceria”, acrescentou O Heigeartaigh.

“Se fosse mais alguma coisa … uma chance de os alienígenas chegarem até 2030 ou que haveria outra pandemia gigante ou algo assim, dedicamos algum tempo ao planejando”.

O desafio pode estar na comunicação dessas idéias aos políticos e ao público.

Talk Of Super-AI “cria instantaneamente esse tipo de reação imune … parece ficção científica”, disse O Heigeartaigh.

Esta história foi originalmente apresentada em Fortune.com


Publicar comentário