Startups e acadêmicos se chocam se a IA sobre -humana está realmente ‘entrando à vista’
O hype está crescendo de líderes das principais empresas de IA de que a inteligência de computadores “forte” superará iminentemente os seres humanos, mas muitos pesquisadores do campo vêem as reivindicações como uma rotação de marketing.
A crença de que a inteligência humana ou besteira-geralmente chamada de “inteligência geral artificial” (AGI)-emergirá das atuais técnicas de aprendizado de máquina alimentam hipóteses para o futuro, desde a hiperabundância entregue a máquina até a extinção humana.
“Os sistemas que começam a apontar para a AGI estão aparecendo”, escreveu o chefe do Openai, Sam Altman, em um post no mês passado. Dario Amodei, da Anthrópica, disse que o marco “pode chegar a 2026”.
Tais previsões ajudam a justificar as centenas de bilhões de dólares sendo despejados em hardware de computação e o suprimento de energia para executá -lo.
Outros, embora sejam mais céticos.
O principal cientista da META da AI, Yann Lecun, disse à AFP no mês passado que “não vamos chegar à IA no nível humano, apenas dimensionando os LLMs”-os grandes modelos de idiomas por trás de sistemas atuais como ChatGPT ou Claude.
A visão de Lecun aparece apoiada pela maioria dos acadêmicos no campo.
Mais de três quartos dos entrevistados a uma pesquisa recente da Associação dos EUA para o Avanço da Inteligência Artificial (AAAI) concordaram que “aumentar as abordagens atuais” não era improvável que produza a AGI.
‘Genie fora da garrafa’
Alguns acadêmicos acreditam que muitas das reivindicações das empresas, que às vezes ladeavam com avisos sobre os perigos da AGI para a humanidade, são uma estratégia para capturar a atenção.
As empresas “fizeram esses grandes investimentos e precisam valer a pena”, disse Kristian Kersting, pesquisadora líder da Universidade Técnica de Darmstadt, na Alemanha, e a AAAI, destacou suas realizações no campo.
“Eles apenas dizem: ‘Isso é tão perigoso que só eu posso operá -lo, na verdade eu mesmo tenho medo, mas já deixamos o gênio sair da garrafa, então vou me sacrificar em seu nome – mas então você é dependente de mim'”.
O ceticismo entre os pesquisadores acadêmicos não é total, com figuras proeminentes como o físico ganhador do Nobel Geoffrey Hinton ou o vencedor do prêmio Turing de 2018, Yoshua Bengo, alerta sobre os perigos da poderosa IA.
“É um pouco como o aprendiz de Goethe ‘The Sorcerer’s’s, você tem algo de repente que não pode mais controlar”, disse Kersting-referindo-se a um poema em que um suposto rio-sero perde o controle de uma vassoura que ele encantou para fazer suas tarefas.
Um experimento de pensamento mais recente e semelhante é o “Paperclip Maximiser”.
Essa IA imaginada buscaria seu objetivo de criar clipes de papel com tanta força que transformaria a Terra e, finalmente, tudo importa no universo em clipes de papel ou máquinas de fabricação de clipes de papel-depois de se livrar dos seres humanos que julgou pode prejudicar seu progresso, desligando-se.
Embora não “mal”, o maximizador ficaria fatalmente curto com o que os pensadores no campo chamam de “alinhamento” da IA com objetivos e valores humanos.
Kerting disse que “pode entender” esses medos – sugerindo que “a inteligência humana, sua diversidade e qualidade é tão destacada que levará muito tempo, se é que alguma vez” para os computadores o combinam.
Ele está muito mais preocupado com os danos de curto prazo da IA já existente, como a discriminação nos casos em que interage com os seres humanos.
‘Maior coisa de todos’
O abismo aparentemente grosso, nas perspectivas entre os líderes acadêmicos e a indústria da IA, pode simplesmente refletir as atitudes das pessoas enquanto escolhem uma carreira, sugeriu Sean O Heigeartaigh, diretor da IA: Programa de Futuros e Responsabilidade da Universidade de Cambridge, na Grã -Bretanha.
“Se você está muito otimista sobre o quão poderosos são as técnicas atuais, provavelmente é mais provável que trabalhe em uma das empresas que está investindo muito recurso para tentar fazer isso acontecer”, disse ele.
Mesmo que Altman e Amodei possam ser “bastante otimistas” sobre as escalas de tempo rápidas e a AGI surgir muito mais tarde, “deveríamos estar pensando nisso e levando isso a sério, porque seria a maior coisa que jamais aconteceria”, acrescentou O Heigeartaigh.
“Se fosse mais alguma coisa … uma chance de os alienígenas chegarem até 2030 ou que haveria outra pandemia gigante ou algo assim, dedicamos algum tempo ao planejando”.
O desafio pode estar na comunicação dessas idéias aos políticos e ao público.
Talk Of Super-AI “cria instantaneamente esse tipo de reação imune … parece ficção científica”, disse O Heigeartaigh.
Esta história foi originalmente apresentada em Fortune.com



Publicar comentário