ARCHIVE

A cobra comendo o próprio rabo

Estamos chegando a um gargalo familiar na IA. Anteriormente, os humanos tinham que codificar manualmente os padrões que a IA conseguia reconhecer. Com o aprendizado profundo, as máquinas começaram a aprender padrões por conta própria, sem assitência humana. Com humanos (relativamente caros, lentos e obsoletos) fora do circuito, jogamos soltas as máquinas no escrutínio dos dados do mundo, até que elas começassem a falar, codificar e pintar. Muitas pessoas acreditavam que isso seria suficiente para alcançar a superinteligência artificial - mas não foi.

Ficamos sem dados. Felizmente, nossos bots recém-nascidos podiam se comunicar 24 horas por dia, 8 dias por semana - não apenas com centenas de milhões de pessoas, mas também com outros programas. Esses programas faziam perguntas aos bots, verificavam suas respostas e, em seguida, usavam as respostas corretas para aprimorar ainda mais os modelos. Dados infinitos e gratuitos. Se os dados do mundo não bastassem, dados infinitos deveriam bastar - mas não basatavam.

Estamos assistindo à ascensão dos raciocinadores - modelos que "pensam" antes de dar uma resposta. Modelos que geram uma série de palavras para aumentar a propabilidade de eventualmente produzir algo que queremos. Com certeza, com certeza, é isso. Assim que treinamos um modelo para raciocinar, ele será capaz de raciocionar sobre suas próprias respostas e, de alguma forma, magicamente, se autoaprimorar.

Esse autoaperfeiçoamente infinito provavelmente não acontecerá. Da mesma forma que uma quantidade fixa de massa não pode produzir energia infinita, suspeito que uma quantidade fixa de informação não possa produzir inteligência infinita, não importa o quanto a realimentamos. Fundamentalmente, um modelo precisa de informações externas, sejam elas uma resposta de um sistema externo ou um ser humanos filtrando sua saída anterior para garantir qualidade.

Fornecemos algumas informações externas usando sistemas de verificação formais, e é por isso que o desempenho em matemática e programação é o principal fator.

Desta vez, não dizemos apenas às máquinas quais padrões procurar; em vez disso, filtramos dados sintéticos para "direcionar" o modelo para as respostas que preferimos, ou seja, dizemos a elas quais padrões procurar, mas de forma mais barata.

Neste ponto, se a mistura certa de dados selecionados pudesse produzir superinteligência, isso teria acontecido. Estaremos nos aproximando do limite do que esses sistemas podem fazer. Não me entendam mal, eles podem fazer muita coisa – são basicamente mágicos – mas geralmente não conseguem se autoaprimorar sem humanos ou verificadores. E, honestamente, não consigo imaginar o que mais virá além de uma IA autoaprimorável. 

A resposta ainda depende dos humanos. Para desgosto de alguns homens arrogantes no Vale do Silício, as pessoas ainda são um ingrediente-chave.