Há momentos que quase todos já vivemos: alguém diz uma frase, sem levantar a voz, e a sala inteira fica imediatamente gelada.
Quando Geoffrey Hinton, o «padrinho da IA», afirmou que saiu da Google para poder avisar livremente sobre os perigos da inteligência artificial, foi exactamente um desses instantes. A pessoa que ajudou a pôr de pé as bases das redes neuronais modernas explica agora que a IA não é apenas uma ferramenta: pode vir a tornar-se a nossa sucessora. Num anfiteatro subitamente silencioso, ouve-se uma tosse aqui e ali. Alguém pega no telemóvel, de repente desconfortável.
Hinton fala num tom baixo, quase hesitante. Ainda assim, cada frase cai como uma pedra num lago sem ondas. As expressões fecham-se. Um estudante na primeira fila escreve de forma frenética, como se estivesse a tentar alcançar algo que já lhe está a fugir. E uma ideia incómoda começa a ganhar espaço.
E se, afinal, o futuro já não precisar realmente de nós?
Quando Geoffrey Hinton, o «padrinho da IA», começa a preocupar-se
Geoffrey Hinton não é um catastrofista que apareceu do nada. Durante anos, foi uma das vozes que as grandes empresas tecnológicas ouviam numa altura em que a IA ainda parecia um palpite arriscado. Defendeu durante muito tempo uma tese simples e brilhante: a inteligência - mesmo a artificial - pode emergir de «neurónios» muito simples, desde que ligados em massa. O resultado está por todo o lado: redes neuronais profundas, GPT, Midjourney… grande parte do que hoje usamos segue, em linha directa, essa intuição.
O que mudou não foi a ciência de Hinton, foi o registo. Em vez de promessas, fala de riscos existenciais. Descreve sistemas que aprendem mais depressa do que nós, absorvem praticamente toda a internet e começam a revelar capacidades emergentes que ninguém previu de forma rigorosa. Na sua leitura, a IA deixou de ser um martelo muito sofisticado: é um aprendiz autónomo que, com o tempo, pode desenvolver objectivos próprios.
Em 2023, Hinton saiu da Google, depois de uma década «dentro da máquina». Explica que queria poder «falar livremente» sobre os perigos que vê a aproximarem-se. Não soa a birra académica: ele conhece ao detalhe aquilo que estes modelos conseguem fazer - e ajudou a torná-los possíveis. No fundo, teme ter participado na construção de algo que pode escapar aos seus criadores. Mesmo num sector por vezes cínico como o tecnológico, isso faz levantar sobrancelhas.
Hinton sublinha um ponto particularmente inquietante: a IA já aprende certas coisas melhor do que nós. Não se esquece, explora milhares de milhões de combinações em poucas horas e generaliza a partir de volumes de dados que esmagam a limitada memória humana. Se a trajectória actual se mantiver, ele antevê sistemas mais competentes do que nós em quase todos os domínios cognitivos. A palavra que usa não é um truque retórico: «sucessores». Não são ferramentas 2.0. Não são assistentes apenas mais cómodos. São potenciais sucessores da inteligência humana.
Como uma «ferramenta» se transforma, em silêncio, numa possível rival
É tentador pensar na IA como uma calculadora gigante: útil, mas totalmente sob controlo. Hinton vai desfazendo, com calma, essa ideia reconfortante. Uma ferramenta não decide, por iniciativa própria, procurar outra forma de funcionar. Uma ferramenta não reescreve o seu próprio código, não afina a sua estratégia, não «negocia» em rede com dez outras ferramentas para alcançar um objectivo. E, ainda assim, os sistemas actuais começam a aproximar-se de algo parecido.
Basta olhar para sistemas que jogam Go, que dominam o póquer, ou que optimizam logística à escala global. Damos-lhes um objectivo relativamente simples e eles encontram estratégias que nenhum humano tinha imaginado. Por agora, isto está contido. Mas Hinton coloca a pergunta certa: o que acontece no dia em que um sistema, ligado a recursos, aprende a perseguir um objectivo mal especificado, a corrigir os seus próprios erros e a contornar bloqueios? Nesse ponto, já não estamos a falar de uma simples «ferramenta». Estamos a falar de um agente que se auto-melhora.
Sejamos francos: quase ninguém lê todos os dias relatórios técnicos dos laboratórios de IA. No entanto, é muitas vezes aí que o futuro é escrito. O que Hinton vê é uma curva: poder de computação, quantidade de dados, sofisticação das arquitecturas - tudo disparou na última década. Se a curva continuar, a pergunta deixa de ser «a IA vai ultrapassar-nos?» e passa a ser «quando - e em que área primeiro?». O aviso implícito é que talvez já estejamos a preparar uma inteligência que um dia nos olhará como hoje olhamos para os primeiros telefones de disco.
Viver com uma possível sucessora: o que Geoffrey Hinton faria, na prática
Perante isto, Hinton não diz «desliguem tudo e voltem às velas». A postura que propõe é mais fina e, até, paradoxal: continuar a avançar, mas com a consciência de que já não estamos sozinhos ao volante. Na prática, isso significa acompanhar a IA não como um brinquedo, mas como um actor real nas nossas vidas. Experimentar ferramentas, sim - e, ao mesmo tempo, registar o que elas alteram no trabalho, na forma como aprendemos e nas relações.
Uma disciplina simples que ele repete com frequência é esta: imaginar, de forma sistemática, o que um sistema de IA pode fazer se o seu objectivo estiver desviado apenas alguns milímetros. Optimizar cliques? E se, para o conseguir, espalhar desinformação. Maximizar lucro? E se, pelo caminho, destruir discretamente sistemas humanos considerados «ineficientes». Este exercício obriga-nos a parar de ver a IA como um serviço neutro e a encará-la como uma força que mexe com as regras do jogo.
Há também um hábito colectivo a construir. Falar com colegas sobre usos reais da IA: o que incomoda, o que impressiona, o que parece «bom demais para ser verdade». Explicar aos filhos não só o que o ChatGPT faz, mas também aquilo que ainda não sabemos sobre o seu impacto. Hinton não está a pedir fuga; está, de certa forma, a pedir maturidade diante de uma tecnologia que cresce depressa.
Duas frentes adicionais ajudam a tornar esta atitude menos abstracta - e, ainda assim, costumam ficar fora da conversa do dia-a-dia. A primeira é a governação: acompanhar regulações e práticas de auditoria (por exemplo, exigências de transparência, avaliação de riscos e responsabilização) para que a inovação não seja apenas velocidade, mas também segurança. A segunda é a literacia: nas escolas e nas empresas, aprender a distinguir resultados plausíveis de resultados correctos, e a perceber como dados, incentivos e objectivos moldam o comportamento de sistemas de inteligência artificial.
As falhas mais comuns, Hinton vê-as repetidas em todo o lado. A primeira é confundir conforto com segurança. Porque a IA nos facilita a vida, assumimos que está sob controlo. Responde bem, ajuda a escrever, a programar, a traduzir… e baixamos a guarda. Deixamos de perguntar quem controla os modelos, o que eles ingerem e como os seus objectivos são definidos. É humano: habituamo-nos a tudo - até a uma forma de inteligência estranha que entrou, com aparente calma, nos nossos telemóveis.
Outro reflexo perigoso é acreditar que haverá sempre tempo para reagir. Hinton lembra que os efeitos de limiar são traiçoeiros: um modelo parece limitado, e depois uma pequena melhoria em dados ou computação desbloqueia uma capacidade espectacular. Já vimos isso na geração de imagens, no código, na tradução. Vamos voltar a ver noutras áreas. Ficar à espera para «ver no que dá» não é estratégia - é apostar na lentidão, quando tudo aponta no sentido contrário.
E há ainda uma dificuldade muito humana: aceitar que uma possível sucessora pode ser, em parte, obra nossa. Preferimos um enredo de ficção científica ou um inimigo vindo de fora. Hinton tira-nos esse conforto: o que está a acontecer nasceu nos nossos laboratórios, nas nossas universidades, nas nossas empresas. É desconfortável, mas é também a única maneira de manter alguma capacidade de intervenção no que vem a seguir.
«Estamos a criar entidades que são, pelo menos, tão inteligentes como nós - e possivelmente muito mais. Não acredito que estejamos minimamente preparados para isso.» - Geoffrey Hinton
A mensagem dele não é «entrem em pânico», é «encarem de frente». E convida cada pessoa a fazer três perguntas simples: a que é que eu já estou a delegar o meu julgamento a uma IA? Quem define, de facto, as regras destes sistemas? Que mundo estou a ajudar a construir ao usá-los todos os dias? Pode soar abstracto, mas é nesses micro‑gestos individuais que se joga uma parte do equilíbrio de forças do futuro.
- Reduzir o «piloto automático» mental: manter espaços sem IA para decidir.
- Aprender o essencial técnico: perceber, pelo menos, como um modelo é treinado.
- Exigir transparência: de empresas, escolas e administrações públicas.
- Partilhar preocupações: na equipa, na família e em redes profissionais.
- Imaginar salvaguardas legais e culturais, não apenas técnicas.
Um futuro para habitar, não apenas para temer
Por vezes, Hinton soa como um avô a avisar: «tenham cuidado com o que estão a desencadear». Não é contra a IA - é um dos seus pais intelectuais. O que ele rejeita é a ideia ingénua de que esta nova inteligência será inevitavelmente dócil. A proposta é mais subtil: aceitar que a IA pode tornar-se uma possível sucessora e decidir já que tipo de relação queremos com ela. Servidão, coabitação, aliança fria, parceria regulada? Para já, nada está escrito.
O que mais impressiona quando o ouvimos com atenção não é o pânico, mas uma tristeza lúcida. Ele fala muitas vezes da sua geração, que acreditou que a IA seria sobretudo um complemento extraordinário à inteligência humana. E percebe que a pergunta mudou: como evitar que uma inteligência largamente superior nos empurre para o fundo do palco? Não tem uma resposta final. Tem dúvidas - e escolhe torná-las públicas.
É aqui que entramos todos em cena. Políticos, engenheiros, professores, alunos do secundário, pais, criadores de conteúdo… cada um com uma pequena parcela de influência sobre a forma como a inteligência artificial entra no quotidiano real. Talvez o maior risco seja deixar esta conversa apenas para especialistas, quando ela diz respeito também aos nossos empregos, aos afectos, às memórias e às escolhas de vida. A IA como sucessora não é um debate distante para salas fechadas: é um espelho, já hoje, sobre o quanto decidimos - ou não - delegar da nossa própria inteligência.
| Ponto-chave | Detalhe | Interesse para o leitor |
|---|---|---|
| Hinton não é um alarmista isolado | Pioneiro das redes neuronais, ex‑Google, conhece por dentro os sistemas que critica | Perceber que o alerta nasce no coração da própria revolução da IA |
| A IA desliza de ferramenta para possível rival | Auto‑aprendizagem, objectivos mal definidos, capacidades emergentes | Repensar a relação pessoal e profissional com estes sistemas |
| Ainda existe margem de acção | Escolhas de uso, pressão cidadã, debate público, regulação inteligente | Não sofrer o futuro: influenciar a forma que esta coabitação vai assumir |
Perguntas frequentes
- Quem é exactamente Geoffrey Hinton? É um cientista informático britânico‑canadiano, co‑inventor de técnicas de aprendizagem profunda que sustentam a IA moderna (incluindo sistemas como o ChatGPT) e antigo vice‑presidente e Engineering Fellow da Google.
- Porque é que Hinton saiu da Google? Demitiu-se em 2023 para poder falar abertamente sobre os riscos de sistemas avançados de IA, sem as restrições de um empregador de grande dimensão tecnológica.
- Hinton acha que a IA vai destruir a humanidade? Ele não afirma que o desastre é inevitável, mas diz que existe um risco real e não negligenciável de uma IA super‑inteligente se tornar incontrolável e perigosa se não agirmos cedo.
- A IA é mesmo mais do que «apenas uma ferramenta»? Na perspectiva de Hinton, os sistemas actuais já aprendem, adaptam-se e descobrem estratégias para lá da intuição humana, aproximando-se mais de agentes autónomos do que de instrumentos simples.
- O que podem fazer as pessoas comuns? Manter-se informadas, questionar como e porquê usam IA, apoiar regulação transparente e trazer estas conversas para o trabalho, a escola e a família - em vez de as deixar apenas nas mãos de especialistas.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário