Saltar para o conteúdo

Anúncio de IA de Mark Zuckerberg abala a comunidade científica mundial.

Estudantes em laboratório com equipamento de microscópio em aula presencial e vídeo conferência online.

Investigadores a acompanhar tudo a partir de laboratórios apertados, salas de espera de aeroportos e mesas de cozinha ficaram colados ao ecrã, em silêncio, incrédulos. Não era mais um capacete reluzente nem uma promessa vaga de “metaverso”. Soava a um marco - uma linha traçada sobre o que poderá ser o futuro do conhecimento humano. Em poucos minutos, o X e os canais de Slack em universidades e laboratórios de IA, por todo o mundo, incendiaram-se. Era abertura verdadeira ou uma tomada de poder disfarçada de generosidade? Não houve consenso. Houve ruído. E uma pergunta desconfortável começou a alastrar, como uma fissura num vidro.

O que acontece à ciência quando um homem com três mil milhões de utilizadores diz que quer construir o cérebro do planeta?

O anúncio que fez tremer as bancadas do laboratório

Tudo começou com uma aparente normalidade: uma camisola com capuz preta, um palco minimalista, meia dúzia de diapositivos. E então Mark Zuckerberg largou a frase que fez diretores de investigação pegarem no telemóvel: a Meta iria avançar para IA de propósito geral capaz de “fazer avançar a própria ciência”, treinada com dados abertos em escala massiva e partilhada “com o mundo”. Disse-o sem pestanejar.

Para muita gente, aquela frase mudou imediatamente a temperatura da sala. Entusiasmo e receio passaram a existir lado a lado.

Houve quem visse ali um sonho a ganhar forma diante dos olhos. Uma doutorada em Biologia em Cambridge escreveu ao seu grupo: “Se isto funcionar, as minhas simulações passam de semanas para horas.” Um cientista planetário em Tóquio publicou que copilotos de IA para investigação poderiam “encurtar uma década de tentativa e erro para um fim de semana prolongado”. Ao mesmo tempo, um especialista em ética em Berlim partilhou uma captura do anúncio com uma única linha: “Acabámos de voltar a mudar as regras - e ninguém votou.” O fio de respostas parecia uma discussão global às 3 da manhã.

O que abanou a comunidade não foi apenas o músculo tecnológico. Foi a forma como Zuckerberg apresentou a ciência como mais um problema de “plataforma”: algo a escalar, optimizar, lançar. Para físicos que esperam meses por tempo de telescópio - ou biólogos a lutar por financiamento - ouvir um bilionário da tecnologia falar em “desbloquear descobertas” soou simultaneamente estimulante e ligeiramente irreal.

A lógica é tentadora: modelos maiores, mais dados, avanços maiores. Mas, em chamadas noturnas entre equipas, a pergunta repetia-se: se a IA se tornar o motor padrão da descoberta, quem segura no acelerador? E o que acontece à parte lenta, confusa e sujeita a revisão por pares - a ciência que não cabe num diapositivo de uma apresentação?

Meta, Zuckerberg e a IA de propósito geral: como os cientistas estão a tentar adaptar-se depressa

Dentro dos laboratórios, a primeira reação não foi escrever manifestos. Foi abrir terminais. Equipas começaram a pôr à prova as novas ferramentas de IA da Meta com o que tinham à mão: dobragens de proteínas, modelos climáticos, trajetórias de partículas, conjuntos de dados antigos a ganhar pó em discos rígidos.

Um químico descreveu a sensação como “de repente ter cem estudantes de doutoramento incansáveis, que nunca pedem café nem reconhecimento”. A prática que se está a espalhar em silêncio é esta: deixar o modelo fazer um primeiro rascunho - e reservar o pensamento cuidadoso para os humanos.

Casos reais circulam mais depressa do que diapositivos. Num hospital em Paris, uma pequena equipa ligou um modelo open-source da Meta a anos de dados anonimizados de UCI. Em poucos dias, a ferramenta fez emergir padrões de risco de sépsis que estatísticos procuravam há meses. Do outro lado do mundo, um laboratório ambiental no Brasil alimentou a mesma família de modelos com imagens de satélite e relatórios de desflorestação. A IA começou a antecipar pontos críticos de abate ilegal com uma precisão inquietante - semanas antes de surgir a primeira motosserra. Não são demonstrações polidas. São pessoas exaustas a encontrar uma ferramenta mais afiada.

Nos bastidores, porém, a adaptação é caótica. Candidaturas a bolsas estão a ser reescritas de um dia para o outro para incluir “componentes de IA”. Investigadores no início de carreira sentem pressão para virarem meio engenheiros de prompts. Professores seniores, que construíram carreiras com métodos meticulosos, deparam-se com uma cultura que aplaude velocidade mais do que profundidade.

Sejamos honestos: ninguém domina isto no dia a dia. A maioria dos laboratórios está a improvisar. Há quem copie repositórios do GitHub que mal compreende. E quem avança com mais cuidado está a fazer perguntas difíceis: para onde vão os nossos dados, que enviesamentos se infiltram nas conclusões, e como é que se mantém viva a arte humana da ciência quando as ferramentas ficam mais ruidosas e mais rápidas?

Um parêntesis necessário: dados abertos, privacidade e a confiança pública

Há um ponto que quase nunca cabe nas apresentações: dados abertos não significam “dados sem responsabilidade”. Em áreas como saúde, genética ou educação, mesmo dados anonimizados podem, em certos cenários, permitir reidentificação quando cruzados com outras fontes. Isso obriga a práticas mais rigorosas: avaliações de risco, controlo de acessos, e regras claras sobre o que pode (e não pode) ser usado para treinar ou afinar modelos.

Ao mesmo tempo, a promessa de modelos abertos e partilhados com o mundo pode ser uma oportunidade para reforçar a ciência pública - desde que venha acompanhada de transparência sobre conjuntos de treino, documentação de limitações e mecanismos de auditoria independentes.

As regras silenciosas que os próprios cientistas estão a criar

Em várias disciplinas, está a formar-se um guia informal. Muitos investigadores dividem o trabalho em três zonas: o que a IA pode acelerar, o que a IA não deve tocar, e o que exige barreiras rígidas. Em geral, deixam os modelos tratar do trabalho pesado: resumos de literatura, esboços de código, hipóteses iniciais, simulações rápidas.

Depois impõem um travão. Um humano valida a cadeia de raciocínio, confronta com resultados conhecidos e decide se a “ideia” do modelo é descoberta - ou apenas disparate estatisticamente confiante.

Também se fala mais abertamente sobre falhas, o que é relativamente novo. Em canais internos de Slack, circulam exemplos de provas geradas por IA que parecem elegantes e depois desabam na revisão por pares. Uma investigadora em genómica em Boston admitiu que o sistema “alucinou” um estudo inexistente - e isso influenciou a direção inicial do seu trabalho.

Ninguém quer ser a pessoa que publica um resultado vistoso “guiado por IA” que se desfaz um ano depois. Daí estar a crescer uma cultura de dupla verificação e de registo: documentar onde, quando e como um sistema de IA tocou nos dados ou na análise.

Nessas reuniões internas, alguém costuma dizer em voz alta o que muitos sentem, mas quase nunca escrevem em artigos:

“Se deixarmos o modelo pensar por nós, deixamos de reparar quando ele está errado.”

Para evitar esse deslize, alguns grupos estão a redigir pequenas cartas de princípios - primeiro rabiscadas em quadros brancos, depois formalizadas em wikis do laboratório:

  • Executar sempre um “ponto de comparação básico” (estatística simples ou teoria) ao lado de qualquer resultado produzido com IA.
  • Não confiar em nenhuma citação gerada por IA sem ler o artigo original.
  • Manter pelo menos um projeto no laboratório com uso mínimo de IA, para não perder destreza.
  • Registar todas as decisões relevantes em que o modelo tenha influenciado a direção do trabalho.
  • Partilhar falhas dentro da equipa, e não apenas histórias de sucesso.

Todos já passámos por aquele momento em que chega uma ferramenta poderosa e fingimos que sabemos exatamente o que estamos a fazer. Desta vez, o risco parece maior. Os mesmos cientistas que sussurram sobre burnout e ansiedade discreta são, muitas vezes, os que sobem ao palco para falar em “descoberta acelerada”. As duas coisas podem ser verdade ao mesmo tempo. Só que a ressaca emocional não cabe num guião de apresentação.

O que muda na prática: reprodutibilidade e dependência de infraestrutura

Há ainda uma consequência operacional: quando parte do trabalho passa a depender de infraestruturas externas - servidores, APIs, clusters de GPU - a reprodutibilidade pode tornar-se mais frágil. Se um modelo é atualizado, se um fornecedor altera parâmetros, ou se certos detalhes do treino não são plenamente documentados, repetir resultados torna-se mais difícil.

Para contrariar isso, algumas equipas estão a investir mais em pipelines versionados, logs detalhados e conjuntos de testes que detetam variações inesperadas. É trabalho extra - mas é o preço de manter ciência verificável numa era de ferramentas que mudam depressa.

Onde isto nos deixa a todos

Visto de fora, é fácil pensar que o anúncio de IA da Meta e de Zuckerberg é uma história restrita a pessoas com crachás e batas. Não é. Se a IA científica se transformar numa corrida entre laboratórios corporativos, essa corrida vai influenciar quais os medicamentos que chegam primeiro, que culturas agrícolas recebem sementes resistentes ao clima, que línguas ficam preservadas em conjuntos de dados - e quais ficam, silenciosamente, de fora.

A comunidade científica ficou abalada, em parte, porque reconhece isto: aquilo que se apresenta como uma corrida técnica é também uma escolha política sobre que problemas merecem solução.

O futuro que está a ser desenhado não é neutro. Um modelo “aberto” lançado por uma plataforma gigante continua a refletir quem o treinou, que dados viu, e que perguntas nunca lhe foram feitas. Quando um CEO fala em “acelerar a descoberta”, soa a oferta. Pode ser. Também pode ser uma forma de tornar a ciência dependente de um pequeno número de fornecedores de infraestrutura na Califórnia.

Por isso, muitos investigadores tentam preservar um espaço onde equipas pequenas, laboratórios públicos e universidades com menos recursos possam continuar a definir a própria agenda - em vez de apenas se ligarem ao plano de produto de outra entidade.

As próximas grandes descobertas em Física, Medicina ou Clima podem nascer de uma conversa entre um humano e um modelo a correr em servidores da Meta. Ou podem surgir de um investigador teimoso que fecha o separador da IA, pega num caderno e segue uma intuição que nenhum algoritmo consegue justificar.

A onda de choque do anúncio de Zuckerberg vive desta tensão: quanta parte do nosso futuro partilhado estamos dispostos a subcontratar a sistemas que não compreendemos totalmente, detidos por pessoas que não elegemos? E como seria um cérebro do planeta que pertencesse a todos - e não apenas a quem pode pagar clusters de GPU?

Ponto-chave Detalhe Interesse para o leitor
A viragem da IA da Meta para a ciência Zuckerberg apresentou a IA de propósito geral como ferramenta para “fazer avançar a própria ciência”, usando dados abertos em larga escala e modelos abertos partilhados. Ajuda a perceber por que razão a reação dos investigadores foi tão intensa e por que é que as manchetes explodiram de um dia para o outro.
Adaptações ao nível do laboratório Equipas estão a usar modelos ao estilo da Meta para detetar padrões, correr simulações e rascunhar hipóteses, ao mesmo tempo que criam novas validações e regras internas. Mostra como o trabalho científico já está a mudar, não apenas em teoria, mas nas rotinas diárias.
A questão do poder e do controlo A tensão central é: quem detém as ferramentas da descoberta e quem decide que problemas a ciência acelerada por IA vai priorizar. Convida a pensar no impacto em medicamentos, soluções climáticas e conhecimento que vai moldar a sua vida.

Perguntas frequentes (FAQ)

  • O que anunciou exatamente Mark Zuckerberg sobre IA e ciência?
    Descreveu um impulso rumo a modelos de IA de propósito geral mais potentes, orientados para “fazer avançar a ciência”, com forte ênfase em modelos abertos em grande escala, infraestrutura partilhada e copilotos de IA para investigadores de várias áreas.

  • Porque estão os cientistas tão divididos em relação a este anúncio?
    Muitos estão entusiasmados com simulações mais rápidas, melhor deteção de padrões e acesso mais fácil a ferramentas avançadas; outros receiam controlo corporativo, dilemas éticos sobre dados e o risco de transformar a ciência num produto de plataforma.

  • Isto vai substituir investigadores humanos no laboratório?
    Não. Os sistemas atuais são excelentes assistentes, mas continuam a cometer erros básicos, a “alucinar” fontes e a falhar contexto. A maioria dos laboratórios trata a IA como uma calculadora poderosa e um parceiro para gerar ideias - não como substituto do juízo humano.

  • Como pode isto mudar a vida quotidiana de quem não é cientista?
    Estão em cima da mesa a descoberta mais rápida de fármacos, modelos climáticos mais precisos e planeamento de infraestruturas mais inteligente; mas também há riscos: acesso desigual, prioridades de investigação enviesadas e decisões opacas com impacto na saúde e no ambiente.

  • O que podem as pessoas comuns fazer perante uma mudança desta dimensão?
    Acompanhar para onde vai o financiamento público, apoiar iniciativas de ciência aberta e transparente, questionar “descobertas” anunciadas como movidas por IA e exigir que as instituições de que faz parte - universidades, hospitais, autarquias - expliquem como usam IA em investigação e em políticas públicas.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário