A ideia, ao início, soava quase a ficção científica. Num centro de conferências envidraçado em Riade, responsáveis subiram ao palco e prometeram que, até 2025, todas as interacções dos cidadãos com o Estado seriam “sem atrito, preditivas, com IA em primeiro lugar”. Renovar-se-ia o cartão de identificação através de um chatbot, pagar-se-iam coimas antes mesmo de sabermos que existiam, e as regras fiscais seriam esclarecidas por um funcionário público virtual que nunca dormia. Os ecrãs exibiam maquetes elegantes. Consultores estrangeiros assentiam. Aos jornalistas eram distribuídas brochuras polidas, carregadas de chavões e pobres em detalhe.
No final de 2025, o ambiente é… mais discreto. Os slogans ainda estão online, mas as aplicações emblemáticas do governo inteligente deixaram de receber actualizações. Os vídeos de demonstração desapareceram das páginas principais. Alguns serviços funcionam, muitos não, e outros simplesmente sumiram das lojas de aplicações.
Ninguém lhe chama oficialmente recuo. No terreno, porém, é exactamente isso que parece.
De visão polida a recuo silencioso: o “governo inteligente” na Arábia Saudita
Passe por um dos centros de atendimento ao público mais recentes de Riade numa manhã de dia útil. As paredes continuam forradas de quiosques digitais que, em tempos, prometiam apoio orientado por IA em meia dúzia de línguas. A maioria dos ecrãs está ligada, a repetir as mesmas animações cuidadas sobre “um governo inteligente para todos”.
Só que, quando se começa a navegar, o percurso torna-se bem mais tradicional. Os botões do “assistente inteligente” acabam por encaminhar para formulários genéricos na web. O sistema de fila preditiva foi trocado por uma senha em papel. Os funcionários explicam, em voz baixa, que “o sistema de IA está em manutenção” - uma manutenção que, na prática, já dura há meses.
Há poucos anos, o discurso oficial sublinhava a ambição da Arábia Saudita em se tornar uma “superpotência de IA na governação”. Foram anunciados milhares de milhões de dólares para plataformas de dados, policiamento preditivo, tribunais inteligentes e licenciamento automatizado. Nos documentos da Visão 2030, a IA era apresentada como a espinha dorsal de um novo Estado.
Dentro dos ministérios, contudo, a narrativa é menos triunfante. Um responsável intermédio descreve iniciativas que começaram com grande aparato e, depois, foram encolhendo: pilotos restringidos a uma cidade, depois a um distrito, e por fim a um único balcão. “Disseram-nos para deixarmos de mencionar IA nos briefings públicos”, relata. “Chamem-lhe só ‘transformação digital’ e sigam em frente.”
Parte do recuo explica-se pelo choque entre promessa e realidade. Serviços públicos orientados por IA exigem dados limpos, interligados e fiáveis. As bases de dados públicas sauditas continuam fragmentadas, e cada organismo protege a sua informação como um território. Houve também resistências discretas por parte de juízes, escrivães e agentes policiais, desconfortáveis com decisões automatizadas.
Analistas alertam agora que arquivar estes projectos aponta para algo mais profundo: um Estado pode investir fortemente em ferramentas de IA e, ainda assim, tropeçar se a canalização essencial da burocracia - transparência, responsabilização e regras claras - continuar irregular. A tecnologia pretendia “saltar” essas falhas. Em vez disso, expôs-as.
Um ponto adicional, muitas vezes ignorado nos anúncios, é o impacto da contratação pública e dos modelos de aquisição. Quando concursos privilegiam demonstrações impressionantes e prazos curtos, em detrimento de manutenção, documentação e transferência de conhecimento, o resultado tende a ser um conjunto de protótipos caros e frágeis. E, quando um fornecedor externo detém a lógica do sistema, o Estado fica dependente - precisamente o oposto do controlo que um “Estado digital” promete.
Também pesa a dimensão ética e de legitimidade: em serviços de elevado risco (vistos, policiamento, benefícios sociais, tribunais), não basta que o modelo “funcione”. É preciso explicar decisões, permitir contestação e assegurar vias de recurso. Sem estes pilares, qualquer automatização pode ser percebida como arbitrariedade estatal - mesmo quando o erro está no software ou nos dados.
Os custos escondidos de um “governo inteligente” antes do tempo
Nos bastidores, grande parte do desgaste está no próprio código. Programadores contratados para o grande impulso da IA descrevem calendários apressados e objectivos que mudavam constantemente. Num mês, a encomenda era um sistema preditivo de apoio social; no seguinte, transformava-se num motor “inteligente” de subsídios aos combustíveis; e, pouco depois, encolhia silenciosamente para um simples calculador de elegibilidade.
Cada alteração implicava treinar novamente modelos, renegociar acessos a dados e reescrever interfaces para sistemas legados que, muitas vezes, nunca tinham sido devidamente documentados. O resultado: muitos painéis de prova de conceito, com óptima aparência numa sala de reuniões, mas que se desfaziam quando cidadãos reais tentavam usá-los às 08:00 de um domingo.
Há ainda o lado humano. Num piloto citado com frequência, uma ferramenta de pontuação de risco por IA destinava-se a sinalizar registos empresariais suspeitos antes de ocorrer fraude. No papel, funcionava. Na prática, pequenos comerciantes viram pedidos atrasados durante semanas, sem explicação. Alguns eram sinalizados repetidamente por padrões de morada que o algoritmo não compreendia.
Um lojista em Jeddah descreve ter ficado em frente a um funcionário que encolheu os ombros e disse: “O computador diz que é alto risco, não há nada que eu possa fazer.” Depois de uma pequena tempestade nas redes sociais, a ferramenta foi “revista” em silêncio - e nunca mais se ouviu falar dela. A lição foi clara: se os cidadãos não confiam numa caixa-negra, responsabilizam o Estado, não o fornecedor.
Para lá das falhas, existe uma tensão estrutural. A IA prospera com experimentação e iteração rápida. O governo prospera com estabilidade e procedimentos bem documentados. Quando estes mundos colidem, a máquina tende a perder. Funcionários públicos queixavam-se de que os modelos mudavam mais depressa do que as regras conseguiam acompanhar. Auditores perguntavam como eram tomadas decisões, e as equipas de ciência de dados nem sempre conseguiam responder em linguagem simples.
Sejamos francos: ninguém reescreve o direito público sempre que um modelo recebe um novo conjunto de dados. Esse desfasamento inquieta juristas - e juristas inquietos atrasam tudo. No caso saudita, analistas defendem que a dependência de consultores externos amplificou o problema, criando um ciclo de apresentações estratégicas sofisticadas e execução subfinanciada no terreno.
Lições práticas para outros países e líderes ambiciosos
Para quem está longe de Riade, há um ensinamento operacional: começar pequeno, construir o “aborrecido” e só depois escalar. Em vez de prometer um “governo do futuro” alimentado por IA, escolha um problema concreto que as pessoas sintam todas as semanas: uma renovação de licença que demora, um formulário de subsídio confuso, uma linha de apoio que nunca atende.
Depois, aplique IA sobre um processo que já funcione manualmente. Se não consegue descrever a jornada do início ao fim sem chavões, o algoritmo vai amplificar a confusão - não resolvê-la.
Todos conhecemos aquele momento em que uma aplicação “mágica” devia poupar tempo e, de algum modo, complica tudo. Os governos caem na mesma armadilha, só que com orçamentos maiores e consequências mais sérias. Um erro recorrente é perseguir rótulos “IA em primeiro lugar” para comunicados de imprensa, em vez de investir na canalização robusta e pouco glamorosa que sustenta serviços.
Os cidadãos não acordam a desejar governo inteligente. Querem um Estado que responda, que explique e que não perca documentos. Qualquer implementação que ignore este facto - sobretudo em áreas sensíveis como processamento de vistos ou policiamento - será sentida como fria, arbitrária e até hostil.
Um analista regional resumiu de forma crua:
“A Arábia Saudita não bateu apenas numa parede técnica; bateu numa parede de confiança. A confiança não se automatiza - conquista-se.”
A frase simples por trás disto é incómoda: a tecnologia apenas amplia o que já existe, para o bem e para o mal.
Se é decisor político ou responsável tecnológico a observar a experiência saudita, três práticas realistas destacam-se:
- Começar com ferramentas transparentes e explicáveis em áreas de baixo risco, antes de tocar em policiamento, apoios sociais ou tribunais.
- Investir primeiro em governação de dados e interoperabilidade básica, antes de perseguir as alegações de IA mais vistosas.
- Envolver cedo funcionários da linha da frente e cidadãos - não apenas no lançamento - e criar um mecanismo claro para dizer “isto não está a funcionar”.
Um recuo discreto que levanta perguntas mais altas
O recuo lento da Arábia Saudita face ao sonho de um governo inteligente alimentado por IA não significa abandono da tecnologia. Os contratos de nuvem mantêm-se, os centros de dados continuam a operar e os programas de talento prosseguem. O que muda é o tom: menos bravata sobre algoritmos a comandar o Estado, mais conversa sobre “serviços digitais” e melhorias incrementais.
Para analistas, o episódio é um estudo de caso sobre o que acontece quando o entusiasmo ultrapassa a maturidade institucional. Para cidadãos, é um lembrete de que cada promessa “inteligente” carrega o risco de desilusão vazia se o básico - serviço, clareza e possibilidade de recurso - não estiver já assegurado.
A história mais interessante está por baixo da superfície. Que projectos irão resistir, discretamente, aperfeiçoados e assentes na realidade, quando os chavões desaparecerem? Que ministérios escolherão o caminho difícil de limpar dados, reescrever regras e partilhar controlo entre máquinas e pessoas?
Estas perguntas não dominam as tendências nas redes sociais, mas determinam como poder, responsabilização e tecnologia vão coexistir - de Riade à sua própria câmara municipal.
| Ponto-chave | Detalhe | Valor para o leitor |
|---|---|---|
| O recuo da IA na Arábia Saudita é real | Ferramentas emblemáticas de governo inteligente estão a ser renomeadas, reduzidas ou discretamente arquivadas. | Mostra onde promessas grandiosas de IA podem falhar na prática. |
| Questões estruturais contam mais do que as ferramentas | Dados fragmentados, regras opacas e baixa confiança institucional fragilizam sistemas avançados. | Indica o que corrigir antes de investir pesadamente em soluções de IA. |
| IA pragmática, centrada no cidadão, tende a funcionar melhor | Focar dores concretas do dia a dia e assentar em processos manuais sólidos. | Oferece um roteiro para tecnologia pública que é usada - e apreciada. |
Perguntas frequentes
Pergunta 1 - A Arábia Saudita cancelou oficialmente o programa de governo inteligente com IA?
Não de forma explícita. Em vez de um cancelamento público, muitos projectos foram renomeados, reduzidos ou absorvidos em iniciativas genéricas de transformação digital.Pergunta 2 - Porque teve dificuldades a implementação de IA na Arábia Saudita?
Analistas apontam para sistemas de dados fragmentados, dependência excessiva de consultores, transparência limitada e tensão entre modelos de IA que evoluem depressa e regulamentação que avança devagar.Pergunta 3 - Algum serviço público com IA foi bem-sucedido?
Alguns casos de uso limitados - como chatbots básicos, digitalização documental e analítica interna - continuam a operar, sobretudo quando o risco para os cidadãos é baixo e os processos já eram claros.Pergunta 4 - O que podem outros governos aprender com este revés?
Dar prioridade a dados limpos e ferramentas simples e explicáveis; começar em áreas de baixo risco; envolver cedo o pessoal de atendimento; e evitar construir políticas em torno de slogans de marketing.Pergunta 5 - Isto significa que a IA no governo não tem lugar na administração pública?
Não. Sugere que a IA no governo tem de ser aplicada com realismo, transparência e alicerces burocráticos sólidos, em vez de ser vendida como solução rápida para desafios estruturais profundos.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário