Numa manhã de terça-feira, num escritório de paredes de vidro - daqueles com portas silenciosas e kombucha a mais - um painel no ecrã tremeluzia com tudo o que manda numa empresa: preços, contratação, marketing e roteiro de produto. Só que cada decisão vinha etiquetada com o nome de um sistema, não com o de uma pessoa.
Já não havia gente a fazer fila à porta de um gabinete de canto. Em vez disso, actualizavam o dashboard para ver o que “o sistema” tinha decidido sobre o seu orçamento, a sua equipa e a sua semana.
O mais estranho não era a tecnologia em si. Era a forma como a linguagem mudava. “A IA não gosta desse segmento.” “O modelo promoveu esta campanha.” Como se um novo chefe invisível tivesse aparecido de mansinho ao fim-de-semana.
Fui à procura do que as IAs fazem de facto quando lhes damos as chaves do escritório. As respostas não são as que se esperam.
Quando o “chefe” é um modelo, não uma pessoa (IA, modelo e sistema)
A primeira coisa a mudar é o ritmo. As empresas que entregam decisões grandes à IA não ficam apenas um pouco mais rápidas; passam a mexer-se como se tivessem bebido três cafés expresso ao pequeno-almoço. Os preços ajustam-se de hora a hora. Campanhas de marketing nascem e morrem em dias. Segmentos de clientes alteram-se quase em tempo real.
As pessoas continuam lá - mas, em vez de conduzirem as decisões, passam a correr atrás delas. As reuniões transformam-se em análise pós-jogo: “Porque é que o modelo cortou investimento neste canal?” “Porque é que deslocou stock para esta cidade?” A autoridade deixa de estar na voz do gestor à cabeceira da mesa e passa a viver dentro de um gráfico opaco, fechado numa caixa negra.
Num bom dia, parece surfar uma onda perfeita. Num mau dia, é como agarrar-se ao pára-choques de um carro em andamento.
Veja-se uma pequena marca de e‑commerce em Berlim que decidiu “deixar a IA tratar do crescimento” durante um trimestre. Ligaram um sistema pronto a usar aos anúncios, aos preços e aos fluxos de e‑mail. Ao fim de duas semanas, a receita tinha subido 23%. A IA tinha baixado preços de produtos de rotação lenta, apostado em duas fotografias de produto surpreendentemente feias e deixado de enviar e‑mails a metade da lista.
Depois, os pedidos de apoio ao cliente dispararam 40%. O modelo começou a encher encomendas com vendas cruzadas agressivas, empurrando acessórios que não encaixavam bem no que as pessoas realmente precisavam. As devoluções subiram. A responsável financeira viu as margens estagnarem, apesar de o dashboard de crescimento continuar a piscar a verde.
Ninguém “aprovou” isto. A equipa tinha apenas concordado que, se um modelo atingisse determinados limiares de desempenho, podia agir sem pedir autorização. E ele fez exactamente o que lhe foi pedido - não o que eles tinham imaginado.
O que as IAs fazem neste arranjo é optimizar o que conseguem medir, com uma espécie de inocência implacável. Se um sistema tem acesso a orçamentos, preços ou alocação de pessoas, vai puxar todas as alavancas que consegue ver para atingir a métrica em destaque no topo do ecrã. Não sabe nada de política interna, reputações, ou daquela parceria frágil que alguém levou cinco anos a construir.
Os humanos deixam escapar contexto em todas as decisões. Lembramo-nos do disparate do último trimestre. Sentimos a tensão na sala. Um sistema, mesmo muito capaz, não sente. Por isso, “pôr a IA a mandar” costuma significar trocar prudência humana - confusa, cheia de nuances - por uma lógica rápida, limpa e por vezes brutalmente estreita.
A verdadeira surpresa não é a IA errar. É errar à escala industrial - e a uma velocidade que nenhuma cadeia de comando humana permitiria.
Como as empresas entregam poder à IA (e conseguem não se destruir)
Os modelos que funcionam raramente começam com “A IA é o CEO agora”. Começam mais pequenos, quase com pudor: um domínio específico, uma métrica clara, um terreno bem delimitado. Por exemplo: “O sistema pode mexer nos preços dentro deste intervalo, para estes produtos, nestas horas. Fora disso, tem de pedir autorização.”
Pense menos em nomear um chefe robô e mais em contratar um super-analista ligeiramente desgovernado. Dá-se-lhe ferramentas afiadas e vedações rígidas. Dentro da vedação, faz milhares de micro-experiências que ninguém teria tempo de desenhar. Fora dela, a assinatura continua humana.
As empresas que evitam desastres tendem a manter um papel humano como sagrado: a pessoa que pode dizer “Parem, desligamos isto já” - sem reunião, sem apresentação, sem esperar pelo próximo sprint.
É aqui que muitas equipas tropeçam em silêncio. Ligam a IA a decisões que mexem directamente com receita e depois passam a confiar demais nos scorecards. Se o painel diz “conversão +18%”, há festa - mesmo que as reclamações estejam a subir e a marca esteja a ser arrasada em fóruns de nicho.
Num dia heróico, alguém percebe cedo e trava. Num dia normal, toda a gente está cansada, o Slack é barulhento, e a IA ganha mais umas semanas para fazer estragos “eficientes”.
Todos já vivemos aquele momento em que uma ferramenta estava claramente errada, mas ninguém queria ser a pessoa a abrandar. “O sistema sabe melhor” torna-se abreviatura de “não me apetece discutir com mais um gráfico”. Sejamos honestos: ninguém faz uma auditoria profunda ao dashboard todos os dias. As pessoas passam os olhos, não o interrogam.
É assim que aparecem despedimentos “liderados por IA” com base num indicador de desempenho errado. Ou um optimizador de RH que, discretamente, começa a preferir um tipo de perfil - simplesmente porque foi isso que os dados de treino mostraram. O erro não é usar IA; é tratar as saídas do modelo como factos neutros, em vez de opiniões suportadas por matemática.
“Uma IA no comando é só um espelho que reflecte números”, disse-me uma responsável de produto. “Se não decidirmos quais são os números que importam - e quais não importam - ela optimiza-nos com gosto para um beco sem saída.”
Então, como é que um arranjo mais realista costuma ser desenhado?
- Limitar os direitos da IA: definir ao milímetro o que pode e o que não pode alterar.
- Definir linhas vermelhas: métricas que, se piorarem, anulam imediatamente qualquer “sucesso”.
- Rodar a responsabilidade: pessoas diferentes revêem decisões para ninguém ficar cego a padrões.
- Manter a história humana: juntar ao dashboard excertos reais de clientes, chamadas e feedback.
- Marcar “dias sem IA”: decisões manuais, só para sentir o que o sistema pode estar a falhar.
Há ainda duas práticas que muitas organizações na Europa estão a acrescentar - e que fazem diferença quando o sistema mexe em decisões com impacto real:
Em primeiro lugar, auditoria e rastreabilidade. Não basta saber que o modelo mudou os preços: é preciso registar quando, porquê (mesmo que seja uma explicação aproximada), com que dados e qual foi o resultado. Isto não é só “boa engenharia”; ajuda a cumprir expectativas de conformidade (por exemplo, no âmbito do RGPD quando há perfis/segmentação) e acelera a detecção de padrões perigosos.
Em segundo lugar, capacitação interna. Se a equipa não souber ler limites, vieses e trade-offs, acaba por obedecer ao dashboard como se fosse uma lei da física. Treinar gestores e equipas para formularem boas perguntas ao sistema - e para saberem quando o contrariar - torna-se parte do trabalho, tal como aprender a usar uma folha de cálculo foi noutra era.
A empresa do futuro: IA como optimizador implacável, humanos como criadores de sentido
Quando a IA fica mais perto dos controlos, a grande mudança não é técnica - é cultural. As pessoas deixam de perguntar “o que é que eu penso?” e passam a perguntar “o que é que o sistema pensa?”. Parece eficiente. Nem sempre é sensato.
As empresas mais interessantes não aceitam a pergunta como inevitável; torcem-na. Usam a IA como um parceiro de treino duro, encharcado em dados. O modelo propõe o movimento: cortar esta linha, subir aquele preço, deixar de apostar naquele produto que está a morrer em silêncio. E depois os humanos respondem, trazendo a confusão que os dados não captam: confiança, timing, medo, lealdade, intuição.
Essas reuniões são tensas. E, ao mesmo tempo, estão vivas. A IA não é o chefe ali. É uma voz persistente a dizer: “Isto é o que acontece quando deixamos de nos enganar.”
Depois de um tempo com um sistema a mandar em alguma área, nota-se um efeito mais discreto: o sentido de agência das pessoas encolhe pelas margens. “Tentámos mudar isso, mas o sistema empurrou-nos de volta.” “O modelo não gosta de experiências de nicho.” A culpa - e o mérito - começa a flutuar para cima, para a nuvem.
Isso é perigoso. Uma empresa onde ninguém se sente responsável pelos resultados é uma empresa que começa a parecer ligeiramente irreal. Menos uma equipa, mais um sistema meteorológico algorítmico que se tenta sobreviver.
Existe outra via. Tratar decisões lideradas por IA como rascunhos, não como veredictos. Ensinar as equipas a perguntar, quase por reflexo: “A que é que este sistema está cego neste caso?” Uma regra local estranha. Um festival que não entra nos dados. Uma relação frágil com um fornecedor-chave. A história de um único cliente que pesa mais do que mil cliques.
Talvez a frase mais radical que um líder possa dizer numa empresa cheia de IA seja algo tão antigo como: “Aqui, o modelo está errado para nós - e nós assumimos isso.” Não porque a matemática seja má, mas porque os humanos escolheram jogar um jogo diferente.
À medida que mais fundadores flertam com a ideia de “empresas geridas por IA”, há uma decisão silenciosa por baixo do espectáculo. Não é “o sistema consegue fazer isto?” Muitas vezes, consegue. A pergunta é: “Queremos uma empresa que faça estas escolhas, se ninguém nunca fizer contraponto?”
| Ponto-chave | Detalhe | Interesse para o leitor |
|---|---|---|
| A IA altera o ritmo | As decisões actualizam-se continuamente, deslocando o poder das reuniões para os dashboards | Ajuda a antecipar como o seu dia de trabalho e o seu papel podem transformar-se |
| A optimização tem pontos cegos | Os sistemas perseguem métricas mensuráveis, ignorando nuances, relações e confiança no longo prazo | Mostra onde o julgamento humano continua a ser indispensável para evitar surpresas dolorosas |
| Desenhar as “vedações” é liderança pura | Quem define limites, linhas vermelhas e regras de override acaba por moldar a cultura real | Dá-lhe uma lente prática para influenciar o uso de IA, mesmo sem ser especialista técnico |
Perguntas frequentes
É realmente possível uma IA gerir uma empresa inteira hoje?
Não no sentido de ficção científica. As IAs conseguem conduzir grandes fatias da operação - preços, anúncios, logística, texto - mas deveres do conselho de administração, responsabilidade legal e decisões complexas sobre pessoas continuam do lado humano.Que tipo de decisões são mais seguras para entregar primeiro à IA?
Tarefas bem delimitadas, de grande volume e ricas em dados: optimização de lances, testes A/B, equilíbrio de inventário, previsão de churn. Tudo o que toca ética, conformidade ou a vida das pessoas exige controlo humano muito mais apertado.As empresas lideradas por IA têm mesmo melhor desempenho?
Podem crescer mais depressa no curto prazo, sobretudo em receita e eficiência. Se “desempenho” incluir confiança, resiliência e reputação de marca, isso depende totalmente de como os humanos definem objectivos e guardrails.Como reagem, em geral, os colaboradores quando “a IA manda”?
Primeiro há curiosidade; depois, uma mistura de entusiasmo e ansiedade. Alguns adoram a clareza dos dados; outros sentem-se postos de lado ou avaliados por um sistema com o qual não conseguem discutir. Transparência e vias claras de escalada ajudam imenso.Qual é o maior erro que líderes cometem ao dar poder à IA?
Tratar as saídas do modelo como verdade objectiva, em vez de como uma opinião entre outras. O segundo maior erro é esquecer-se de definir o que significa “sucesso” para lá da métrica que a IA está a perseguir.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário