insight #140

Integrar, fundir ou delegar a Inteligência Humana nas organizações

13 Mai 2026 | 6 min de leitura

AESE Mario Porfirio 592x492 1
Mário Porfírio Professor de Política Comercial e Marketing da AESE Business School e Managing Partner @Inédito Agency

As metáforas fazem parte da caracterização dos domínios de gestão e nunca são inocentes. O importante não são os nomes em si mas o que representam. Se os unicórnios (empresas avaliadas em mil milhões de dólares) foram assim nomeados por serem uma raridade de valor extraordinário, a utilização de Inteligência Artificial por humanos, nomeadamente a co-criação com os Large Language Models (LLMs) tem procurado afirmar as suas metáforas. Uma frequente utilizada é a dos Ciborgues e Centauros (1) aos quais, fruto de um estudo recente com 244 consultores da BCG foi acrescentado um terceiro perfil: os Self-Automators (2). No referido estudo a distribuição foi de 60% Ciborgues, 14% Centauros e 27% Self-Automators.

O Ciborgue — Cocriação Fundida

Os Ciborgues são uma metáfora de fusão entre o ser humano e a IA, que agem em co-criação contínua, dando origem a fronteiras difusas entre a decisão humana e o output gerado pela IA. O Ciborgue entra num ciclo de interação contínua, explora possibilidades e itera soluções. É um modo extremamente produtivo, no qual o utilizador desenvolve conhecimento das tarefas que implementa e expertise na utilização de IA. O maior risco é de certa forma subtil: quando o processo inteiro é co-construído com a máquina, torna-se mais difícil identificar se existe erro e onde começou. Como descreveu um consultor: “Consegui que a IA gerasse duas respostas com argumentos diferentes. E depois o humano decidiu qual fazia menos sentido, para a abandonar.”

O Centauro — Cocriação Direcionada

Os Centauros são uma figura mitológica metade humana que controla a outra metade cavalo e que neste contexto simboliza uma utilização da IA de forma seletiva, externalizando tarefas de forma controlada, definindo o que deve ser feito e como deve ser feito, sem nunca abdicar do julgamento “human first”. Quer aprofundar os seus conhecimentos num determinado tema, por isso usa a ferramenta mas não delega na ferramenta o pensamento e avaliação. Está certo que o resultado é seu, reforçando o seu conhecimento técnico no domínio que esteve a explorar, obtendo os melhores resultados do estudo, superando os perfis que dão mais liberdade e poder à máquina, sem melhorar no entanto os seus skills de utilização de IA. É a postura de quem diz: “Uso IA seletivamente. Se deixar de usar a correção automática mental, perco a capacidade de pensar por mim próprio.”

O Self-Automator — Cocriação Abdicada

Self-Automator não é uma metáfora mitológica ou tecnocientífica, não tem uma boa tradução para português (Auto-Automadores?) mas é importante, pois aparenta ser um retrato fiel do comportamento de rendição cognitiva (3). Este comportamento é caracterizado pela adoção dos outputs gerados pela IA sem avaliação crítica por parte do utilizador, abdicando não apenas da execução mas também do pensamento. Pode ser reduzido com incentivos financeiros e feedback imediato, mas não desaparece na totalidade (3). O Self-Automator abdica do processo e aceita o output com validações mínimas. Maximiza eficiência no curto prazo, mas não desenvolve competências nas tarefas que está a desenvolver, nem capacidade de avaliar a própria IA e os seus resultados. Nas palavras de um dos consultores: “Copiei e colei os dados no prompt e fiz uma verificação básica. Sinceramente, estava com preguiça.”

Qual é o perfil óptimo?

Cada um destes perfis tem consequências diretas na qualidade das decisões, na aprendizagem individual e na capacidade futura das organizações. Apesar do Centauro apresentar os melhores resultados, não aprende a utilizar IA de forma mais proficiente e está tão envolvido que tem dificuldade em identificar o que é seu e o que é da IA, bem como erros que esta possa ter originado. Já o Self-Automator é claramente um problema porque aceita todos os resultados sem avaliação. Os autores do estudo não sugerem que exista um perfil óptimo, nem que cada utilizador tenha apenas um perfil, mas sim que pode ter preferências de estilo e contextos em que age por exemplo como Ciborgue e outros como Centauro, o mais importante reforçam, é que deve ser a situação a motivar a escolha do perfil e não a preferência pessoal ou estilo mais confortável.

A escolha pode ser motivada pelas características da tarefa (rotineira), do contexto (pressão de entrega de resultados), desconhecimento do tema (a máquina ser mais confiável) ou do próprio comportamento do utilizador. Se tiver interesse, convido a leitura neste LINK, de um artigo que escrevi recentemente, com referência de vários estudos sobre o comportamento com tecnologia e IA, por exemplo a redução da capacidade de memória por acreditarmos que os dados estão acessíveis externamente (4), reflete-se na frase “para quê guardar informação se podemos ir ao Google pesquisar?”.

Implicações para a gestão

Tudo isto traz implicações claras para a gestão. Como qualquer tecnologia, seja IA ou não, a mesma ferramenta pode gerar ganhos ou perdas de desempenho e aprendizagem, dependendo da capacidade da organização para alinhar o tipo de tarefa com o nível adequado de intervenção humana. A opção de ter “human-in-the-loop” não é igual nos três modos (ciborgue, ciclope e Auto-Automator); a forma também é importante. A adoção e utilização de IA, avaliada pela velocidade, volume e qualidade dos outputs, deverá considerar também o modo de cocriação adotado pelos utilizadores e qual a posição das tarefas no fluxo de atividades.

Avaliar o nível de envolvimento versus a complacência com a automação é fundamental para identificar riscos potenciais como o deskilling progressivo: perda gradual de competências analíticas, acompanhada por uma dependência crescente da IA. A  dificuldade em lidar com outliers: contextos onde a lei dos grandes números falha, os dados são escassos ou a IA simplesmente não é a melhor opção, tornando evidente a falta de julgamento próprio do utilizador. E a erosão de accountability: as decisões passam a ser tomadas com base em outputs que não são plenamente compreendidos, tornando-os difíceis de explicar, justificar e internamente assumir responsabilidade pelos seus resultados.

Para quem gere equipas, as questões práticas são: quem decide o que precisa de ser feito e quem identifica como deve ser feito. Mapear os processos terá de incluir os modos dominantes de utilização de IA na organização, com mecanismos de feedback, supervisão e rotação de tarefas para evitar que a eficiência de curto prazo se transforme em dependência de longo prazo. No contexto agentico, que se avizinha, onde agentes de IA poderão encadear decisões de forma autónoma, estas questões vão ser obrigatoriamente abordadas.

Referências

(1) Dell’Acqua, F., McFowland, E., Mollick, E., et al. (2026). Navigating the Jagged Technological Frontier. Organization Science. [Preprint original: setembro 2023, SSRN 4573321]

(2) Randazzo, S., Lifshitz, H., Kellogg, K. C., Dell’Acqua, F., Mollick, E., Candelon, F. and Lakhani, K. R. (2026). Cyborgs, Centaurs and Self-Automators: The Three Modes of Human-GenAI Knowledge Work. HBS Working Paper 26-036.

(3) Shaw, S. D. and Nave, G. (2026). Thinking—Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Rise of Cognitive Surrender. SSRN Working Paper 6097646.

(4) Sparrow, B., Liu, J. and Wegner, D. M. (2011). Google Effects on Memory: Cognitive Consequences of Having Information at Our Fingertips. Science, 333(6043), pp. 776–778.

 

Insights Relacionados

fachada aese

Há +45 anos a preparar líderes. Chegou a sua vez?

A AESE dedica-se à formação específica em direção e administração de empresas, com uma perspetiva cristã do homem e da sociedade. Comece agora.