A evolução recente da inteligência artificial aplicada às organizações assinala uma transição qualitativa que ultrapassa os paradigmas tradicionais da automação e do apoio à decisão. A emergência da chamada Agentic Artificial Intelligence introduz sistemas capazes de operar com autonomia orientada a objetivos, integrando capacidades de planeamento, execução, monitorização e adaptação contínua. Esta mudança não representa apenas um avanço tecnológico incremental, mas uma reconfiguração profunda da relação entre tecnologia, ação organizacional e responsabilidade institucional (Russell & Norvig, 2021; Wooldridge, 2021).
Historicamente, a adoção de tecnologias digitais nas empresas esteve associada à otimização de processos bem definidos e à ampliação da capacidade analítica humana. Mesmo os sistemas mais sofisticados de business intelligence ou machine learning permaneciam, em grande medida, dependentes de intervenção humana direta para a definição de objetivos e para a execução de decisões. A Agentic AI rompe com este modelo ao permitir que sistemas artificiais interpretem metas de alto nível e as traduzam em sequências de ações coordenadas, operando em múltiplos domínios organizacionais de forma contínua e adaptativa (Franklin & Graesser, 1997).
Esta passagem de uma IA reativa para uma IA orientada à ação autónoma tem implicações diretas na forma como as organizações concebem a tomada de decisão. Em vez de ciclos discretos de análise, decisão e implementação, passa a existir um fluxo integrado em que análise e execução se entrelaçam. Do ponto de vista empresarial, esta capacidade abre possibilidades significativas de escalabilidade operacional, redução de latências decisórias e aumento da consistência na execução estratégica, particularmente em contextos caracterizados por elevada complexidade e variabilidade (Davenport & Ronanki, 2018).
No entanto, a literatura é clara ao sublinhar que o valor da inteligência artificial não emerge automaticamente da sua autonomia técnica. Pelo contrário, tecnologias avançadas tendem a amplificar as estruturas organizacionais existentes, reforçando tanto as suas virtudes como as suas fragilidades (Brynjolfsson & McAfee, 2017). A Agentic AI, ao deslocar parte substancial da ação para sistemas autónomos, torna ainda mais visível a dependência de processos claros, dados fiáveis e responsabilidades bem definidas. Em organizações onde estes elementos são frágeis ou ambíguos, a autonomia algorítmica pode traduzir-se não em eficiência, mas em perda de controlo.
É neste ponto que a discussão se desloca inevitavelmente para o domínio da gestão. A introdução de sistemas capazes de executar ações com impacto financeiro, operacional ou reputacional coloca desafios inéditos à atribuição de responsabilidade e à prestação de contas. Quando uma decisão emerge de interações entre múltiplos agentes artificiais, treinados sobre dados históricos e ajustados dinamicamente, torna-se insuficiente recorrer a modelos tradicionais de responsabilização individual (Floridi et al., 2018). A gestão da Agentic AI exige, assim, novos enquadramentos conceptuais e institucionais.
O contexto europeu oferece um contributo particularmente relevante para esta discussão. A abordagem regulatória da União Europeia, materializada no Regulamento da Inteligência Artificial (AI Act), assenta num modelo de gestão baseado no risco, no qual os sistemas são avaliados em função do seu potencial impacto sobre direitos fundamentais, segurança e interesse público. Embora o regulamento não utilize explicitamente o conceito de Agentic AI, os seus princípios aplicam-se de forma direta a sistemas que operam com elevada autonomia em contextos organizacionais críticos.
Neste enquadramento, sistemas de Agentic AI tendem a enquadrar-se nas categorias de risco elevado, exigindo mecanismos robustos de supervisão humana, transparência, documentação técnica e monitorização contínua. A lógica subjacente não é a de travar a inovação, mas a de assegurar que a autonomia técnica não se traduz em opacidade decisória ou erosão da responsabilidade institucional. A gestão deixa de ser um elemento ex post e passa a integrar a própria arquitetura do sistema.
A literatura sobre interação humano–IA tem vindo a conceptualizar esta abordagem através do modelo de human-on-the-loop, no qual os humanos não intervêm em cada decisão individual, mas mantêm autoridade sobre os objetivos, os limites de atuação e os critérios de avaliação dos sistemas autónomos (Amershi et al., 2019). Este modelo revela-se particularmente adequado à Agentic AI, na medida em que reconhece a impossibilidade prática de supervisão contínua sem abdicar do controlo estratégico e normativo.
Esta redistribuição de funções tem implicações diretas para a liderança organizacional. Longe de tornar a liderança redundante, a Agentic AI desloca o seu foco da gestão operacional para a definição de direção estratégica, gestão de riscos sistémicos e alinhamento entre tecnologia e valores institucionais. Como argumentam Iansiti e Lakhani (2020), a vantagem competitiva na era da IA reside menos na eficiência marginal e mais na capacidade de redesenhar organizações em torno de sistemas inteligentes de forma coerente e governável.
Do ponto de vista ético, a Agentic AI coloca ainda desafios associados a comportamentos emergentes e efeitos não intencionais. Sistemas orientados a objetivos podem desenvolver estratégias que, embora eficazes do ponto de vista funcional, entrem em tensão com normas sociais, princípios éticos ou expectativas regulatórias. A investigação em sistemas multiagente demonstra que tais comportamentos emergentes não são exceções, mas propriedades estruturais de sistemas complexos (Wooldridge, 2021). Daí a crescente ênfase em abordagens de ethics-by-design e governance-by-design, alinhadas com os valores europeus de dignidade humana, autonomia e justiça (Floridi et al., 2018).
Empiricamente, os casos de adoção mais avançados de Agentic AI concentram-se em domínios onde a complexidade decisória e a necessidade de resposta rápida justificam níveis mais elevados de autonomia: gestão de infraestruturas digitais, resposta a incidentes de cibersegurança, otimização financeira contínua, orquestração de cadeias logísticas globais e personalização avançada da relação com o cliente. Em todos estes contextos, a literatura converge na importância de abordagens incrementais, com pilotos controlados, avaliação contínua de impacto e envolvimento ativo das funções de risco e compliance.
Deste modo, a Agentic AI não pode ser compreendida como um projeto tecnológico isolado, mas como uma decisão estratégica de alto nível que implica escolhas explícitas sobre autoridade, responsabilidade e valores organizacionais. No contexto europeu, estas escolhas devem ser coerentes com o quadro normativo emergente, sob pena de riscos legais, reputacionais e institucionais significativos.
Em síntese, a Agentic AI representa uma nova etapa na integração da inteligência artificial nas organizações, marcada pela passagem da automação para a execução autónoma orientada a objetivos. Esta evolução oferece oportunidades substanciais de criação de valor, mas exige simultaneamente uma reconfiguração profunda dos modelos de gestão. Para investigadores, decisores e líderes organizacionais, o desafio central não reside na possibilidade técnica da Agentic AI, mas na capacidade de integrá-la de forma responsável, transparente e alinhada com os princípios que sustentam a ação organizacional no espaço europeu.
Referências Bibliográficas
Amershi, S., Weld, D., Vorvoreanu, M., Fourney, A., Nushi, B., Collisson, P., … Horvitz, E. (2019). Guidelines for human-AI interaction. Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems. https://doi.org/10.1145/3290605.3300233
Brynjolfsson, E., & McAfee, A. (2017). Machine, platform, crowd: Harnessing our digital future. W. W. Norton & Company.
Davenport, T. H., & Ronanki, R. (2018). Artificial intelligence for the real world. Harvard Business Review, 96(1), 108–116.
Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., … Vayena, E. (2018). AI4People—An ethical framework for a good AI society. Minds and Machines, 28(4), 689–707.
Franklin, S., & Graesser, A. (1997). Is it an agent, or just a program? A taxonomy for autonomous agents. Proceedings of the Third International Workshop on Agent Theories, Architectures, and Languages, 21–35.
Iansiti, M., & Lakhani, K. R. (2020). Competing in the age of AI. Harvard Business Review Press.
Kaplan, A. M., & Haenlein, M. (2019). Siri, Siri, in my hand: Who’s the fairest in the land? Business Horizons, 62(1), 15–25.
Russell, S., & Norvig, P. (2021). Artificial intelligence: A modern approach (4th ed.). Pearson.
Wooldridge, M. (2021). A brief history of artificial intelligence. Flatiron Books.



