:: Tribunal de Contas - MT

Inteligência Artificial na gestão pública: entre a oportunidade e o dever de fazer certo

30/03/2026

A inteligência artificial deixou de ser um tema distante. Já integra, ou passará a integrar em curto prazo, a rotina das prefeituras, apoiando decisões, organizando dados e identificando riscos

A inteligência artificial deixou de ser um tema distante. Já integra, ou passará a integrar em curto prazo, a rotina das prefeituras, apoiando decisões, organizando dados e identificando riscos. A promessa é conhecida da administração pública: fazer mais com menos. Para os jurisdicionados dos Tribunais de Contas, a questão relevante não é mais a adoção da IA, mas as condições em que ela ocorre.

A IA pode, de fato, melhorar a gestão pública. Como observa Brynjolfsson[i], tecnologias digitais ampliam a produtividade quando associadas a mudanças organizacionais consistentes. Municípios operam sob restrições orçamentárias e pressão por resultados, o que torna esse ganho particularmente relevante.

Há, porém, um limite que não pode ser afastado: a IA não elimina nem reduz a responsabilidade do gestor público, ainda que possa envolver outros atores, como fornecedores e desenvolvedores, na cadeia de decisões.

Pasquale[ii] descreve o risco de consolidação de estruturas decisórias opacas, nas quais os critérios utilizados deixam de ser acessíveis. No setor público, isso afeta diretamente a exigência de motivação dos atos administrativos. Decidir sem níveis adequados de explicação — compatíveis com o impacto da decisão — compromete a legitimidade da atuação estatal.

Mesmo quando há apoio tecnológico, a decisão permanece sendo administrativa. Citron[iii], ao tratar do technological due process, sustenta que a automação não reduz as garantias procedimentais. O efeito tende a ser inverso. A exigência de controle, revisão e justificativa se intensifica.

Os riscos mais recorrentes podem ser observados de forma objetiva.

O primeiro diz respeito à opacidade dos sistemas. Soluções baseadas em IA são frequentemente contratadas como produtos fechados. A ausência de compreensão sobre o seu funcionamento limita a capacidade de controle e dificulta a prestação de contas. No contexto internacional, diretrizes como as da União Europeia sobre IA confiável[iv] e, mais recentemente, o AI Act[v] reforçam a importância de transparência, explicabilidade e possibilidade de auditoria, especialmente no setor público.

O segundo risco envolve a reprodução de desigualdades. Sistemas de IA operam a partir de dados de treinamento que frequentemente refletem padrões históricos ou estruturais. Se esses dados carregam distorções, o modelo tende a replicá-las — inclusive por meio de variáveis indiretas. Barocas, Hardt e Narayanan[vi] demonstram que modelos estatísticos podem produzir discriminação mesmo sem intenção explícita. No contexto de políticas públicas, isso pode afetar diretamente o acesso a direitos.

O terceiro risco está relacionado ao tratamento de dados pessoais. A IA depende de grandes volumes de informação, e o Estado concentra bases de conteúdo sensível. A Lei Geral de Proteção de Dados Pessoais estabelece limites claros, como finalidade, necessidade, segurança e prevenção, além de vedar usos discriminatórios. Floridi[vii] sustenta que a governança da informação deve ser estruturada a partir de critérios éticos, sob pena de comprometimento da própria legitimidade das instituições.

Há ainda a dimensão das garantias fundamentais. A Recomendação da UNESCO sobre a Ética da Inteligência Artificial[viii] destaca que sistemas utilizados pelo setor público devem preservar supervisão humana efetiva e respeitar direitos fundamentais, sobretudo em decisões que impactam diretamente o cidadão. Isso inclui a possibilidade de revisão e contestação.

Como exemplo, iniciativas como a ferramenta “Platão”, desenvolvida no âmbito do TCE-MT para uso interno, ilustram como soluções de IA já vêm sendo incorporadas ao cotidiano dos Tribunais de Contas.

Nesse cenário, a questão prática que se impõe aos gestores públicos é: há condições institucionais para utilizar IA com controle adequado?

A resposta não depende de estruturas complexas. Algumas medidas são suficientes para reduzir riscos de forma significativa como: a) definição clara da finalidade de uso da IA; b) exigência de transparência mínima na contratação de soluções; c) previsão de revisão humana em decisões relevantes; d) proteção adequada dos dados pessoais e e) registro das decisões e dos critérios adotados.

Os Tribunais de Contas tendem a intensificar a orientação e, posteriormente, a análise desse tipo de iniciativa. O objetivo é promover a inovação dentro dos parâmetros de legalidade e controle. O NIST, em seu AI Risk Management Framework[ix], propõe abordagem semelhante, com foco em gestão de riscos e responsabilização institucional.

O ponto é direto. A adoção de inteligência artificial não altera os deveres do gestor público. Ela apenas os torna mais exigentes. A tecnologia amplia a capacidade de ação do Estado. Sem controle adequado, amplia também a escala dos erros. A diferença entre esses dois efeitos está na forma como a IA é incorporada à gestão.

No fim, a decisão permanece sendo do gestor — e, por isso, continua sendo sua a responsabilidade.


[i] BRYNJOLFSSON, Erik; MCAFEE, Andrew. The Second Machine Age: Work, Progress, and Prosperity in a Time of Brilliant Technologies. New York: W. W. Norton & Company, 2014. Disponível em: http://digamo.free.fr/brynmacafee2.pdf. Acesso em 17 mar. 2026.

[ii] PASQUALE, Frank. The Black Box Society: The Secret Algorithms That Control Money and Information. Cambridge: Harvard University Press, 2015.

[iii] CITRON, Danielle Keats. Technological Due Process. Washington University Law Review, St. Louis, v. 85, n. 6, p. 1249–1313, 2008. Disponível em: https://openscholarship.wustl.edu/law_lawreview/vol85/iss6/2/ . Acesso em: 17 mar. 2026.

[iv] EUROPEAN COMMISSION. Ethics Guidelines for Trustworthy AI. Brussels: European Commission, 2019. Disponível em: https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai. Acesso em: 19 mar. 2026.

[v] AI ACT

[vi] BAROCAS, Solon; HARDT, Moritz; NARAYANAN, Arvind. Fairness and Machine Learning. [S.l.]: fairmlbook.org, 2019. Disponível em: https://fairmlbook.org/pdf/fairmlbook.pdf. Acesso em: 19 mar. 2026

[vii] FLORIDI, Luciano et al. AI4People—An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations. Minds and Machines, v. 28, p. 689–707, 2018. Disponível em: https://pubmed.ncbi.nlm.nih.gov/30930541/. Acesso em: 19 mar. 2026.

[viii] UNESCO. Recomendação sobre a Ética da Inteligência Artificial. Disponível em: https://unesdoc.unesco.org/ark:/48223/pf0000381137_por. Acesso em: 24 mar. 2026.

[ix] NATIONAL INSTITUTE OF STANDARDS AND TECHNOLOGY (NIST). Artificial Intelligence Risk Management Framework (AI RMF 1.0). Gaithersburg: NIST, 2023. Disponível em: https://nvlpubs.nist.gov/nistpubs/ai/nist.ai.100-1.pdf . Acesso em: 19 mar. 2026.




Mais artigos de Alisson Alencar e Valteir Teobaldo:

30/03/2026 - Inteligência Artificial na gestão pública: entre a oportunidade e o dever de fazer certo


Ver todos os artigos
Alisson Alencar e Valteir Teobaldo

Alisson Alencar é conselheiro do Tribunal de Contas de Mato Grosso (TCE-MT), doutor em Direito pela Faculdade Autônoma de Direito de São Paulo (FADISP), em dupla titulação com a Universidade de Salamanca (Espanha), e pós-doutor pela Universidade de São Paulo (USP). Valteir Teobaldo é secretário-adjunto de Inovação e Inteligência Artificial do TCE-MT, advogado, consultor jurídico, mestrando em Função Social do Direito pela FADISP, vice-presidente da Comissão de Proteção de Dados e Privacidade da OAB-MT, DPO Serpro/Datashield e encarregado de Dados do TCE-MT.