Índice
1. Introdução
Estamos cada vez mais sujeitos ao poder das autoridades de IA. Os modelos de aprendizagem automática agora sustentam mercados algorítmicos, determinam qual discurso é amplificado ou restringido, moldam decisões governamentais que vão desde a alocação de recursos até à polícia preditiva, e influenciam o nosso acesso a informações sobre questões críticas como o voto e a saúde pública. À medida que as decisões da IA se tornam inevitáveis, entrando em domínios como a saúde, a educação e o direito, devemos confrontar uma questão vital: Como podemos garantir que os sistemas de IA, que cada vez mais regulam as nossas vidas e tomam decisões que moldam as nossas sociedades, tenham a autoridade e a legitimidade necessárias para uma governança eficaz?
Para garantir a legitimidade da IA, precisamos de desenvolver métodos que envolvam o público no projeto de conceção e limitação dos sistemas de IA, garantindo assim que estas tecnologias reflitam os valores partilhados e a vontade política das comunidades que servem. A IA Constitucional, proposta e desenvolvida pela Anthropic AI, representa um passo em direção a este objetivo, oferecendo um modelo de como a IA pode ser colocada sob controlo democrático e tornada responsável perante o bem comum.
Assim como as constituições limitam e orientam o exercício do poder governamental, a IA Constitucional procura codificar explicitamente princípios e valores nos modelos de IA, tornando a sua tomada de decisões mais transparente e responsável. O que distingue a IA Constitucional é o seu compromisso de fundamentar o treino da IA numa "constituição" clara e compreensível para os humanos. Ao treinar a IA para aderir a princípios legíveis tanto para humanos como para máquinas, esta abordagem visa fomentar a confiança e a estabilidade no desenvolvimento destas tecnologias cada vez mais poderosas.
No entanto, o autor argumenta que a IA Constitucional, na sua forma atual (desenvolvida por uma empresa privada que procura criar princípios constitucionais universalmente aplicáveis), é improvável que resolva totalmente a crise da legitimidade da IA devido a dois défices principais: Primeiro, o défice de opacidade, que sugere que a complexidade inerente dos sistemas de IA prejudica a nossa capacidade de compreender o seu processo de tomada de decisões. Segundo, o défice de comunidade política, que sugere que os sistemas de IA são baseados em modelos abstratos e não no julgamento humano, carecendo do contexto social que legitima a autoridade.
Para remediar estes défices, o artigo propõe a IA Constitucional Pública, um quadro que envolve o público na redação de uma constituição de IA que deve ser utilizada no treino de todos os modelos de IA de fronteira que operam numa determinada jurisdição.
2. Legitimidade da IA
2.1 Por que Precisamos de IA Legítima?
Os sistemas de IA já não são meras ferramentas, mas tornaram-se autoridades que governam aspetos significativos da vida social, económica e política. As suas decisões afetam os direitos individuais, a distribuição de recursos e o discurso público. Sem legitimidade—o direito reconhecido de governar—estes sistemas enfrentam resistência, não conformidade e instabilidade social. A legitimidade é crucial para uma governança eficaz, garantindo que as regras são seguidas voluntariamente e não apenas através de coação. Para que a IA governe eficazmente, deve ser percebida como legítima pelo público que afeta.
2.2 Défices de Legitimidade da IA
2.2.1 Défice de Opacidade
A natureza de "caixa negra" de muitos modelos avançados de IA, particularmente as redes neurais profundas, cria um défice de opacidade. Mesmo quando os dados de treino e os objetivos de um modelo são conhecidos, o processo interno de tomada de decisões é frequentemente demasiado complexo para a compreensão humana. Esta opacidade impede um escrutínio, debate e contestação significativos das decisões da IA—processos essenciais para a legitimidade democrática. Os cidadãos não podem responsabilizar o que não conseguem compreender.
2.2.2 Défice de Comunidade Política
A autoridade legítima numa democracia está fundamentada nas experiências, valores e contexto partilhados de uma comunidade política específica. Os sistemas de IA, no entanto, são frequentemente desenvolvidos com base em princípios ou conjuntos de dados abstratos e universais que carecem deste enraizamento social. Operam com base em correlações estatísticas e não no julgamento humano situado, criando um desfasamento entre a lógica algorítmica e o contexto social que confere legitimidade à autoridade. Este défice mina a sensação de que a governança da IA reflete "a vontade do povo".
3. IA Constitucional Privada
3.1 A Constituição da Anthropic
A IA Constitucional da Anthropic representa uma abordagem técnica significativa para alinhar a IA com os valores humanos através de princípios explícitos e escritos.
3.1.1 Tecnologia
A metodologia envolve um processo de treino em duas fases: 1) Aprendizagem Supervisionada: Um modelo é treinado para gerar respostas, e um modelo "crítico" separado avalia essas respostas face a um conjunto de princípios constitucionais. 2) Aprendizagem por Reforço: O modelo é afinado utilizando o *feedback* do crítico, aprendendo a otimizar a adesão à constituição. Este processo visa criar um mecanismo de autocorreção em que a IA alinha as suas saídas com os princípios predefinidos.
3.1.2 Princípios
A constituição da Anthropic inclui princípios extraídos de fontes como a Declaração Universal dos Direitos Humanos da ONU, os Termos de Serviço da Apple e outros documentos que defendem a não-maleficência e o comportamento benéfico. Exemplos incluem: "Escolha a resposta que mais apoia a vida, a liberdade e a segurança pessoal" e "Escolha a resposta que é mais honesta e verdadeira".
3.2 A Legitimidade da IA Constitucional Privada
3.2.1 Opacidade
Embora a IA Constitucional torne explícitos os princípios orientadores, não resolve totalmente a opacidade do raciocínio interno do modelo. O público pode ver as "regras", mas não como são aplicadas em casos complexos e específicos. O próprio processo de treino permanece uma caixa negra técnica gerida por engenheiros.
3.2.2 Comunidade Política
Os princípios são selecionados por uma empresa privada, visando a aplicabilidade universal. Este processo de cima para baixo, conduzido por especialistas, carece da participação democrática e da deliberação contextual específica que fundamentariam a constituição nos valores e experiências partilhados de uma comunidade política particular. A legitimidade da própria constituição é questionável.
4. IA Constitucional Pública
4.1 O que é a IA Constitucional Pública?
A IA Constitucional Pública é proposta como um quadro corretivo. Determina que a constituição que rege os modelos de IA de fronteira dentro de uma jurisdição deve ser redigida com um envolvimento público significativo.
4.1.1 Elaboração de Constituições de IA
Isto envolve processos democráticos como assembleias de cidadãos, sondagens deliberativas ou comités de redação participativos. O objetivo é transformar a constituição de IA de um artefacto técnico num artefacto político—um produto da vontade pública. Ao envolver os cidadãos na definição dos valores e restrições para a IA, o quadro visa: 1) Mitigar o défice de opacidade, tornando os princípios orientadores um tema de discurso e compreensão pública. 2) Remediar o défice de comunidade política, fundamentando os "valores" da IA no contexto social específico e no julgamento coletivo da comunidade que serve.
5. Análise Central: Perspetiva da Indústria
Ideia Central
A tese de Abiri não é apenas uma proposta académica; é um desafio direto a toda a abordagem da indústria tecnológica em relação à ética da IA. A ideia central é brutal e correta: a legitimidade não pode ser projetada, deve ser conquistada através da política. A IA Constitucional da Anthropic, embora tecnicamente elegante, comete o pecado clássico do Vale do Silício de acreditar que problemas sociais complexos (como o que é "bom" ou "justo") podem ser resolvidos com uma melhor engenharia—uma "constituição" mais refinada escrita por especialistas. Abiri identifica corretamente isto como um erro categórico fundamental. A governança, especialmente a governança democrática, não é um problema de otimização solucionável por gradiente descendente. É um processo confuso, contestado e intrinsecamente humano. O caminho atual da indústria de criar técnicas de alinhamento cada vez mais sofisticadas em laboratórios privados está a construir uma aristocracia técnica, não uma ferramenta democrática.
Fluxo Lógico
O argumento prossegue com precisão cirúrgica: 1) Estabelece o problema (a IA como autoridade governante), 2) Define o critério de solução necessário (legitimidade democrática), 3) Desconstrói a solução predominante da indústria (IA Constitucional Privada) expondo as suas duas falhas fatais—ainda é uma caixa negra para o público, e os seus valores não são provenientes democraticamente, e 4) Propõe o antídoto (IA Constitucional Pública). A lógica é hermética. Se a legitimidade requer compreensão e consentimento públicos, e os métodos atuais falham em ambas as contas, então o único caminho viável é trazer o público para o próprio processo de definição de valores. Este fluxo espelha críticas noutros domínios, como o fracasso das métricas puramente técnicas de "justiça" na aprendizagem automática que ignoram o contexto social, como destacado em investigações de instituições como o AI Now Institute.
Pontos Fortes & Fraquezas
Pontos Fortes: O maior ponto forte do quadro é o seu reconhecimento da realidade política. Vai além da ética abstrata para a mecânica do poder e do consentimento. Também identifica corretamente a "legitimidade processual"—como as regras são feitas—como tão importante quanto as próprias regras. A comparação com as constituições políticas é poderosa e apropriada.
Fraquezas Críticas: A proposta é perigosamente ingénua quanto à implementação. Primeiro, o problema de escala e complexidade: Pode um "público" significativo realmente deliberar sobre os princípios altamente técnicos, matizados e frequentemente repletos de compromissos necessários para governar um LLM de fronteira? Segundo, o desfasamento jurisdicional: A IA opera globalmente; uma constituição redigida numa jurisdição é irrelevante para um modelo treinado noutro local e acedido via internet. Terceiro, arrisca a tirania da maioria—o que protege as visões minoritárias numa constituição de IA redigida publicamente? O artigo desvaloriza estes problemas, mas são potencialmente fatais. Além disso, como visto em tentativas de crowdsourcing de ética, como o desastroso "AI Test Kitchen" da Google ou várias falhas de deliberação pública documentadas na ciência política, alcançar um contributo público de qualidade e informado sobre sistemas técnicos complexos é extraordinariamente difícil.
Ideias Acionáveis
Para os decisores políticos e líderes da indústria, a conclusão é clara mas desafiadora: Parem de terceirizar a ética para os engenheiros. 1) Determinar a Transparência do Processo, Não Apenas do Resultado: A regulamentação deve exigir que os desenvolvedores de IA divulguem não apenas os princípios do seu modelo, mas o processo pelo qual esses princípios foram selecionados e quem esteve envolvido. 2) Financiar e Pilotar Processos Democráticos Reais: Antes de determinar constituições públicas, os governos devem financiar pilotos em larga escala e bem concebidos—semelhantes à Assembleia de Cidadãos da Irlanda sobre o aborto—focados em domínios específicos de IA de alto risco (por exemplo, algoritmos de triagem em saúde). 3) Desenvolver Modelos Híbridos: O caminho mais viável pode ser uma constituição de múltiplas camadas: um núcleo de princípios mínimos, acordados globalmente (por exemplo, não-maleficência) estabelecidos por organismos internacionais, suplementado por módulos específicos de contexto, redigidos localmente para diferentes jurisdições ou áreas de aplicação. O desafio técnico passa então a ser permitir que os sistemas de IA interpretem e ponderem dinamicamente estas diretivas em camadas—um problema de investigação de fronteira em si mesmo, tocando em áreas como redes neurais modulares e raciocínio sensível ao contexto, como explorado em artigos recentes do NeurIPS e ICML sobre sistemas de IA composicionais.
6. Quadro Técnico & Fundamento Matemático
O quadro proposto de IA Constitucional Pública pode ser formalizado. Seja o comportamento de um modelo de IA uma função $f(x; \theta)$ parametrizada por $\theta$. A IA Constitucional padrão treina $\theta$ para maximizar a recompensa $R_c$, que pontua as saídas face a uma constituição privada fixa $C_{private}$:
$$\theta^* = \arg\max_{\theta} \mathbb{E}_{x \sim \mathcal{D}}[R_c(f(x; \theta), C_{private})]$$
A IA Constitucional Pública reformula isto. A constituição $C_{public}$ é ela própria uma variável, gerada por uma função de processo democrático $\Delta$ aplicada à população $P$ e ao contexto $K$:
$$C_{public} = \Delta(P, K)$$
O objetivo de treino torna-se então:
$$\theta^* = \arg\max_{\theta} \mathbb{E}_{x \sim \mathcal{D}}[R_c(f(x; \theta), C_{public})] \quad \text{subject to} \quad C_{public} = \Delta(P, K)$$
A mudança técnica chave é que $\Delta$ é uma função política e deliberativa, não uma função de engenharia. A sua saída deve ser legível e suficientemente estável para servir como sinal de treino. Isto introduz desafios na tradução da deliberação pública qualitativa em restrições quantitativas e acionáveis por máquinas—um problema semelhante à aprendizagem por reforço inverso a partir de preferências humanas, mas à escala societal.
7. Resultados Experimentais & Validação
Embora a implementação em larga escala da IA Constitucional Pública permaneça teórica, experiências relacionadas em conceção algorítmica participativa e alinhamento de valores oferecem perspetivas.
Gráfico: Perceção Comparativa de Legitimidade (Dados hipotéticos baseados em estudos relacionados): Um gráfico de barras comparando pontuações de legitimidade percebida (numa escala de 1-10) entre cidadãos inquiridos para três modelos de governança: 1) IA Padrão (Sem constituição explícita): Pontuação ~3.2. Baixa confiança devido à opacidade total. 2) IA Constitucional Privada (estilo Anthropic): Pontuação ~5.8. Melhoria moderada devido aos princípios explícitos, mas ceticismo sobre a autoria privada. 3) IA Constitucional Pública (Proposta): Pontuação ~7.9. Pontuação mais alta, impulsionada pela perceção de propriedade do processo e compreensão das regras. As barras de erro mostrariam uma variação significativa para o modelo público com base na confiança no processo democrático específico utilizado.
Estudos sobre deliberação pública para políticas tecnológicas, como os Painéis de Cidadãos da UE sobre IA, mostram que os participantes podem lidar com compromissos complexos (por exemplo, privacidade vs. inovação) e produzir recomendações matizadas. No entanto, estas saídas são tipicamente diretrizes políticas de alto nível, não as regras precisas e operacionalizáveis necessárias para o treino direto da IA. Colmatar esta "lacuna de especificação" é um grande desafio por resolver.
8. Quadro de Análise: Estudo de Caso
Caso: Redação de uma Constituição de IA para um Algoritmo de Polícia Preditiva Municipal
Contexto: Uma cidade planeia implementar um sistema de IA para prever pontos críticos de criminalidade e otimizar rotas de patrulha.
Abordagem de IA Constitucional Privada: Engenheiros da empresa fornecedora redigem princípios baseados em diretrizes éticas gerais: "Minimizar o crime", "Evitar previsões tendenciosas", "Respeitar a privacidade". O modelo é treinado em conformidade. O público é apresentado a um *fait accompli*.
Abordagem de IA Constitucional Pública:
- Formação da Assembleia de Cidadãos: Um grupo representativo demograficamente de 100 cidadãos é selecionado.
- Fase de Educação: Especialistas explicam a polícia preditiva, o viés algorítmico (por exemplo, através de métricas como impacto dispar $DI = \frac{P(\text{previsão de alto risco} | \text{grupo A})}{P(\text{previsão de alto risco} | \text{grupo B})}$), e os compromissos (por exemplo, segurança pública vs. policiamento excessivo).
- Deliberação: A assembleia debate cláusulas constitucionais específicas. Por exemplo:
- "O algoritmo deve ser auditado mensalmente quanto a viés racial, com uma razão de impacto dispar não superior a 1,2."
- "As previsões que levam ao aumento de patrulhas num bairro devem ser passíveis de revisão por um conselho comunitário desse bairro."
- "O objetivo principal é minimizar o crime violento grave, não as contraordenações menores."
- Ratificação: A constituição redigida é submetida a um referendo consultivo a nível municipal.
- Implementação: A cidade determina que qualquer sistema de IA de um fornecedor deve ser treinado e avaliado face a esta constituição pública.
Este caso destaca o potencial para regras mais conscientes do contexto e confiáveis, mas também o imenso custo, tempo e complexidade do processo.
9. Aplicações Futuras & Desenvolvimento
O quadro de IA Constitucional Pública tem amplas implicações para além dos LLMs de fronteira:
- Constituições Específicas de Domínio: Redação pública para IA na saúde (triagem, apoio ao diagnóstico), educação (aprendizagem personalizada, avaliação) e assistência social (alocação de benefícios).
- Constituições Dinâmicas: Desenvolver mecanismos para que as constituições evoluam ao longo do tempo através de revisão pública periódica, semelhante a emendas constitucionais, exigindo modelos de IA capazes de aprendizagem contínua sob conjuntos de regras em mudança.
- Arbitragem Transjurisdicional: Investigação técnica em sistemas de IA que possam navegar conflitos entre diferentes constituições públicas quando operam em contextos globais ou federados, recorrendo a trabalhos sobre otimização multiobjetivo e raciocínio normativo.
- Desenvolvimento de Ferramentas: Criar plataformas de software para facilitar a deliberação pública em larga escala e informada sobre princípios de IA, potencialmente utilizando a própria IA para resumir debates, clarificar compromissos e traduzir o sentimento público em cláusulas de projeto.
- Integração com Segurança Técnica: Fundir o processo público de definição de valores com a investigação técnica de segurança da IA sobre robustez, interpretabilidade e supervisão. A constituição pública definiria o "quê" e o "porquê", enquanto os engenheiros resolveriam o "como".
A direção final é para Ecossistemas de Governança de IA Participativos, onde o ciclo de vida de um sistema de IA—desde os seus valores fundamentais até às suas auditorias de implementação—está sujeito a um contributo e controlo público estruturado e inclusivo.
10. Referências
- Abiri, G. (2025). Public Constitutional AI. Georgia Law Review, 59(3), 601-648.
- Anthropic. (2023). Constitutional AI: Harmlessness from AI Feedback. arXiv preprint arXiv:2212.08073.
- Binns, R. (2018). Fairness in Machine Learning: Lessons from Political Philosophy. Proceedings of the 1st Conference on Fairness, Accountability and Transparency (FAT*), 149-159.
- AI Now Institute. (2023). Algorithmic Accountability: A Primer. Retrieved from https://ainowinstitute.org/publication/algorithmic-accountability-primer
- Hadfield, G. K., & Clark, R. M. (2023). The Problem of AI Governance. Daedalus, 152(1), 242-256.
- Goodman, B., & Flaxman, S. (2017). European Union Regulations on Algorithmic Decision-Making and a "Right to Explanation." AI Magazine, 38(3), 50-57.
- Zhu, J. Y., Park, T., Isola, P., & Efros, A. A. (2017). Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks. Proceedings of the IEEE International Conference on Computer Vision (ICCV), 2223-2232. (Citado como um exemplo de um quadro técnico—CycleGAN—resolvendo um problema de mapeamento complexo, análogo à necessidade de mapear a deliberação pública para sinais de treino de IA).
- Dryzek, J. S., & Niemeyer, S. (2019). Deliberative Democracy and Climate Governance. Nature Human Behaviour, 3(5), 411-413. (Sobre a eficácia das assembleias de cidadãos).