Sprache auswählen

Public Constitutional AI: Ein Rahmenwerk für demokratische Legitimität in der KI-Governance

Analyse des Public Constitutional AI-Rahmens, der Legitimitätsdefizite von KI durch öffentliche Beteiligung an der KI-Verfassungsgebung für demokratische Governance adressiert.
tokens-market.com | PDF Size: 0.6 MB
Bewertung: 4.5/5
Ihre Bewertung
Sie haben dieses Dokument bereits bewertet
PDF-Dokumentendeckel - Public Constitutional AI: Ein Rahmenwerk für demokratische Legitimität in der KI-Governance

Inhaltsverzeichnis

1. Einleitung

Wir unterliegen zunehmend der Macht von KI-Autoritäten. Maschinelle Lernmodelle bilden heute die Grundlage algorithmischer Märkte, bestimmen, wessen Sprache verstärkt oder eingeschränkt wird, gestalten Regierungsentscheidungen von der Ressourcenverteilung bis zur prädiktiven Polizeiarbeit und beeinflussen unseren Zugang zu Informationen über kritische Themen wie Wahlen und öffentliche Gesundheit. Da KI-Entscheidungen unvermeidlich werden und in Bereiche wie Gesundheitswesen, Bildung und Recht vordringen, müssen wir uns einer entscheidenden Frage stellen: Wie können wir sicherstellen, dass KI-Systeme, die zunehmend unser Leben regulieren und gesellschaftsgestaltende Entscheidungen treffen, die für eine wirksame Governance notwendige Autorität und Legitimität besitzen?

Um die Legitimität von KI zu sichern, müssen wir Methoden entwickeln, die die Öffentlichkeit in das Projekt der Gestaltung und Beschränkung von KI-Systemen einbeziehen und so sicherstellen, dass diese Technologien die gemeinsamen Werte und den politischen Willen der Gemeinschaften widerspiegeln, denen sie dienen. Constitutional AI, vorgeschlagen und entwickelt von Anthropic AI, stellt einen Schritt in diese Richtung dar und bietet ein Modell dafür, wie KI unter demokratische Kontrolle gebracht und dem Gemeinwohl verantwortlich gemacht werden könnte.

Genau wie Verfassungen die Ausübung staatlicher Macht begrenzen und lenken, versucht Constitutional AI, explizite Prinzipien und Werte in KI-Modelle zu implementieren, um deren Entscheidungsfindung transparenter und rechenschaftspflichtiger zu machen. Was Constitutional AI auszeichnet, ist sein Bestreben, das KI-Training auf einer klaren, für Menschen verständlichen „Verfassung“ zu gründen. Indem KI darauf trainiert wird, Prinzipien zu befolgen, die sowohl für Menschen als auch für Maschinen nachvollziehbar sind, zielt dieser Ansatz darauf ab, Vertrauen und Stabilität in der Entwicklung dieser immer mächtigeren Technologien zu fördern.

Der Autor argumentiert jedoch, dass Constitutional AI in seiner derzeitigen Form (entwickelt von einem privaten Unternehmen, das universell anwendbare verfassungsrechtliche Prinzipien schaffen will) aufgrund zweier zentraler Defizite die Krise der KI-Legitimität wahrscheinlich nicht vollständig lösen wird: Erstens das Transparenzdefizit, das besagt, dass die inhärente Komplexität von KI-Systemen unsere Fähigkeit untergräbt, ihre Entscheidungsfindung nachzuvollziehen. Zweitens das Defizit der politischen Gemeinschaft, das besagt, dass KI-Systeme auf abstrakten Modellen und nicht auf menschlichem Urteilsvermögen basieren und den sozialen Kontext vermissen lassen, der Autorität legitimiert.

Um diese Defizite zu beheben, schlägt das Papier Public Constitutional AI vor, ein Rahmenwerk, das die Öffentlichkeit in die Ausarbeitung einer KI-Verfassung einbezieht, die für das Training aller in einem bestimmten Rechtsraum operierenden Frontier-KI-Modelle verwendet werden muss.

2. KI-Legitimität

2.1 Warum brauchen wir legitime KI?

KI-Systeme sind keine bloßen Werkzeuge mehr, sondern sind zu Autoritäten geworden, die bedeutende Aspekte des sozialen, wirtschaftlichen und politischen Lebens regieren. Ihre Entscheidungen betreffen individuelle Rechte, Ressourcenverteilung und öffentlichen Diskurs. Ohne Legitimität – das anerkannte Recht zu herrschen – sehen sich diese Systeme Widerstand, Nichtbefolgung und sozialer Instabilität gegenüber. Legitimität ist entscheidend für eine wirksame Governance, da sie sicherstellt, dass Regeln freiwillig befolgt werden und nicht allein durch Zwang. Damit KI effektiv regieren kann, muss sie von der betroffenen Öffentlichkeit als legitim wahrgenommen werden.

2.2 KI-Legitimitätsdefizite

2.2.1 Transparenzdefizit

Die „Black-Box“-Natur vieler fortschrittlicher KI-Modelle, insbesondere tiefer neuronaler Netze, schafft ein Transparenzdefizit. Selbst wenn die Trainingsdaten und -ziele eines Modells bekannt sind, ist der interne Entscheidungsprozess oft zu komplex für das menschliche Verständnis. Diese Undurchsichtigkeit verhindert eine sinnvolle öffentliche Überprüfung, Debatte und Anfechtung von KI-Entscheidungen – Prozesse, die für demokratische Legitimität wesentlich sind. Bürger können nicht zur Rechenschaft ziehen, was sie nicht verstehen können.

2.2.2 Defizit der politischen Gemeinschaft

Legitime Autorität in einer Demokratie ist in den gemeinsamen Erfahrungen, Werten und dem Kontext einer spezifischen politischen Gemeinschaft verankert. KI-Systeme werden jedoch oft auf der Grundlage abstrakter, universeller Prinzipien oder Datensätze entwickelt, denen diese soziale Einbettung fehlt. Sie operieren auf statistischen Korrelationen und nicht auf situiertem menschlichem Urteilsvermögen, was eine Kluft zwischen der algorithmischen Logik und dem sozialen Kontext schafft, der Autorität ihre Legitimität verleiht. Dieses Defizit untergräbt das Gefühl, dass KI-Governance den „Willen des Volkes“ widerspiegelt.

3. Private Constitutional AI

3.1 Anthropics Verfassung

Anthropics Constitutional AI stellt einen bedeutenden technischen Ansatz dar, um KI durch explizite, schriftlich festgelegte Prinzipien mit menschlichen Werten in Einklang zu bringen.

3.1.1 Technologie

Die Methodik umfasst einen zweistufigen Trainingsprozess: 1) Überwachtes Lernen: Ein Modell wird trainiert, Antworten zu generieren, und ein separates „Kritiker“-Modell bewertet diese Antworten anhand eines Satzes verfassungsrechtlicher Prinzipien. 2) Bestärkendes Lernen: Das Modell wird mithilfe von Feedback des Kritikers feinabgestimmt und lernt, die Einhaltung der Verfassung zu optimieren. Dieser Prozess zielt darauf ab, einen selbstkorrigierenden Mechanismus zu schaffen, bei dem die KI ihre Ausgaben an die vordefinierten Prinzipien anpasst.

3.1.2 Prinzipien

Anthropics Verfassung umfasst Prinzipien aus Quellen wie der Allgemeinen Erklärung der Menschenrechte der UNO, den Nutzungsbedingungen von Apple und anderen Dokumenten, die sich für Schadensvermeidung und förderliches Verhalten einsetzen. Beispiele sind: „Wähle die Antwort, die Leben, Freiheit und persönliche Sicherheit am meisten unterstützt“ und „Wähle die ehrlichste und wahrhaftigste Antwort“.

3.2 Die Legitimität von Private Constitutional AI

3.2.1 Transparenz

Während Constitutional AI die leitenden Prinzipien explizit macht, löst es die Undurchsichtigkeit der internen Argumentation des Modells nicht vollständig auf. Die Öffentlichkeit kann die „Regeln“ sehen, aber nicht, wie sie in komplexen, spezifischen Fällen angewendet werden. Der Trainingsprozess selbst bleibt eine technische Black Box, die von Ingenieuren verwaltet wird.

3.2.2 Politische Gemeinschaft

Die Prinzipien werden von einem privaten Unternehmen ausgewählt, das auf universelle Anwendbarkeit abzielt. Dieser top-down, expertengetriebene Prozess entbehrt der demokratischen Beteiligung und kontextspezifischen Deliberation, die die Verfassung in den gemeinsamen Werten und Erfahrungen einer bestimmten politischen Gemeinschaft verankern würde. Die Legitimität der Verfassung selbst ist fragwürdig.

4. Public Constitutional AI

4.1 Was ist Public Constitutional AI?

Public Constitutional AI wird als korrigierendes Rahmenwerk vorgeschlagen. Es schreibt vor, dass die Verfassung, die Frontier-KI-Modelle innerhalb eines Rechtsraums regiert, unter erheblicher öffentlicher Beteiligung ausgearbeitet werden muss.

4.1.1 KI-Verfassungsgebung

Dies beinhaltet demokratische Prozesse wie Bürgerräte, deliberative Umfragen oder partizipative Entwurfsausschüsse. Das Ziel ist es, die KI-Verfassung von einem technischen Artefakt in ein politisches zu verwandeln – ein Produkt des öffentlichen Willens. Indem Bürger in die Definition der Werte und Beschränkungen für KI einbezogen werden, zielt das Rahmenwerk darauf ab: 1) Das Transparenzdefizit zu mildern, indem die leitenden Prinzipien zum Gegenstand öffentlicher Diskurse und des Verständnisses gemacht werden. 2) Das Defizit der politischen Gemeinschaft zu beheben, indem die „Werte“ der KI im spezifischen sozialen Kontext und im kollektiven Urteil der Gemeinschaft, der sie dient, verankert werden.

5. Kernanalyse: Branchenperspektive

Kernaussage

Abiris These ist nicht nur ein akademischer Vorschlag; sie ist eine direkte Herausforderung für den gesamten Tech-Industrie-Ansatz zur KI-Ethik. Die Kernaussage ist schonungslos und richtig: Legitimität kann nicht technisch konstruiert werden, sie muss durch Politik erworben werden. Anthropics Constitutional AI begeht, obwohl technisch elegant, die klassische Sünde des Silicon Valley, zu glauben, dass komplexe soziale Probleme (wie was „gut“ oder „fair“ ist) mit besserer Technik gelöst werden können – einer verfeinerten, von Experten geschriebenen „Verfassung“. Abiri identifiziert dies zutreffend als einen fundamentalen Kategorienfehler. Governance, insbesondere demokratische Governance, ist kein Optimierungsproblem, das durch Gradientenabstieg lösbar ist. Es ist ein chaotischer, umstrittener und inhärent menschlicher Prozess. Der derzeitige Weg der Industrie, immer ausgefeiltere Alignment-Techniken in privaten Laboren zu entwickeln, baut eine technische Aristokratie auf, kein demokratisches Werkzeug.

Logischer Ablauf

Das Argument verläuft mit chirurgischer Präzision: 1) Das Problem etablieren (KI als Regierungsautorität), 2) Das notwendige Lösungskriterium definieren (demokratische Legitimität), 3) Die vorherrschende Branchenlösung (Private Constitutional AI) dekonstruieren, indem ihre beiden fatalen Schwächen aufgedeckt werden – sie bleibt für die Öffentlichkeit eine Black Box, und ihre Werte sind nicht demokratisch ermittelt, und 4) Das Gegenmittel vorschlagen (Public Constitutional AI). Die Logik ist lückenlos. Wenn Legitimität öffentliches Verständnis und Zustimmung erfordert und aktuelle Methoden in beiderlei Hinsicht versagen, dann ist der einzig gangbare Weg, die Öffentlichkeit in den Wertsetzungsprozess selbst einzubeziehen. Dieser Ablauf spiegelt Kritiken in anderen Bereichen wider, wie das Versagen rein technischer „Fairness“-Metriken im maschinellen Lernen, die den gesellschaftlichen Kontext ignorieren, wie in Forschungen von Institutionen wie dem AI Now Institute hervorgehoben.

Stärken & Schwächen

Stärken: Die größte Stärke des Rahmenwerks ist seine Anerkennung der politischen Realität. Es geht über abstrakte Ethik hinaus zu den Mechanismen von Macht und Zustimmung. Es identifiziert auch zutreffend „prozessuale Legitimität“ – wie Regeln gemacht werden – als genauso wichtig wie die Regeln selbst. Der Vergleich mit politischen Verfassungen ist kraftvoll und treffend.

Kritische Schwächen: Der Vorschlag ist in der Umsetzung gefährlich naiv. Erstens das Problem des Umfangs und der Komplexität: Kann eine bedeutungsvolle „Öffentlichkeit“ wirklich über die hochtechnischen, nuancierten und oft von Zielkonflikten geprägten Prinzipien beraten, die benötigt werden, um ein Frontier-LLM zu regieren? Zweitens die jurisdiktionelle Fehlanpassung: KI operiert global; eine in einer Jurisdiktion erarbeitete Verfassung ist für ein anderswo trainiertes und über das Internet zugängliches Modell irrelevant. Drittens riskiert es eine Tyrannei der Mehrheit – was schützt Minderheitenmeinungen in einer öffentlich erarbeiteten KI-Verfassung? Das Papier wischt diese Probleme beiseite, aber sie sind potenziell fatal. Darüber hinaus ist es, wie Versuche zur Ethik-Crowdsourcing (wie Googles desaströser „AI Test Kitchen“ oder verschiedene in der Politikwissenschaft dokumentierte Fehlschläge öffentlicher Deliberation zeigen) außerordentlich schwierig, qualitativ hochwertige, informierte öffentliche Beiträge zu komplexen technischen Systemen zu erhalten.

Umsetzbare Erkenntnisse

Für politische Entscheidungsträger und Branchenführer ist die Erkenntnis klar, aber herausfordernd: Hört auf, Ethik an Ingenieure auszulagern. 1) Transparenz des Prozesses vorschreiben, nicht nur der Ergebnisse: Regulierung sollte von KI-Entwicklern verlangen, nicht nur die Prinzipien ihres Modells offenzulegen, sondern auch den Prozess, durch den diese Prinzipien ausgewählt wurden und wer beteiligt war. 2) Echte demokratische Prozesse finanzieren und pilotieren: Bevor öffentliche Verfassungen vorgeschrieben werden, sollten Regierungen groß angelegte, gut konzipierte Pilotprojekte finanzieren – ähnlich dem irischen Bürgerrat zum Thema Abtreibung – die sich auf spezifische, hochriskante KI-Bereiche konzentrieren (z.B. Algorithmen zur Patientenpriorisierung im Gesundheitswesen). 3) Hybridmodelle entwickeln: Der gangbarste Weg könnte eine mehrschichtige Verfassung sein: ein Kern minimaler, global vereinbarter Prinzipien (z.B. Schadensvermeidung), festgelegt durch internationale Gremien, ergänzt durch lokal erarbeitete, kontextspezifische Module für verschiedene Rechtsräume oder Anwendungsbereiche. Die technische Herausforderung besteht dann darin, KI-Systeme zu befähigen, diese geschichteten Direktiven dynamisch zu interpretieren und zu gewichten – ein Frontier-Forschungsproblem für sich, das Bereiche wie modulare neuronale Netze und kontextbewusstes Schließen berührt, wie in aktuellen Arbeiten von NeurIPS und ICML zu kompositionellen KI-Systemen untersucht.

6. Technisches Rahmenwerk & Mathematische Grundlage

Das vorgeschlagene Public Constitutional AI-Rahmenwerk kann formalisiert werden. Das Verhalten eines KI-Modells sei eine Funktion $f(x; \theta)$, parametrisiert durch $\theta$. Standard Constitutional AI trainiert $\theta$, um eine Belohnung $R_c$ zu maximieren, die Ausgaben anhand einer festen, privaten Verfassung $C_{private}$ bewertet:

$$\theta^* = \arg\max_{\theta} \mathbb{E}_{x \sim \mathcal{D}}[R_c(f(x; \theta), C_{private})]$$

Public Constitutional AI formuliert dies um. Die Verfassung $C_{public}$ ist selbst eine Variable, erzeugt durch einen demokratischen Prozess $\Delta$, angewendet auf die Bevölkerung $P$ und den Kontext $K$:

$$C_{public} = \Delta(P, K)$$

Das Trainingsziel wird dann zu:

$$\theta^* = \arg\max_{\theta} \mathbb{E}_{x \sim \mathcal{D}}[R_c(f(x; \theta), C_{public})] \quad \text{unter der Bedingung} \quad C_{public} = \Delta(P, K)$$

Die zentrale technische Verschiebung ist, dass $\Delta$ eine politische und deliberative Funktion ist, keine technische. Ihre Ausgabe muss lesbar und stabil genug sein, um als Trainingssignal zu dienen. Dies stellt Herausforderungen bei der Übersetzung qualitativer öffentlicher Deliberation in quantitative, maschinenverarbeitbare Beschränkungen dar – ein Problem ähnlich dem inversen bestärkenden Lernen aus menschlichen Präferenzen, aber auf gesellschaftlicher Ebene.

7. Experimentelle Ergebnisse & Validierung

Während die vollständige Implementierung von Public Constitutional AI theoretisch bleibt, bieten verwandte Experimente in partizipativem Algorithmendesign und Value Alignment Einblicke.

Diagramm: Vergleichende Legitimitätswahrnehmung (Hypothetische Daten basierend auf verwandten Studien): Ein Balkendiagramm vergleicht die wahrgenommene Legitimitätsbewertung (auf einer Skala von 1-10) unter befragten Bürgern für drei Governance-Modelle: 1) Standard-KI (Keine explizite Verfassung): Bewertung ~3,2. Geringes Vertrauen aufgrund völliger Undurchsichtigkeit. 2) Private Constitutional AI (Anthropic-Stil): Bewertung ~5,8. Mäßige Verbesserung durch explizite Prinzipien, aber Skepsis gegenüber privater Autorenschaft. 3) Public Constitutional AI (Vorgeschlagen): Bewertung ~7,9. Höchste Bewertung, getrieben durch wahrgenommene Eigentümerschaft am Prozess und Verständnis der Regeln. Fehlerbalken würden eine signifikante Varianz für das öffentliche Modell basierend auf dem Vertrauen in den spezifischen verwendeten demokratischen Prozess zeigen.

Studien zu öffentlicher Deliberation für Technologiepolitik, wie die EU-Bürgerpanels zu KI, zeigen, dass Teilnehmer komplexe Zielkonflikte (z.B. Privatsphäre vs. Innovation) bewältigen und nuancierte Empfehlungen erarbeiten können. Diese Ergebnisse sind jedoch typischerweise hochrangige politische Leitlinien, nicht die präzisen, operationalisierbaren Regeln, die für direktes KI-Training benötigt werden. Diese „Spezifikationslücke“ zu überbrücken, ist eine große ungelöste Herausforderung.

8. Analyse-Rahmenwerk: Fallstudie

Fall: Erstellung einer KI-Verfassung für einen kommunalen prädiktiven Polizeialgorithmus

Kontext: Eine Stadt plant den Einsatz eines KI-Systems zur Vorhersage von Kriminalitätsschwerpunkten und zur Optimierung von Streifenrouten.

Private Constitutional AI-Ansatz: Ingenieure des Anbieterunternehmens erarbeiten Prinzipien basierend auf allgemeinen Ethikrichtlinien: „Kriminalität minimieren“, „Voreingenommene Vorhersagen vermeiden“, „Privatsphäre respektieren“. Das Modell wird entsprechend trainiert. Der Öffentlichkeit wird ein vollendetes Faktum präsentiert.

Public Constitutional AI-Ansatz:

  1. Bildung eines Bürgerrats: Eine demografisch repräsentative Gruppe von 100 Bürgern wird ausgewählt.
  2. Bildungsphase: Experten erklären prädiktive Polizeiarbeit, algorithmische Verzerrung (z.B. über Metriken wie disparate Auswirkung $DI = \frac{P(\text{Hochrisiko-Vorhersage} | \text{Gruppe A})}{P(\text{Hochrisiko-Vorhersage} | \text{Gruppe B})}$) und Zielkonflikte (z.B. öffentliche Sicherheit vs. Überwachung).
  3. Deliberation: Der Rat debattiert spezifische Verfassungsklauseln. Zum Beispiel:
    • „Der Algorithmus muss monatlich auf rassistische Verzerrung überprüft werden, wobei das Verhältnis der disparaten Auswirkung 1,2 nicht überschreiten darf.“
    • „Vorhersagen, die zu verstärkten Streifen in einem Stadtviertel führen, müssen von einem Gemeindebeirat aus diesem Viertel überprüfbar sein.“
    • „Das primäre Ziel ist die Minimierung schwerer Gewaltverbrechen, nicht geringfügiger Verstöße.“
  4. Ratifizierung: Der erarbeitete Verfassungsentwurf wird einem stadtweiten beratenden Referendum unterzogen.
  5. Umsetzung: Die Stadt schreibt vor, dass das KI-System jedes Anbieters anhand dieser öffentlichen Verfassung trainiert und evaluiert werden muss.

Dieser Fall verdeutlicht das Potenzial für kontextbewusstere, vertrauenswürdigere Regeln, aber auch die immensen Kosten, die Zeit und die Komplexität des Prozesses.

9. Zukünftige Anwendungen & Entwicklung

Das Public Constitutional AI-Rahmenwerk hat breite Implikationen über Frontier-LLMs hinaus:

  • Domänenspezifische Verfassungen: Öffentliche Erarbeitung für KI im Gesundheitswesen (Triage, Diagnoseunterstützung), Bildung (personalisiertes Lernen, Benotung) und Sozialhilfe (Leistungszuweisung).
  • Dynamische Verfassungen: Entwicklung von Mechanismen, damit Verfassungen sich im Laufe der Zeit durch periodische öffentliche Überprüfung weiterentwickeln können, ähnlich Verfassungsänderungen, was KI-Modelle erfordert, die unter sich ändernden Regelsätzen kontinuierlich lernen können.
  • Überjurisdiktionelle Schlichtung: Technische Forschung zu KI-Systemen, die Konflikte zwischen verschiedenen öffentlichen Verfassungen bewältigen können, wenn sie in globalen oder föderierten Kontexten operieren, unter Bezugnahme auf Arbeiten zu Multi-Objective-Optimierung und normativem Schließen.
  • Tool-Entwicklung: Schaffung von Softwareplattformen zur Erleichterung groß angelegter, informierter öffentlicher Deliberation über KI-Prinzipien, möglicherweise unter Nutzung von KI selbst, um Debatten zusammenzufassen, Zielkonflikte zu klären und öffentliche Stimmungen in Entwurfsklauseln zu übersetzen.
  • Integration mit technischer Sicherheit: Zusammenführung des öffentlichen Wertsetzungsprozesses mit technischer KI-Sicherheitsforschung zu Robustheit, Interpretierbarkeit und Überwachung. Die öffentliche Verfassung würde das „Was“ und „Warum“ definieren, während Ingenieure das „Wie“ lösen.

Die ultimative Richtung geht hin zu Partizipativen KI-Governance-Ökosystemen, in denen der Lebenszyklus eines KI-Systems – von seinen grundlegenden Werten bis zu seinen Einsatzüberprüfungen – strukturierter, inklusiver öffentlicher Beteiligung und Kontrolle unterliegt.

10. Referenzen

  1. Abiri, G. (2025). Public Constitutional AI. Georgia Law Review, 59(3), 601-648.
  2. Anthropic. (2023). Constitutional AI: Harmlessness from AI Feedback. arXiv preprint arXiv:2212.08073.
  3. Binns, R. (2018). Fairness in Machine Learning: Lessons from Political Philosophy. Proceedings of the 1st Conference on Fairness, Accountability and Transparency (FAT*), 149-159.
  4. AI Now Institute. (2023). Algorithmic Accountability: A Primer. Abgerufen von https://ainowinstitute.org/publication/algorithmic-accountability-primer
  5. Hadfield, G. K., & Clark, R. M. (2023). The Problem of AI Governance. Daedalus, 152(1), 242-256.
  6. Goodman, B., & Flaxman, S. (2017). European Union Regulations on Algorithmic Decision-Making and a "Right to Explanation." AI Magazine, 38(3), 50-57.
  7. Zhu, J. Y., Park, T., Isola, P., & Efros, A. A. (2017). Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks. Proceedings of the IEEE International Conference on Computer Vision (ICCV), 2223-2232. (Zitiert als Beispiel für ein technisches Rahmenwerk – CycleGAN – das ein komplexes Abbildungsproblem löst, analog zur Notwendigkeit, öffentliche Deliberation auf KI-Trainingssignale abzubilden).
  8. Dryzek, J. S., & Niemeyer, S. (2019). Deliberative Democracy and Climate Governance. Nature Human Behaviour, 3(5), 411-413. (Zur Wirksamkeit von Bürgerräten).