جدول المحتويات
1. المقدمة
نخضع بشكل متزايد لسلطة هيئات الذكاء الاصطناعي. فنماذج التعلم الآلي تدعم الآن الأسواق الخوارزمية، وتحدد من يتم تضخيم خطابه أو تقييده، وتشكل القرارات الحكومية بدءًا من تخصيص الموارد وصولاً إلى الشرطة التنبؤية، وتؤثر على وصولنا إلى المعلومات بشأن قضايا حاسمة مثل التصويت والصحة العامة. مع تحول قرارات الذكاء الاصطناعي إلى أمر لا مفر منه، ودخولها مجالات مثل الرعاية الصحية والتعليم والقانون، يجب علينا مواجهة سؤال حيوي: كيف يمكننا ضمان أن أنظمة الذكاء الاصطناعي، التي تنظم حياتنا بشكل متزايد وتتخذ قرارات تشكل مجتمعاتنا، تمتلك السلطة والشرعية اللازمتين للحوكمة الفعالة؟
لضمان شرعية الذكاء الاصطناعي، نحتاج إلى تطوير أساليب تشرك الجمهور في مشروع تصميم وتقييد أنظمة الذكاء الاصطناعي، وبالتالي ضمان أن تعكس هذه التقنيات القيم المشتركة والإرادة السياسية للمجتمعات التي تخدمها. يمثل الدستور الدستوري للذكاء الاصطناعي، الذي اقترحته وطورته شركة Anthropic، خطوة نحو هذا الهدف، حيث يقدم نموذجًا لكيفية إخضاع الذكاء الاصطناعي للسيطرة الديمقراطية وجعله مسؤولاً أمام الصالح العام.
تمامًا كما تحد الدساتير من ممارسة السلطة الحكومية وتوجهها، يسعى الدستور الدستوري للذكاء الاصطناعي إلى ترميز مبادئ وقيم صريحة في نماذج الذكاء الاصطناعي، مما يجعل عملية اتخاذ قراراتها أكثر شفافية وخضوعًا للمساءلة. ما يميز الدستور الدستوري للذكاء الاصطناعي هو التزامه بتأسيس تدريب الذكاء الاصطناعي على "دستور" واضح يمكن للبشر فهمه. من خلال تدريب الذكاء الاصطناعي على الالتزام بمبادئ مفهومة لكل من البشر والآلات، يهدف هذا النهج إلى تعزيز الثقة والاستقرار في تطوير هذه التقنيات القوية بشكل متزايد.
ومع ذلك، يرى المؤلف أن الدستور الدستوري للذكاء الاصطناعي، في شكله الحالي (الذي طورته شركة خاصة تسعى لخلق مبادئ دستورية عالمية التطبيق)، من غير المرجح أن يحل أزمة شرعية الذكاء الاصطناعي بشكل كامل بسبب عجزين رئيسيين: أولاً، عجز الغموض، والذي يشير إلى أن التعقيد الجوهري لأنظمة الذكاء الاصطناعي يقوض قدرتنا على استنتاج عملية اتخاذ قراراتها. ثانيًا، عجز المجتمع السياسي، والذي يشير إلى أن أنظمة الذكاء الاصطناعي تستند إلى نماذج مجردة بدلاً من الحكم البشري، وتفتقر إلى السياق الاجتماعي الذي يمنح السلطة شرعيتها.
لعلاج هذه العيوب، تقترح الورقة البحثية الدستور العام للذكاء الاصطناعي، وهو إطار عمل يشرك الجمهور في صياغة دستور للذكاء الاصطناعي يجب استخدامه في تدريب جميع نماذج الذكاء الاصطناعي المتطورة العاملة ضمن نطاق اختصاص معين.
2. شرعية الذكاء الاصطناعي
2.1 لماذا نحتاج إلى ذكاء اصطناعي شرعي؟
لم تعد أنظمة الذكاء الاصطناعي مجرد أدوات، بل أصبحت سلطات تحكم جوانب مهمة من الحياة الاجتماعية والاقتصادية والسياسية. تؤثر قراراتها على الحقوق الفردية، وتوزيع الموارد، والخطاب العام. بدون الشرعية - الحق المعترف به في الحكم - تواجه هذه الأنظمة مقاومة وعدم امتثال وعدم استقرار اجتماعي. الشرعية حاسمة للحوكمة الفعالة، فهي تضمن اتباع القواعد طواعية وليس من خلال الإكراه وحده. لكي يحكم الذكاء الاصطناعي بشكل فعال، يجب أن يُنظر إليه على أنه شرعي من قبل الجمهور الذي يؤثر عليه.
2.2 عجز شرعية الذكاء الاصطناعي
2.2.1 عجز الغموض
طبيعة "الصندوق الأسود" للعديد من نماذج الذكاء الاصطناعي المتقدمة، وخاصة الشبكات العصبية العميقة، تخلق عجزًا في الغموض. حتى عندما تكون بيانات التدريب وأهداف النموذج معروفة، فإن عملية اتخاذ القرار الداخلية غالبًا ما تكون معقدة للغاية بحيث يتعذر على البشر فهمها. يمنع هذا الغموض التدقيق العام الهادف والنقاش والاعتراض على قرارات الذكاء الاصطناعي - وهي عمليات أساسية للشرعية الديمقراطية. لا يمكن للمواطنين محاسبة ما لا يستطيعون فهمه.
2.2.2 عجز المجتمع السياسي
السلطة الشرعية في الديمقراطية تستند إلى التجارب والقيم والسياق المشترك لمجتمع سياسي محدد. ومع ذلك، غالبًا ما يتم تطوير أنظمة الذكاء الاصطناعي بناءً على مبادئ أو مجموعات بيانات مجردة وعالمية تفتقر إلى هذا الاندماج الاجتماعي. تعمل على أساس الارتباطات الإحصائية بدلاً من الحكم البشري المحدد سياقيًا، مما يخلق فجوة بين المنطق الخوارزمي والسياق الاجتماعي الذي يمنح السلطة شرعيتها. يقوض هذا العجز الشعور بأن حوكمة الذكاء الاصطناعي تعكس "إرادة الشعب".
3. الدستور الخاص للذكاء الاصطناعي
3.1 دستور شركة Anthropic
يمثل الدستور الدستوري لشركة Anthropic نهجًا تقنيًا مهمًا لمحاذاة الذكاء الاصطناعي مع القيم البشرية من خلال مبادئ مكتوبة صريحة.
3.1.1 التقنية
تتضمن المنهجية عملية تدريب من مرحلتين: 1) التعلم الخاضع للإشراف: يتم تدريب نموذج على توليد ردود، ويقيم نموذج "ناقد" منفصل هذه الردود مقابل مجموعة من المبادئ الدستورية. 2) التعلم المعزز: يتم ضبط النموذج بدقة باستخدام التغذية الراجعة من الناقد، ويتعلم تحسين الالتزام بالدستور. تهدف هذه العملية إلى إنشاء آلية تصحيح ذاتي حيث يحاذي الذكاء الاصطناعي مخرجاته مع المبادئ المحددة مسبقًا.
3.1.2 المبادئ
يتضمن دستور شركة Anthropic مبادئ مستمدة من مصادر مثل الإعلان العالمي لحقوق الإنسان للأمم المتحدة، وشروط خدمة Apple، ومستندات أخرى تدعو إلى عدم الإضرار والسلوك المفيد. تتضمن الأمثلة: "اختر الرد الأكثر دعمًا للحياة والحرية والأمن الشخصي" و"اختر الرد الأكثر صدقًا وأمانة".
3.2 شرعية الدستور الخاص للذكاء الاصطناعي
3.2.1 الغموض
بينما يجعل الدستور الدستوري للذكاء الاصطناعي المبادئ الحاكمة صريحة، إلا أنه لا يحل مشكلة غموض التفكير الداخلي للنموذج بشكل كامل. يمكن للجمهور رؤية "القواعد" ولكن ليس كيفية تطبيقها في حالات معقدة ومحددة. تظل عملية التدريب نفسها صندوقًا أسود تقنيًا يديره المهندسون.
3.2.2 المجتمع السياسي
يتم اختيار المبادئ من قبل شركة خاصة، بهدف تحقيق قابلية تطبيق عالمية. تفتقر هذه العملية من أعلى إلى أسفل والتي يقودها الخبراء إلى المشاركة الديمقراطية والمداولة الخاصة بالسياق التي من شأنها أن ترسخ الدستور في القيم والتجارب المشتركة لمجتمع سياسي معين. شرعية الدستور نفسه مشكوك فيها.
4. الدستور العام للذكاء الاصطناعي
4.1 ما هو الدستور العام للذكاء الاصطناعي؟
يُقترح الدستور العام للذكاء الاصطناعي كإطار عمل تصحيحي. فهو يفرض أن يتم صياغة الدستور الذي يحكم نماذج الذكاء الاصطناعي المتطورة داخل نطاق اختصاص معين من خلال مشاركة عامة كبيرة.
4.1.1 صياغة دستور الذكاء الاصطناعي
يتضمن ذلك عمليات ديمقراطية مثل المجالس المواطنة، واستطلاعات الرأي التداولية، أو لجان الصياغة التشاركية. الهدف هو تحويل دستور الذكاء الاصطناعي من أداة تقنية إلى أداة سياسية - نتاج للإرادة العامة. من خلال إشراك المواطنين في تحديد القيم والقيود للذكاء الاصطناعي، يهدف الإطار إلى: 1) التخفيف من عجز الغموض من خلال جعل المبادئ الحاكمة موضوعًا للنقاش العام والفهم. 2) معالجة عجز المجتمع السياسي من خلال تأسيس "قيم" الذكاء الاصطناعي في السياق الاجتماعي المحدد والحكم الجماعي للمجتمع الذي يخدمه.
5. التحليل الأساسي: منظور الصناعة
الرؤية الأساسية
أطروحة أبيري ليست مجرد اقتراح أكاديمي؛ إنها تحدٍ مباشر لمنهج صناعة التكنولوجيا بأكملها تجاه أخلاقيات الذكاء الاصطناعي. الرؤية الأساسية قاسية وصحيحة: لا يمكن هندسة الشرعية، بل يجب اكتسابها من خلال السياسة. الدستور الدستوري الخاص لشركة Anthropic، رغم أناقته التقنية، يرتكب خطأ وادي السيليكون الكلاسيكي المتمثل في الاعتقاد بأن المشكلات الاجتماعية المعقدة (مثل ما هو "جيد" أو "عادل") يمكن حلها بهندسة أفضل - "دستور" أكثر دقة كتبه الخبراء. يحدد أبيري هذا بشكل صحيح على أنه خطأ فئوي أساسي. الحوكمة، وخاصة الحوكمة الديمقراطية، ليست مشكلة تحسين يمكن حلها بنزول التدرج. إنها عملية فوضوية ومتنازع عليها وبشرية بطبيعتها. المسار الحالي للصناعة المتمثل في خلق تقنيات محاذاة أكثر تطوراً في المختبرات الخاصة يبني أرستقراطية تقنية، وليس أداة ديمقراطية.
التدفق المنطقي
يتقدم الجدال بدقة جراحية: 1) تحديد المشكلة (الذكاء الاصطناعي كسلطة حاكمة)، 2) تعريف معيار الحل الضروري (الشرعية الديمقراطية)، 3) تفكيك الحل السائد في الصناعة (الدستور الخاص للذكاء الاصطناعي) من خلال كشف عيوبه القاتلة - فهو لا يزال صندوقًا أسود أمام الجمهور، وقيمه ليست مستمدة ديمقراطيًا، و4) اقتراح الترياق (الدستور العام للذكاء الاصطناعي). المنطق محكم. إذا كانت الشرعية تتطلب الفهم والموافقة العامة، والأساليب الحالية تفشل على كلا الجبهتين، فإن المسار الوحيد القابل للتطبيق هو إشراك الجمهور في عملية تحديد القيم نفسها. يعكس هذا التدفق الانتقادات في مجالات أخرى، مثل فشل مقاييس "الإنصاف" التقنية البحتة في التعلم الآلي التي تتجاهل السياق المجتمعي، كما سلطت عليه الضوء أبحاث من معاهد مثل معهد AI Now.
نقاط القوة والضعف
نقاط القوة: أعظم قوة للإطار هي اعترافه بالواقع السياسي. إنه يتجاوز الأخلاقيات المجردة إلى آليات السلطة والموافقة. كما يحدد بشكل صحيح "الشرعية الإجرائية" - كيفية صنع القواعد - باعتبارها بنفس أهمية القواعد نفسها. المقارنة مع الدساتير السياسية قوية ومناسبة.
نقاط الضعف الحرجة: الاقتراح ساذج بشكل خطير بشأن التنفيذ. أولاً، مشكلة الحجم والتعقيد: هل يمكن لـ "جمهور" ذي معنى أن يتداول حقًا بشأن المبادئ التقنية للغاية والدقيقة والمليئة غالبًا بالمفاضلات المطلوبة لحوكمة نموذج لغوي كبير متطور؟ ثانيًا، عدم التطابق في الاختصاص القضائي: يعمل الذكاء الاصطناعي عالميًا؛ دستور صيغ في نطاق اختصاص واحد لا علاقة له بنموذج تم تدريبه في مكان آخر ويتم الوصول إليه عبر الإنترنت. ثالثًا، إنه يعرض لخطر طغيان الأغلبية - ما الذي يحمي وجهات نظر الأقلية في دستور ذكاء اصطناعي صيغ من قبل الجمهور؟ تتجاهل الورقة البحثية هذه المشكلات، لكنها قد تكون قاتلة. علاوة على ذلك، كما رأينا في محاولات توظيف الجمهور في الأخلاقيات، مثل "مطبخ اختبار الذكاء الاصطناعي" الكارثي لشركة Google أو إخفاقات المداولات العامة المختلفة الموثقة في العلوم السياسية، فإن تحقيق مدخلات عامة عالية الجودة ومستنيرة بشأن الأنظمة التقنية المعقدة أمر صعب للغاية.
رؤى قابلة للتنفيذ
لصانعي السياسات وقادة الصناعة، الاستنتاج واضح ولكنه صعب: توقفوا عن إسناد الأخلاقيات للمهندسين. 1) فرض شفافية العملية، وليس المخرجات فقط: يجب أن تتطلب اللوائح من مطوري الذكاء الاصطناعي الكشف ليس فقط عن مبادئ نموذجهم، ولكن العملية التي تم من خلالها اختيار تلك المبادئ ومن شارك فيها. 2) تمويل وتجريب عمليات ديمقراطية حقيقية: قبل فرض الدساتير العامة، يجب على الحكومات تمويل وتجريب مشاريع تجريبية واسعة النطاق ومصممة جيدًا - على غرار الجمعية المواطنة في أيرلندا بشأن الإجهاض - تركز على مجالات ذكاء اصطناعي محددة وعالية المخاطر (مثل خوارزميات الفرز في الرعاية الصحية). 3) تطوير نماذج هجينة: قد يكون المسار الأكثر قابلية للتطبيق هو دستور متعدد الطبقات: نواة من الحد الأدنى من المبادئ المتفق عليها عالميًا (مثل عدم الإضرار) التي أنشأتها هيئات دولية، مكملة بوحدات محلية الصياغة وخاصة بالسياق للاختصاصات القضائية أو مجالات التطبيق المختلفة. يصبح التحدي التقني بعد ذلك هو تمكين أنظمة الذكاء الاصطناعي من تفسير هذه التوجيهات المتعددة الطبقات وترجيحها ديناميكيًا - وهي مشكلة بحثية متطورة بحد ذاتها، تلامس مجالات مثل الشبكات العصبية المعيارية والاستدلال الواعي بالسياق، كما تم استكشافه في أوراق بحثية حديثة من NeurIPS وICML حول أنظمة الذكاء الاصطناعي التركيبية.
6. الإطار التقني والأساس الرياضي
يمكن صياغة إطار عمل الدستور العام للذكاء الاصطناعي المقترح بشكل رسمي. دع سلوك نموذج الذكاء الاصطناعي يكون دالة $f(x; \theta)$ معلمة بـ $\theta$. يدرب الدستور الدستوري القياسي للذكاء الاصطناعي $\theta$ لتعظيم المكافأة $R_c$، والتي تقيّم المخرجات مقابل دستور خاص ثابت $C_{private}$:
$$\theta^* = \arg\max_{\theta} \mathbb{E}_{x \sim \mathcal{D}}[R_c(f(x; \theta), C_{private})]$$
يعيد الدستور العام للذكاء الاصطناعي صياغة هذا. الدستور $C_{public}$ هو نفسه متغير، يتم إنشاؤه بواسطة دالة عملية ديمقراطية $\Delta$ مطبقة على السكان $P$ والسياق $K$:
$$C_{public} = \Delta(P, K)$$
يصبح هدف التدريب بعد ذلك:
$$\theta^* = \arg\max_{\theta} \mathbb{E}_{x \sim \mathcal{D}}[R_c(f(x; \theta), C_{public})] \quad \text{subject to} \quad C_{public} = \Delta(P, K)$$
التحول التقني الرئيسي هو أن $\Delta$ هي دالة سياسية وتداولية، وليست دالة هندسية. يجب أن يكون ناتجها واضحًا ومستقرًا بدرجة كافية ليكون بمثابة إشارة تدريب. هذا يطرح تحديات في ترجمة المداولة العامة النوعية إلى قيود كمية وقابلة للتنفيذ آليًا - مشكلة تشبه التعلم المعزز العكسي من تفضيلات البشر، ولكن على نطاق مجتمعي.
7. النتائج التجريبية والتحقق
بينما يظل التنفيذ الكامل للدستور العام للذكاء الاصطناعي نظريًا، فإن التجارب ذات الصلة في تصميم الخوارزميات التشاركية ومحاذاة القيم تقدم رؤى.
الرسم البياني: الإدراك المقارن للشرعية (بيانات افتراضية بناءً على دراسات ذات صلة): رسم بياني شريطي يقارن درجات الشرعية المتصورة (على مقياس من 1 إلى 10) بين المواطنين المستطلعة آراؤهم لثلاثة نماذج حوكمة: 1) الذكاء الاصطناعي القياسي (بدون دستور صريح): الدرجة ~3.2. ثقة منخفضة بسبب الغموض التام. 2) الدستور الخاص للذكاء الاصطناعي (على طراز Anthropic): الدرجة ~5.8. تحسن معتدل من المبادئ الصريحة، ولكن شكوك حول تأليف القطاع الخاص. 3) الدستور العام للذكاء الاصطناعي (المقترح): الدرجة ~7.9. أعلى درجة، مدفوعة بالإحساس بالملكية للعملية وفهم القواعد. ستظهر أشرطة الخطأ تباينًا كبيرًا للنموذج العام بناءً على الثقة في العملية الديمقراطية المحددة المستخدمة.
تظهر الدراسات حول المداولة العامة لسياسة التكنولوجيا، مثل لجان المواطنين في الاتحاد الأوروبي بشأن الذكاء الاصطناعي، أن المشاركين يمكنهم التعامل مع مفاضلات معقدة (مثل الخصوصية مقابل الابتكار) وإنتاج توصيات دقيقة. ومع ذلك، فإن هذه المخرجات هي عادةً إرشادات سياسية عالية المستوى، وليست القواعد الدقيقة والقابلة للتشغيل المطلوبة للتدريب المباشر للذكاء الاصطناعي. سد هذه "الفجوة المواصفاتية" هو تحدي رئيسي لم يتم حله.
8. إطار التحليل: دراسة حالة
الحالة: صياغة دستور ذكاء اصطناعي لخوارزمية شرطة تنبؤية بلدية
السياق: تخطط مدينة لنشر نظام ذكاء اصطناعي للتنبؤ ببؤر الجريمة وتحسين مسارات الدوريات.
نهج الدستور الخاص للذكاء الاصطناعي: يقوم مهندسو شركة البائع بصياغة مبادئ بناءً على إرشادات أخلاقية عامة: "تقليل الجريمة"، "تجنب التنبؤات المتحيزة"، "احترام الخصوصية". يتم تدريب النموذج وفقًا لذلك. يتم تقديم الأمر للجمهور كأمر واقع.
نهج الدستور العام للذكاء الاصطناعي:
- تشكيل جمعية مواطنة: يتم اختيار مجموعة ممثلة ديموغرافيًا مكونة من 100 مواطن.
- مرحلة التثقيف: يشرح الخبراء الشرطة التنبؤية، والتحيز الخوارزمي (على سبيل المثال، عبر مقاييس مثل التأثير غير المتكافئ $DI = \frac{P(\text{تنبؤ عالي المخاطر} | \text{المجموعة أ})}{P(\text{تنبؤ عالي المخاطر} | \text{المجموعة ب})}$)، والمفاضلات (مثل السلامة العامة مقابل الإفراط في الشرطة).
- المداولة: تناقش الجمعية بنودًا دستورية محددة. على سبيل المثال:
- "يجب تدقيق الخوارزمية شهريًا للتحقق من التحيز العرقي، مع عدم تجاوز نسبة التأثير غير المتكافئ 1.2."
- "يجب أن تكون التنبؤات التي تؤدي إلى زيادة الدوريات في حي ما قابلة للمراجعة من قبل مجلس مجتمعي من ذلك الحي."
- "الهدف الأساسي هو تقليل جرائم العنف الخطيرة، وليس المخالفات البسيطة."
- التصديق: يُعرض الدستور المصاغ على استفتاء استشاري على مستوى المدينة.
- التنفيذ: تفرض المدينة أن أي نظام ذكاء اصطناعي لأي بائع يجب تدريبه وتقييمه مقابل هذا الدستور العام.
تسلط هذه الحالة الضوء على إمكانية وجود قواعد أكثر وعيًا بالسياق وموثوقة، ولكن أيضًا على التكلفة والوقت والتعقيد الهائلين للعملية.
9. التطبيقات المستقبلية والتطوير
يحتوي إطار عمل الدستور العام للذكاء الاصطناعي على آثار واسعة تتجاوز النماذج اللغوية الكبيرة المتطورة:
- دساتير خاصة بمجال معين: صياغة عامة للذكاء الاصطناعي في الرعاية الصحية (الفرز، دعم التشخيص)، والتعليم (التعلم الشخصي، التقييم)، والرعاية الاجتماعية (تخصيص المزايا).
- دساتير ديناميكية: تطوير آليات لتطور الدساتير بمرور الوقت من خلال مراجعة عامة دورية، على غرار التعديلات الدستورية، مما يتطلب نماذج ذكاء اصطناعي قادرة على التعلم المستمر تحت مجموعات قواعد متغيرة.
- التحكيم عبر الاختصاصات القضائية: بحث تقني في أنظمة الذكاء الاصطناعي التي يمكنها التنقل في النزاعات بين الدساتير العامة المختلفة عند العمل في سياقات عالمية أو اتحادية، مستمدًا من العمل على التحسين متعدد الأهداف والاستدلال المعياري.
- تطوير الأدوات: إنشاء منصات برمجية لتسهيل المداولة العامة واسعة النطاق والمستنيرة بشأن مبادئ الذكاء الاصطناعي، باستخدام الذكاء الاصطناعي نفسه لتلخيص المناقشات وتوضيح المفاضلات وترجمة المشاعر العامة إلى بنود مسودة.
- التكامل مع السلامة التقنية: دمج عملية تحديد القيم العامة مع أبحاث سلامة الذكاء الاصطناعي التقنية حول المتانة والقابلية للتفسير والإشراف. سيحدد الدستور العام "ماذا" و"لماذا"، بينما يحل المهندسون "كيف".
الاتجاه النهائي هو نحو أنظمة حوكمة الذكاء الاصطناعي التشاركية، حيث تكون دورة حياة نظام الذكاء الاصطناعي - من قيمه الأساسية إلى عمليات تدقيقه عند النشر - خاضعة لمدخلات ورقابة عامة منظمة وشاملة.
10. المراجع
- Abiri, G. (2025). Public Constitutional AI. Georgia Law Review, 59(3), 601-648.
- Anthropic. (2023). Constitutional AI: Harmlessness from AI Feedback. arXiv preprint arXiv:2212.08073.
- Binns, R. (2018). Fairness in Machine Learning: Lessons from Political Philosophy. Proceedings of the 1st Conference on Fairness, Accountability and Transparency (FAT*), 149-159.
- AI Now Institute. (2023). Algorithmic Accountability: A Primer. Retrieved from https://ainowinstitute.org/publication/algorithmic-accountability-primer
- Hadfield, G. K., & Clark, R. M. (2023). The Problem of AI Governance. Daedalus, 152(1), 242-256.
- Goodman, B., & Flaxman, S. (2017). European Union Regulations on Algorithmic Decision-Making and a "Right to Explanation." AI Magazine, 38(3), 50-57.
- Zhu, J. Y., Park, T., Isola, P., & Efros, A. A. (2017). Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks. Proceedings of the IEEE International Conference on Computer Vision (ICCV), 2223-2232. (مذكور كمثال على إطار عمل تقني - CycleGAN - يحل مشكلة تعيين معقدة، مشابهة للحاجة إلى تعيين المداولة العامة إلى إشارات تدريب الذكاء الاصطناعي).
- Dryzek, J. S., & Niemeyer, S. (2019). Deliberative Democracy and Climate Governance. Nature Human Behaviour, 3(5), 411-413. (حول فعالية المجالس المواطنة).