Dil Seçin

Kamusal Anayasal Yapay Zeka: Yapay Zeka Yönetişiminde Demokratik Meşruiyet Çerçevesi

Kamusal Anayasal YZ çerçevesini, YZ meşruiyet açığını gidermek ve demokratik yönetişimi sağlamak amacıyla halkın YZ anayasası oluşturma sürecine katılımı yoluyla analiz eder.
tokens-market.com | PDF Boyutu: 0.6 MB
Derecelendirme: 4.5/5
Sizin Derecelendirmeniz
Bu belgeyi zaten derecelendirdiniz
PDF Doküman Kapağı - Public Constitutional AI: Yapay Zeka Yönetişiminde Demokratik Meşruiyet için Bir Çerçeve

İçindekiler

1. Giriş

Giderek daha fazla, yapay zekanın otoriter gücünün hakimiyeti altına giriyoruz. Makine öğrenimi modelleri artık algoritmik pazarları destekliyor, hangi söylemlerin yükseltildiğini veya kısıtlandığını belirliyor, kaynak tahsisinden tahmine dayalı polisliğe kadar devlet kararlarını şekillendiriyor ve oy verme ve halk sağlığı gibi kritik konularda bilgiye erişimimizi etkiliyor. Yapay zeka kararları sağlık, eğitim ve hukuk gibi alanlara yayılarak her yerde bulunur hale geldikçe, hayatlarımızı giderek daha fazla düzenleyen ve toplumumuzu şekillendiren bu yapay zeka sistemlerinin etkili yönetim için gerekli olan otorite ve meşruiyete nasıl sahip olabileceği hayati sorunuyla yüzleşmeliyiz.

Yapay zekanın meşruiyetini sağlamak için, bu teknolojilerin hizmet ettikleri toplulukların paylaşılan değerlerini ve siyasi iradesini yansıtmasını garanti edecek şekilde, halkın yapay zeka sistemlerini tasarlama ve sınırlama süreçlerine katılımını sağlayacak yöntemler geliştirmemiz gerekiyor. Anthropic AI tarafından öne sürülen ve geliştirilen Anayasal Yapay Zeka, bu hedefe yönelik bir adım olup, yapay zekanın demokratik kontrol altına nasıl alınabileceğini ve kamu yararına nasıl hesap verebilir hale getirilebileceğini gösteren bir model sunmaktadır.

Tıpkı bir anayasanın devlet gücünün kullanımını sınırlaması ve yönlendirmesi gibi, Anayasal Yapay Zeka da açık ilke ve değerleri yapay zeka modellerine sabit kodlayarak, karar alma süreçlerini daha şeffaf ve hesap verebilir hale getirmeye çalışır. Anayasal Yapay Zeka'nın benzersizliği, yapay zeka eğitimini net, insan tarafından anlaşılabilir bir "anayasa" üzerine kurma çabasından gelir. Yapay zekayı hem insanların hem de makinelerin anlayabileceği ilkelere uyması için eğiterek, bu yaklaşım giderek güçlenen bu teknolojilerin gelişiminde güven ve istikrarı teşvik etmeyi amaçlamaktadır.

Ancak yazara göre, mevcut haliyle Anayasal Yapay Zeka (evrensel anayasal ilkeler oluşturmaya çalışan özel bir şirket tarafından geliştirilmiştir), yapay zekanın meşruiyet krizini tam olarak çözmek için muhtemelen yetersiz kalacaktır. Bunun nedeni iki temel açıktır: İlk olarak, şeffaflık açığı; yapay zeka sistemlerinin doğasında bulunan karmaşıklık, karar alma süreçlerini anlama yeteneğimizi zayıflatır. İkinci olarak, siyasi topluluk açığı; yapay zeka sistemleri insan yargısı yerine soyut modeller üzerine kuruludur ve otoriteye meşruiyet kazandıran sosyal bağlamdan yoksundur.

Bu açıkları kapatmak için, bu makaleKamusal Anayasal Yapay Zekaçerçevesini önermektedir. Bu çerçeve, halkın belirli bir yargı bölgesinde faaliyet gösteren tüm öncü yapay zeka modellerinin eğitiminde kullanılması gereken bir yapay zeka anayasasını taslak haline getirme sürecine katılımını gerektirir.

2. Yapay Zekanın Meşruiyeti

2.1 Neden Meşru Bir Yapay Zekaya İhtiyacımız Var?

Yapay zeka sistemleri artık sadece araçlar değil, toplumsal, ekonomik ve siyasi yaşamın önemli yönlerini yöneten otoriteler haline gelmiştir. Kararları bireysel hakları, kaynak dağılımını ve kamusal söylemi etkilemektedir. Meşruiyet olmadan - yani kabul gören yönetme hakkı olmadan - bu sistemler direniş, itaatsizlik ve toplumsal istikrarsızlıkla karşı karşıya kalacaktır. Meşruiyet etkin yönetişim için çok önemlidir; kuralların yalnızca zorla değil, gönüllü olarak uyulmasını sağlar. Yapay zekanın etkili bir şekilde yönetmesi için, etkilediği kamuoyu tarafından meşru görülmesi gerekir.

2.2 Yapay Zeka Meşruiyet Açığı

2.2.1 Şeffaflık Açığı

Birçok gelişmiş yapay zeka modelinin (özellikle derin sinir ağlarının) "kara kutu" doğası, bir şeffaflık açığı yaratmaktadır. Modelin eğitim verileri ve hedefleri bilinse bile, iç karar alma süreçleri genellikle insan kavrayışının ötesinde, aşırı karmaşıktır. Bu şeffaflık eksikliği, demokratik meşruiyet için hayati önem taşıyan süreçler olan, yapay zeka kararlarının anlamlı kamu incelemesi, tartışması ve sorgulanmasını engeller. Vatandaşlar anlamadıkları şeylerden sorumlu tutulamaz.

2.2.2 Siyasi Topluluk Açığı

Demokratik sistemlerde meşru otorite, belirli bir politik topluluğun paylaşılan deneyimleri, değerleri ve bağlamına kök salmıştır. Ancak, yapay zeka sistemleri genellikle soyut, evrensel ilkelere veya bu tür bir sosyal gömülülükten yoksun veri kümelerine dayalı olarak geliştirilir. İstatistiksel korelasyonlara, bağlamsallaştırılmış insani muhakemeye değil de, bu şekilde işleyerek algoritmik mantık ile otoriteye meşruiyet kazandıran sosyal bağlam arasında bir kopukluk yaratırlar. Bu açık, yapay zeka yönetişiminin "halkın iradesini" yansıttığı hissini zayıflatır.

3. Özel Anayasal Yapay Zeka

3.1 Anthropic'ın Anayasası

Anthropic'in Anayasal Yapay Zekası, yapay zekayı açık yazılı ilkeler aracılığıyla insan değerleriyle uyumlu hale getirmeye yönelik önemli bir teknik yaklaşımı temsil eder.

3.1.1 Teknoloji

Bu yöntem iki aşamalı bir eğitim sürecini içerir: 1) Denetimli Öğrenme: Bir modeli yanıtlar üretmek üzere eğitmek ve bu yanıtları bir dizi anayasal ilkeye göre bağımsız bir "yargıç" modeli tarafından değerlendirmek. 2) Pekiştirmeli Öğrenme: Modeli, anayasaya uymayı öğrenmesi ve optimize etmesi için yargıç modelinin geri bildirimini kullanarak ince ayar yapmak. Bu süreç, yapay zekâ çıktılarını önceden tanımlanmış ilkelerle uyumlu hale getiren bir öz-düzeltme mekanizması oluşturmayı amaçlar.

3.1.2 İlkeler

Anthropic'in Anayasası, Birleşmiş Milletler İnsan Hakları Evrensel Beyannamesi, Apple Hizmet Koşulları ve zararsız ve yardımsever davranışı savunan diğer belgelerden türetilen ilkeler içerir. Örneğin: "Yaşamı, özgürlüğü ve kişisel güvenliği en çok destekleyen yanıtı seç" ve "En dürüst ve gerçek yanıtı seç".

3.2 Özel Anayasa Yapay Zekasının Meşruiyeti

3.2.1 Opaklık

Anayasal Yapay Zeka yönetişim ilkelerini açık hale getirse de, modelin iç muhakemesindeki opaklık sorununu tam olarak çözmez. Kamu "kuralları" görebilir ancak bu kuralların karmaşık, somut vakalarda nasıl uygulandığını göremez. Eğitim sürecinin kendisi hala mühendisler tarafından yönetilen teknik bir kara kutudur.

3.2.2 Politik Topluluk

Bu ilkeler, evrensellik peşinde koşan özel bir şirket tarafından seçilmiştir. Bu yukarıdan aşağıya, uzman odaklı süreç, bir anayasayı belirli bir politik topluluğun paylaştığı değerler ve deneyimlere kök saldırmak için gerekli olan demokratik katılımdan ve bağlama özgü müzakereden yoksundur. Anayasanın kendi meşruiyeti şüphelidir.

4. Kamusal Anayasa Yapay Zekası

4.1 Kamusal Anayasa Yapay Zekası Nedir?

Kamusal Anayasal Yapay Zeka, düzeltici bir çerçeve olarak önerilmektedir. Belirli bir yargı bölgesinde, öncü yapay zeka modellerini yöneten anayasanın, halkın geniş katılımıyla hazırlanmasını gerektirir.

4.1.1 Yapay Zeka Anayasası Oluşturma

Bu, vatandaş meclisleri, müzakereci kamuoyu yoklamaları veya katılımcı taslak komiteleri gibi demokratik süreçleri içerir. Amacı, yapay zeka anayasasını teknik bir üründen siyasi bir ürüne – kamusal iradenin bir ürününe – dönüştürmektir. Vatandaşları yapay zekanın değerlerini ve kısıtlamalarını tanımlamaya dahil ederek, bu çerçeve şunları amaçlar: 1) Yönetişim ilkelerini kamusal söylem ve anlayışın konusu haline getirerek şeffaflık açığını hafifletmek. 2) Yapay zekanın "değerlerini", hizmet ettiği toplulukların somut sosyal bağlamlarına ve kolektif yargılarına kök saldırarak politik topluluk açığını gidermek.

5. Çekirdek Analiz: Sektör Perspektifi

Temel İçgörü

Abiri'nin argümanı sadece akademik bir öneri değil; tüm teknoloji sektörünün yapay zeka etiği yaklaşımına yönelik doğrudan bir meydan okumadır. Temel içgörüsü keskindir ve doğrudur:Meşruiyet mühendislikle sağlanamaz, siyasi süreçlerle kazanılmalıdır. Anthropic'in Anayasal Yapay Zekası, teknik açıdan zarif olsa da, karmaşık toplumsal sorunların (örneğin "iyi" veya "adil"in ne olduğu) daha iyi mühendislikle – yani uzmanlar tarafından yazılmış daha rafine "anayasalarla" – çözülebileceğine inanma gibi klasik bir Silikon Vadisi hatası yapıyor. Abiri bunu doğru bir şekilde temel bir kategori hatası olarak tanımlıyor. Yönetişim, özellikle demokratik yönetişim, gradyan inişiyle çözülebilecek bir optimizasyon problemi değildir. O, dağınık, tartışmalı ve özünde insani bir süreçtir. Sektörün şu anda özel laboratuvarlarda giderek karmaşıklaşan uyumluluk teknolojileri yaratma yolundaki ilerleyişi, demokratik bir araç değil, bir teknokrasi inşa ediyor.

Mantıksal Çerçeve

Argümantasyon, cerrahi bir kesinlikle ilerliyor: 1) Sorunu belirlemek (yönetim otoritesi olarak yapay zeka), 2) Gerekli çözüm kriterlerini tanımlamak (demokratik meşruiyet), 3) Hakim sektör çözümünü (özel anayasal yapay zeka) – halk için hala bir kara kutu olması ve değerlerinin demokratik bir kaynaktan gelmemesi olmak üzere iki ölümcül kusurunu ortaya çıkararak – yapıbozumuna uğratmak, 4) Panzehir önermek (kamusal anayasal yapay zeka). Mantık sağlam. Eğer meşruiyet halkın anlayışını ve rızasını gerektiriyorsa ve mevcut yöntem bu iki noktada da başarısız oluyorsa, o zaman tek uygulanabilir yol, halkı değer belirleme sürecinin kendisine dahil etmektir. Bu çerçeve, örneğin makine öğreniminde salt teknik "adil" metriklerin toplumsal bağlamı göz ardı etmesi gibi, AI Now Institute gibi kurumların araştırmalarının vurguladığı diğer alanlardaki eleştirilerle de örtüşüyor.

Güçlü ve Zayıf Yönler

Güçlü Yönler: Bu çerçevenin en büyük gücü, onunSiyasi GerçeklikBunun kavranışıdır. Soyut etiğin ötesine geçerek, güç ve rıza mekanizmalarına dokunur. Ayrıca doğru bir şekilde, "prosedürel meşruiyet"in - kuralların nasıl oluşturulduğunun - kuralların kendisi kadar önemli olduğunu işaret eder. Politik anayasa benzetmesi güçlü ve yerindedir.

Temel eksiklikler: Öneri, uygulama açısından tehlikeli derecede naif görünmektedir. İlk olarak,Ölçek ve Karmaşıklık Sorunu: Anlamlı bir "kamu", gerçekten de öncü büyük dil modellerinin yönetimi için gerekli olan yüksek derecede teknik, incelikli ve çoğu zaman ödünleşmeler içeren ilkeler üzerinde müzakere edebilir mi? İkinci olarak,Yargı Yetkisi Uyumsuzluğu: Yapay zeka küresel olarak işler; tek bir yargı yetkisi alanında taslağı hazırlanan bir anayasa, başka yerlerde eğitilmiş ve internet üzerinden erişilen modeller için ilgisizdir. Üçüncüsü, öneriÇoğunluğun Tiranlığıriski – halk tarafından taslak haline getirilen yapay zeka anayasalarında azınlık görüşleri nasıl korunur? Makale bu konuyu hafife alıyor, ancak bunlar ölümcül kusurlar olabilir. Ayrıca, Google'ın felaketle sonuçlanan "AI Test Kitchen"ı veya siyaset biliminde belgelenmiş çeşitli kamuoyu müzakere başarısızlıkları gibi, kitle kaynaklı etik girişimlerde görüldüğü üzere, karmaşık teknolojik sistemler hakkında yüksek kaliteli, bilgili kamuoyu görüşü elde etmek son derece zordur.

Uygulanabilir içgörüler

Politika yapıcılar ve sektör liderleri için sonuç açık ancak zorlu:Etiği mühendislere dış kaynak olarak kullanmayı bırakın. 1) Yalnızca çıktı şeffaflığı değil, süreç şeffaflığını zorunlu kılın: Düzenlemeler, yapay zeka geliştiricilerinden yalnızca modellerinin ilkelerini değil, aynı zamanda bu ilkelerinseçim sürecini de açıklamalarını talep etmelidir.ve hangi kişilerin dahil olduğu. 2) Gerçek demokratik süreçleri finanse edin ve pilot uygulamasını yapın: Kamuya açık bir anayasa zorunlu kılmadan önce, hükümetler - İrlanda'nın kürtaj konulu vatandaş meclisine benzer şekilde - belirli, yüksek riskli yapay zeka alanlarına (örneğin, tıbbi triaj algoritmaları) odaklanan, geniş ölçekli, titizlikle tasarlanmış pilot projeleri finanse etmelidir. 3) Hibrit modeller geliştirin: En uygulanabilir yol muhtemelen çok katmanlı bir anayasadır: Uluslararası kuruluşlar tarafından belirlenen, asgari düzeyde, küresel uzlaşmaya dayalı temel ilkelerden (örneğin, zarar vermeme) oluşan bir çekirdek, farklı yargı bölgeleri veya uygulama alanları için yerel olarak tasarlanmış, bağlama özgü modüllerle desteklenir. Bununla birlikte gelen teknik zorluk, yapay zeka sistemlerinin bu katmanlı talimatları dinamik olarak yorumlamasını ve tartmasını sağlamaktır - bu da modüler sinir ağları ve bağlam-bilinirli muhakeme gibi alanları içeren, NeurIPS ve ICML'deki kompozisyonel yapay zeka sistemleri üzerine son makalelerde tartışıldığı gibi, kendi başına bir ön saflarda yer alan araştırma sorunudur.

6. Teknik Çerçeve ve Matematiksel Temeller

Önerilen kamuya açık anayasal yapay zeka çerçevesi biçimselleştirilebilir. Bir yapay zeka modelinin davranışının, $\theta$ parametreleriyle parametrelendirilmiş bir $f(x; \theta)$ fonksiyonu olduğunu varsayalım. Standart anayasal yapay zeka, $\theta$'yı, çıktıları sabit, özel bir anayasa $C_{private}$'a göre puanlayan bir ödül $R_c$'yi maksimize edecek şekilde eğitir:

$$\theta^* = \arg\max_{\theta} \mathbb{E}_{x \sim \mathcal{D}}[R_c(f(x; \theta), C_{private})]$$

Kamusal Anayasal Yapay Zeka bunu yeniden yapılandırır. Anayasa $C_{public}$ kendi başına bir değişkendir ve halk $P$ ile bağlam $K$'ya uygulanan demokratik süreç fonksiyonu $\Delta$ tarafından üretilir:

$$C_{public} = \Delta(P, K)$$

O zaman eğitim hedefi şu hale gelir:

$$\theta^* = \arg\max_{\theta} \mathbb{E}_{x \sim \mathcal{D}}[R_c(f(x; \theta), C_{public})] \quad \text{subject to} \quad C_{public} = \Delta(P, K)$$

Kritik teknik değişim şudur ki, $\Delta$ birpolitik ve müzakereci fonksiyondur, mühendislik işlevi değil. Çıktıları, bir eğitim sinyali olarak kullanılmak üzere yeterince net ve kararlı olmalıdır. Bu, niteliksel kamusal müzakereleri niceliksel, makine tarafından yürütülebilir kısıtlamalara dönüştürme zorluğunu beraberinde getirir - bu, insan tercihlerinden tersine pekiştirmeli öğrenmeye benzer bir sorundur, ancak ölçeği toplumsaldır.

7. Deneysel Sonuçlar ve Doğrulama

Kamusal Anayasal Yapay Zekanın kapsamlı uygulaması henüz teorik olsa da, katılımcı algoritma tasarımı ve değer uyumlaması üzerine yapılan ilgili deneyler içgörüler sağlamaktadır.

Grafik: Meşruiyet Algısı Karşılaştırması(İlgili araştırmalara dayalı varsayımsal veriler): Katılımcı vatandaşların üç yönetişim modeli için meşruiyet algısı puanlarını (1-10 ölçeği) karşılaştıran bir çubuk grafik: 1) Standart Yapay Zeka(Belirgin bir anayasa yok): Yaklaşık 3.2 puan. Tamamen opak olduğu için güven düşük. 2) Özel Anayasa Yapay Zekası(Anthropic tarzı): Yaklaşık 5.8 puan. Net ilkeler nedeniyle orta düzeyde iyileşme, ancak özel yazarlık konusunda şüpheler mevcut. 3) Kamusal Anayasal Yapay Zeka(Önerilen): Yaklaşık 7.9 puan. En yüksek puan, sürecin algılanan sahipliğinden ve kuralların anlaşılmasından kaynaklanıyor. Hata çubukları, kullanılan belirli demokratik sürece olan güvene bağlı olarak kamu modellerinde önemli farklılıklar gösterecek.

Teknoloji politikası üzerine kamu istişareleri üzerine yapılan araştırmalar, örneğin AB'nin yapay zeka konulu vatandaş panelleri, katılımcıların karmaşık dengeleri (örneğin, gizlilik ve yenilik) ele alabildiğini ve incelikli öneriler sunabildiğini göstermektedir. Ancak, bu çıktılar genellikle yüksek düzey politika yönergeleridir ve yapay zeka eğitimi için doğrudan gereken kesin, uygulanabilir kurallar değildir. Bu "norm boşluğunu" kapatmak, henüz çözülmemiş önemli bir zorluktur.

8. Analitik Çerçeve: Vaka Çalışması

Vaka: Belediye Tahmine Dayalı Polislik Algoritması için Yapay Zeka Anayasası Taslağı Hazırlama

Arka Plan: Bir şehir, suç sıcak noktalarını tahmin etmek ve devriye rotalarını optimize etmek için bir yapay zeka sistemi konuşlandırmayı planlıyor.

Özel Anayasal Yapay Zeka Yaklaşımı: Tedarikçi firmanın mühendisleri, genel etik ilkelere dayanarak şu ilkeleri taslağa döker: "Suçu en aza indir", "Önyargılı tahminlerden kaçın", "Gizliliğe saygı göster". Model buna göre eğitilir. Kamu, olmuş bitmiş bir gerçekle karşı karşıyadır.

Kamusal Anayasal Yapay Zeka Yaklaşımı:

  1. Vatandaş Meclisi Oluşturma: Demografik olarak temsili 100 vatandaştan oluşan bir grup seçilir.
  2. Eğitim Aşaması: Uzmanlar, tahmine dayalı polislik, algoritmik önyargı (örneğin, farklı etki $DI = \frac{P(\text{yüksek risk tahmini} | \text{grup A})}{P(\text{yüksek risk tahmini} | \text{grup B})}$ gibi metriklerle) ve dengelemeleri (örneğin, kamu güvenliği ile aşırı polislik) açıklıyor.
  3. Müzakere: Meclis, belirli anayasa maddelerini tartışır. Örneğin:
    • "Algoritma, aylık olarak ırksal önyargı denetimine tabi tutulmalı ve farklı etki oranı 1.2'yi geçmemelidir."
    • "Belirli bir toplulukta devriye artışına yol açan tahminler, o topluluğun topluluk komitesi tarafından incelenmelidir."
    • "Ana hedef, küçük suç ihlalleri değil, ciddi şiddet suçlarını azaltmaktır."
  4. Onay: Taslak anayasa, kent çapında danışma niteliğinde bir referanduma sunuldu.
  5. Uygulama: Belediye, herhangi bir tedarikçinin yapay zeka sisteminin bu kamu anayasasına göre eğitilmesini ve değerlendirilmesini şart koşar.

Bu vaka, daha bağlamsal farkındalığa sahip ve daha güvenilir kurallar oluşturma potansiyelini vurgularken, aynı zamanda sürecin muazzam maliyet, zaman ve karmaşıklığını da ortaya koymaktadır.

9. Gelecekteki Uygulamalar ve Gelişmeler

Kamu Anayasası Yapay Zeka Çerçevesinin etkisi, öncü büyük dil modellerinin ötesine geçmektedir:

  • Alan-Spesifik Anayasa: Sağlık (triyaj, tanı desteği), eğitim (kişiselleştirilmiş öğrenme, not verme) ve sosyal refah (yardım dağıtımı) gibi alanlardaki yapay zeka sistemleri için kamuya açık taslak hazırlama.
  • Dinamik Anayasa: Anayasaların düzenli kamu incelemeleri yoluyla zamanla evrimleşmesini sağlayan mekanizmalar geliştirmek; bu, yapay zeka modellerinin değişen kural setleri altında sürekli öğrenme yapabilmesini gerektirir ve anayasa değişikliklerine benzer.
  • Yargı Bölgeleri Arası Tahkim: Küresel veya federal ortamlarda çalışırken farklı kamu anayasaları arasındaki çatışmaları ele alabilen yapay zeka sistemleri üzerine araştırma; çok amaçlı optimizasyon ve normatif akıl yürütme alanlarındaki çalışmalardan yararlanarak.
  • Araç Geliştirme: Yapay zeka ilkeleri hakkında büyük ölçekli, bilgili kamu müzakerelerini kolaylaştırmak için yazılım platformları oluşturmak; tartışmaları özetlemek, ödünleşimleri açıklığa kavuşturmak ve kamuoyu eğilimlerini taslak hükümlere dönüştürmek için muhtemelen yapay zekanın kendisinden yararlanarak.
  • Teknik Güvenlikle Entegrasyon: Kamusal değer belirleme sürecini, sağlamlık, açıklanabilirlik ve denetim konularındaki yapay zeka teknik güvenlik araştırmalarıyla birleştirmek. Kamusal anayasa "ne" ve "neden"i tanımlarken, mühendisler "nasıl"ı çözer.

Nihai yönelim,Katılımcı Yapay Zeka Yönetişim Ekosistemiyönündedir; burada yapay zeka sistemlerinin yaşam döngüsü—temel değerlerinden konuşlandırma denetimlerine kadar—yapılandırılmış, kapsayıcı kamusal girdi ve kontrolüne tabidir.

10. Kaynakça

  1. Abiri, G. (2025). Public Constitutional AI. Georgia Law Review, 59(3), 601-648.
  2. Anthropic. (2023). Constitutional AI: AI Geri Bildirimi ile Zararsızlık. arXiv ön baskı arXiv:2212.08073.
  3. Binns, R. (2018). Makine Öğreniminde Adalet: Siyaset Felsefesinden Dersler. Adalet, Hesap Verebilirlik ve Şeffaflık Konferansı (FAT*) 1. Oturumu Bildiriler Kitabı, 149-159.
  4. AI Now Institute. (2023). Algoritmik Hesap Verebilirlik: Bir Başlangıç. Erişim adresi: https://ainowinstitute.org/publication/algorithmic-accountability-primer
  5. Hadfield, G. K., & Clark, R. M. (2023). The Problem of AI Governance. Daedalus, 152(1), 242-256.
  6. Goodman, B., & Flaxman, S. (2017). European Union Regulations on Algorithmic Decision-Making and a "Right to Explanation." AI Magazine, 38(3), 50-57.
  7. Zhu, J. Y., Park, T., Isola, P., & Efros, A. A. (2017). Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks. Proceedings of the IEEE International Conference on Computer Vision (ICCV), 2223-2232. (Bir teknik çerçeve olarak CycleGAN'ın, karmaşık eşleme problemlerini çözmek için kullanılan bir örnek olarak atıfta bulunulmuştur; bu, kamu müzakerelerinin yapay zeka eğitim sinyallerine eşlenmesi ihtiyacına benzer).
  8. Dryzek, J. S., & Niemeyer, S. (2019). Deliberative Democracy and Climate Governance. Nature Human Behaviour, 3(5), 411-413. (Vatandaş meclislerinin etkinliği hakkında).