فهرست مطالب
1. مقدمه
ما به طور فزایندهای تحت سلطه قدرت اقتدار هوش مصنوعی قرار داریم. مدلهای یادگیری ماشین امروزه پایه بازارهای الگوریتمی را تشکیل میدهند، تعیین میکنند کدام سخنان تقویت یا محدود شوند، تصمیمات دولتی از تخصیص منابع تا پلیس پیشبینانه را شکل میدهند و بر نحوه دسترسی ما به اطلاعات در موضوعات حیاتی مانند رأیگیری و سلامت عمومی تأثیر میگذارند. با فراگیر شدن تصمیمگیری هوش مصنوعی در حوزههایی مانند بهداشت، آموزش و قانون، باید با این پرسش اساسی روبرو شویم: چگونه میتوانیم اطمینان حاصل کنیم که این سیستمهای هوش مصنوعی که به طور فزایندهای زندگی ما را تنظیم و جامعه ما را شکل میدهند، از اقتدار و مشروعیت لازم برای حکمرانی مؤثر برخوردارند؟
برای تضمین مشروعیت هوش مصنوعی، باید روشهایی را توسعه دهیم که عموم مردم را در طراحی و محدود کردن سیستمهای هوش مصنوعی مشارکت دهند، تا این فناوریها منعکسکننده ارزشهای مشترک و اراده سیاسی جوامعی باشند که به آنها خدمت میکنند. هوش مصنوعی قانوناساسی، که توسط Anthropic AI پیشنهاد و توسعه یافته، گامی به سوی این هدف است و مدلی ارائه میدهد که نشان میدهد چگونه میتوان هوش مصنوعی را تحت کنترل دموکراتیک قرار داد و آن را در برابر منافع عمومی پاسخگو کرد.
همانطور که قانون اساسی اعمال قدرت دولت را محدود و هدایت میکند، هوش مصنوعی قانوناساسی نیز تلاش میکند اصول و ارزشهای صریح را بهصورت سختافزاری در مدلهای هوش مصنوعی کدگذاری کند تا تصمیمات آن شفافتر و پاسخگوتر باشد. آنچه هوش مصنوعی قانوناساسی را متمایز میکند، تعهد آن به پایهگذاری آموزش هوش مصنوعی بر اساس یک "قانون اساسی" واضح و قابل درک برای انسان است. با آموزش هوش مصنوعی برای پایبندی به اصولی که هم انسان و هم ماشین میتوانند درک کنند، این روش هدفمند است تا اعتماد و ثبات را در توسعه این فناوریهای به طور فزاینده قدرتمند ترویج دهد.
با این حال، نویسنده استدلال میکند که هوش مصنوعی قانوناساسی به شکل فعلی (که توسط یک شرکت خصوصی توسعه یافته که به دنبال ایجاد اصول قانون اساسی جهانی است) به احتمال زیاد به طور کامل بحران مشروعیت هوش مصنوعی را حل نخواهد کرد، به دلیل دو کسری کلیدی: اول، کسری شفافیت، که در آن پیچیدگی ذاتی سیستمهای هوش مصنوعی توانایی ما برای استدلال در مورد فرآیندهای تصمیمگیری آنها را تضعیف میکند. دوم، کسری جامعه سیاسی، که در آن سیستمهای هوش مصنوعی بر اساس مدلهای انتزاعی به جای قضاوت انسانی ساخته شدهاند و فاقد زمینه اجتماعیای هستند که به اقتدار مشروعیت میبخشد.
برای جبران این کسریها، این مقاله چارچوبهوش مصنوعی قانوناساسی عمومیرا پیشنهاد میکند، که مشارکت عمومی در تدوین یک قانون اساسی هوش مصنوعی را الزامی میکند که باید برای آموزش تمام مدلهای هوش مصنوعی پیشرفته در حال اجرا در یک حوزه قضایی خاص استفاده شود.
2. مشروعیت هوش مصنوعی
2.1 چرا به هوش مصنوعی مشروع نیاز داریم؟
سیستمهای هوش مصنوعی دیگر صرفاً ابزار نیستند، بلکه به مرجعی تبدیل شدهاند که جنبههای مهم زندگی اجتماعی، اقتصادی و سیاسی را اداره میکنند. تصمیمات آنها بر حقوق فردی، تخصیص منابع و گفتمان عمومی تأثیر میگذارد. بدون مشروعیت - یعنی حق حاکمیت به رسمیت شناخته شده - این سیستمها با مقاومت، نافرمانی و بیثباتی اجتماعی مواجه خواهند شد. مشروعیت برای حکمرانی مؤثر حیاتی است و تضمین میکند که قوانین داوطلبانه رعایت شوند، نه صرفاً از طریق اجبار. برای اینکه هوش مصنوعی بتواند به طور مؤثر حکمرانی کند، باید از سوی عموم مردم تحت تأثیر آن، مشروع تلقی شود.
2.2 کسری مشروعیت هوش مصنوعی
2.2.1 کسری شفافیت
ویژگی "جعبه سیاه" بسیاری از مدلهای پیشرفته هوش مصنوعی (به ویژه شبکههای عصبی عمیق) منجر به کسری شفافیت میشود. حتی اگر دادههای آموزشی و اهداف مدل شناخته شده باشند، فرآیند تصمیمگیری داخلی آنها اغلب بیش از حد پیچیده و خارج از درک انسان است. این عدم شفافیت، بازبینی، مناظره و پرسشگری معنادار عمومی در مورد تصمیمات هوش مصنوعی را که برای مشروعیت دموکراتیک ضروری هستند، مختل میکند. شهروندان نمیتوانند در قبال چیزی که درک نمیکنند پاسخگو باشند.
2.2.2 کسری جامعه سیاسی
اقتدار مشروع در نظامهای دموکراتیک ریشه در تجربیات، ارزشها و زمینههای مشترک یک جامعه سیاسی خاص دارد. با این حال، سیستمهای هوش مصنوعی معمولاً بر اساس اصول انتزاعی و جهانشمول یا مجموعهدادههایی فاقد این تعبیهشدگی اجتماعی توسعه مییابند. آنها بر اساس همبستگیهای آماری و نه قضاوتهای موقعیتیافته انسانی عمل میکنند که منجر به گسست بین منطق الگوریتمی و زمینه اجتماعی اعطاکننده مشروعیت به اقتدار میشود. این کسری، احساس بازتاب «اراده مردم» در حکمرانی هوش مصنوعی را تضعیف میکند.
3. هوش مصنوعی قانون اساسی خصوصی
3.1 قانون اساسی Anthropic
هوش مصنوعی قانون اساسی Anthropic نمایانگر یک رویکرد فنی مهم برای همسوسازی هوش مصنوعی با ارزشهای انسانی از طریق اصول مکتوب صریح است.
3.1.1 فناوری
این روش شامل یک فرآیند آموزش دو مرحلهای است: 1) یادگیری نظارتشده: آموزش یک مدل برای تولید پاسخها و ارزیابی آنها توسط یک مدل «داور» مستقل بر اساس مجموعهای از اصول قانون اساسی. 2) یادگیری تقویتی: استفاده از بازخورد مدل داور برای تنظیم دقیق مدل، به گونهای که یاد بگیرد برای رعایت قانون اساسی بهینهسازی کند. این فرآیند با هدف ایجاد یک مکانیسم خوداصلاحی طراحی شده است تا خروجی هوش مصنوعی با اصول از پیش تعریف شده همسو شود.
3.1.2 اصول
قانون اساسی Anthropic شامل اصولی است که از اعلامیه جهانی حقوق بشر سازمان ملل متحد، شرایط خدمات اپل و سایر اسنادی که رفتار بیضرر و مفید را ترویج میکنند، گرفته شدهاند. به عنوان مثال: «پاسخی را انتخاب کن که بیشترین حمایت را از زندگی، آزادی و امنیت شخصی میکند» و «صادقانهترین و راستینترین پاسخ را انتخاب کن».
3.2 قانونیت هوش مصنوعی قانون اساسی خصوصی
3.2.1 عدم شفافیت
اگرچه هوش مصنوعی قانوناساسی، اصول حکمرانی را صریح میسازد، اما مسئله عدم شفافیت در استدلال درونی مدل را بهطور کامل حل نمیکند. عموم مردم میتوانند «قوانین» را ببینند، اما نمیتوانند مشاهده کنند که این قوانین چگونه در موارد پیچیده و خاص اعمال میشوند. فرآیند آموزش خود همچنان یک جعبه سیاه فنی است که توسط مهندسان مدیریت میشود.
3.2.2 جامعه سیاسی
این اصول توسط یک شرکت خصوصی و در راستای دستیابی به جهانشمولی انتخاب شدهاند. این فرآیند از بالا به پایین و متخصصمحور، فاقد مشارکت دموکراتیک و بحث و بررسی زمینهمحور است؛ عواملی که برای ریشهدار کردن یک قانون اساسی در ارزشها و تجربیات مشترک یک جامعه سیاسی خاص ضروری هستند. مشروعیت خود قانون اساسی مورد تردید است.
4. هوش مصنوعی قانون اساسی عمومی
4.1 هوش مصنوعی قانون اساسی عمومی چیست؟
هوش مصنوعی قانون اساسی عمومی به عنوان یک چارچوب اصلاحی پیشنهاد شده است. این چارچوب الزام میکند که قانون اساسی حاکم بر مدلهای پیشرفته هوش مصنوعی در حوزههای قضایی خاص، باید از طریق مشارکت گسترده عمومی تدوین شود.
4.1.1 تدوین قانون اساسی هوش مصنوعی
این امر شامل فرآیندهای دموکراتیک مانند مجامع شهروندی، نظرسنجیهای مشورتی یا کمیتههای تدوین مشارکتی میشود. هدف آن، تبدیل قانون اساسی هوش مصنوعی از یک محصول فنی به یک محصول سیاسی — محصول اراده عمومی — است. با مشارکتدادن شهروندان در تعریف ارزشها و محدودیتهای هوش مصنوعی، این چارچوب هدف دارد: 1) کاهش کسری شفافیت از طریق تبدیل اصول حکمرانی به موضوعی برای گفتمان و درک عمومی. 2) جبران کسری جامعه سیاسی با ریشهدار کردن «ارزشهای» هوش مصنوعی در زمینه اجتماعی خاص و قضاوت جمعی جامعهای که به آن خدمت میکند.
5. تحلیل هستهای: دیدگاه صنعت
بینش کلیدی
استدلال Abiri صرفاً یک پیشنهاد دانشگاهی نیست؛ بلکه یک چالش مستقیم به رویکرد اخلاقی کل صنعت فناوری نسبت به هوش مصنوعی است. بینش کلیدی آن تیزبینانه و درست است:مشروعیت را نمیتوان مهندسی کرد، بلکه باید از طریق فرآیند سیاسی به دست آورد. هوش مصنوعی قانونمند Anthropic، اگرچه از نظر فنی ظریف است، مرتکب خطای کلاسیک سیلیکون ولی شده است - باور به اینکه مسائل پیچیده اجتماعی (مانند تعریف «خوب» یا «عادلانه») را میتوان با مهندسی بهتر - یعنی «قانون اساسی» تصفیهشدهتری که توسط کارشناسان نوشته شده است - حل کرد. ابیری به درستی این را یک اشتباه اساسی مقولهای شناسایی میکند. حکمرانی، به ویژه حکمرانی دموکراتیک، یک مسئله بهینهسازی نیست که بتوان آن را با کاهش گرادیان حل کرد. این یک فرآیند آشفته، بحثبرانگیز و ذاتاً انسانی است. مسیری که صنعت در حال حاضر با ایجاد فناوریهای همترازی پیچیدهتر در آزمایشگاههای خصوصی در پیش گرفته، در حال ساخت یک تکنوآریستوکراسی است، نه یک ابزار دموکراتیک.
خط منطقی
استدلال با دقت جراحی انجام شده است: 1) ایجاد مسئله (هوش مصنوعی به عنوان مرجع حکمرانی)، 2) تعریف معیارهای ضروری برای راهحل (مشروعیت دموکراتیک)، 3) واسازی راهحل اصلی صنعت (هوش مصنوعی قانونمند خصوصی) با آشکار کردن دو نقص مهلک آن - جعبه سیاه بودن برای عموم و عدم منشأ دموکراتیک ارزشهایش - 4) ارائه پادزهر (هوش مصنوعی قانونمند عمومی). منطق مستحکم است. اگر مشروعیت مستلزم درک و رضایت عمومی است و روش فعلی در هر دو جنبه شکست خورده، پس تنها مسیر عملی، گنجاندن عموم در خود فرآیند تعیین ارزش است. این خط منطقی با انتقادات در سایر حوزهها همخوانی دارد، مانند شکست معیارهای صرفاً فنی «انصاف» در یادگیری ماشین که زمینه اجتماعی را نادیده میگیرد، همانطور که تحقیقات مؤسساتی مانند AI Now Institute تأکید کردهاند.
نقاط قوت و ضعف
نقاط قوت: بزرگترین نقطه قوت این چارچوب، تأکید آن برواقعیت سیاسی. این فراتر از اخلاق انتزاعی است و به سازوکارهای قدرت و رضایت میپردازد. همچنین به درستی اشاره میکند که «مشروعیت رویهای» - یعنی چگونگی تدوین قوانین - به اندازه خود قوانین اهمیت دارد. قیاس با قانون اساسی سیاسی قدرتمند و مناسب است.
نقص کلیدی: این پیشنهاد از نظر اجرا به طرز خطرناکی سادهلوحانه به نظر میرسد. اولاً،مسئله مقیاس و پیچیدگی: آیا یک «عموم» معنادار واقعاً میتواند در مورد اصول بسیار فنی، ظریف و اغلب مبتنی بر مصالحهای که برای حکمرانی مدلهای زبانی بزرگ پیشرفته لازم است، به بحث و تبادل نظر بپردازد؟ ثانیاً،عدم تطابق حوزه قضایی: هوش مصنوعی به صورت جهانی عمل میکند؛ یک قانون اساسی تدوینشده در یک حوزه قضایی، برای مدلهایی که در جای دیگری آموزش دیدهاند و از طریق اینترنت قابل دسترسی هستند، بیربط است. سوم، این پیشنهاد دچاراستبداد اکثریتخطر آن - در قوانین اساسی هوش مصنوعی که توسط عموم مردم تدوین میشود، چگونه میتوان از دیدگاههای اقلیت محافظت کرد؟ مقاله به این موضوع بهصورت سطحی پرداخته است، اما اینها ممکن است نقصهای مهلکی باشند. علاوه بر این، همانطور که در تلاشهای جمعسپاری اخلاقی مشاهده شده است، مانند «آشپزخانه آزمایش هوش مصنوعی» فاجعهبار گوگل یا موارد مختلف شکست مشورت عمومی که در علوم سیاسی ثبت شدهاند، کسب نظر عمومی باکیفیت و آگاهانه در مورد سیستمهای فنی پیچیده بسیار دشوار است.
بینشهای عملی
برای سیاستگذاران و رهبران صنعت، نتیجهگیری روشن اما چالشبرانگیز است:متوقف کردن برونسپاری اخلاق به مهندسان. 1) الزام به شفافیت فرآیند، نه فقط شفافیت خروجی: مقررات باید از توسعهدهندگان هوش مصنوعی بخواهند که نه تنها اصول مدلهای خود، بلکهفرآیند انتخاب این اصول را نیز افشا کنند.و اینکه چه افرادی درگیر بودند. 2) تأمین مالی و آزمایش فرآیندهای دموکراتیک واقعی: قبل از الزام به یک قانون اساسی عمومی، دولت باید پروژههای آزمایشی گسترده و با طراحی دقیق را تأمین مالی کند - مشابه مجمع شهروندان ایرلند در مورد سقط جنین - که بر حوزههای خاص و پرریسک هوش مصنوعی (مانند الگوریتمهای تریاژ پزشکی) متمرکز باشند. 3) توسعه مدلهای ترکیبی: عملیترین مسیر احتمالاً یک قانون اساسی چندلایه است: یک مجموعه حداقلی از اصول هستهای با اجماع جهانی (مانند "عدم آسیب") که توسط یک نهاد بینالمللی ایجاد شده و با ماژولهای خاص زمینهای که به صورت محلی برای حوزههای قضایی یا کاربردهای مختلف تدوین شدهاند، تکمیل میشود. چالش فنی متعاقب، توانمندسازی سیستمهای هوش مصنوعی برای تفسیر پویا و سنجش این دستورالعملهای لایهبندی شده است - که خود یک مسئله تحقیقاتی پیشرفته در حوزههایی مانند شبکههای عصبی ماژولار و استدلال آگاه از زمینه است، همانطور که در مقالات اخیر NeurIPS و ICML در مورد سیستمهای هوش مصنوعی ترکیبی مورد بحث قرار گرفته است.
6. چارچوب فنی و مبانی ریاضی
چارچوب پیشنهادی هوش مصنوعی قانون اساسی عمومی را میتوان صوریسازی کرد. فرض کنید رفتار یک مدل هوش مصنوعی تابعی $f(x; \theta)$ باشد که توسط پارامترهای $\theta$ پارامتری شده است. آموزش استاندارد هوش مصنوعی قانون اساسی، $\theta$ را برای بیشینهکردن پاداش $R_c$ بهینه میکند، پاداشی که خروجیها را بر اساس یک قانون اساسی ثابت و خصوصی $C_{private}$ امتیازدهی میکند:
$$\theta^* = \arg\max_{\theta} \mathbb{E}_{x \sim \mathcal{D}}[R_c(f(x; \theta), C_{private})]$$
هوش مصنوعی قانوناساسی عمومی این را بازسازی میکند. قانوناساسی $C_{public}$ خود یک متغیر است که توسط تابع فرآیند دموکراتیک $\Delta$ اعمالشده بر مردم $P$ و زمینه $K$ تولید میشود:
$$C_{public} = \Delta(P, K)$$
سپس هدف آموزش به این تبدیل میشود:
$$\theta^* = \arg\max_{\theta} \mathbb{E}_{x \sim \mathcal{D}}[R_c(f(x; \theta), C_{public})] \quad \text{subject to} \quad C_{public} = \Delta(P, K)$$
تغییر فنی کلیدی در این است که $\Delta$ یکتابع سیاسی و مشورتی استو نه یک کارکرد مهندسی. خروجی آن باید به اندازه کافی واضح و پایدار باشد تا به عنوان سیگنال آموزشی عمل کند. این امر چالش تبدیل مشورتهای کیفی عمومی به محدودیتهای کمی و قابل اجرا توسط ماشین را به همراه دارد - مسئلهای مشابه یادگیری تقویتی معکوس از ترجیحات انسانی، اما در مقیاسی اجتماعی.
7. نتایج آزمایش و اعتبارسنجی
اگرچه اجرای کامل هوش مصنوعی قانون اساسی عمومی هنوز نظری است، آزمایشهای مرتبط با طراحی الگوریتم مشارکتی و همترازی ارزشها، بینشهایی ارائه میدهند.
نمودار: مقایسه ادراک مشروعیت(بر اساس دادههای فرضی از مطالعات مرتبط): یک نمودار میلهای که امتیازات ادراک مشروعیت (در مقیاس ۱ تا ۱۰) پاسخدهندگان شهروند را برای سه مدل حکمرانی مقایسه میکند: ۱) هوش مصنوعی استاندارد(بدون قانون اساسی صریح): امتیاز تقریباً ۳.۲. اعتماد پایین به دلیل عدم شفافیت کامل. ۲) هوش مصنوعی قانوناساسی خصوصی(سبک Anthropic): امتیاز تقریبی ۵.۸. بهبود متوسط به دلیل اصول صریح، اما تردید در مورد مالکیت خصوصی وجود دارد. ۳) هوش مصنوعی قانوناساسی عمومی(پیشنهادی): امتیاز تقریبی ۷.۹. بالاترین امتیاز، ناشی از درک مالکیت بر فرآیند و درک قوانین. میلههای خطا نشان خواهند داد که مدلهای عمومی بر اساس میزان اعتماد به فرآیند دموکراتیک خاص به کار رفته، تفاوت قابل توجهی دارند.
تحقیقات درباره مشورت عمومی در سیاست فناوری، مانند پنلهای شهروندی اتحادیه اروپا در مورد هوش مصنوعی، نشان میدهد که شرکتکنندگان قادر به پردازش تعادلهای پیچیده (مانند حریم خصوصی در مقابل نوآوری) و ارائه توصیههای دقیق هستند. با این حال، این خروجیها معمولاً دستورالعملهای سیاستی سطح بالا هستند، نه قوانین دقیق و قابل اجرای مورد نیاز برای آموزش مستقیم هوش مصنوعی. پر کردن این «شکاف هنجاری» یک چالش بزرگ حلنشده است.
8. چارچوب تحلیلی: مطالعه موردی
مورد مطالعه: تدوین قانوناساسی هوش مصنوعی برای الگوریتم پلیس پیشبینیکننده شهرداری
زمینه: یک شهر قصد دارد یک سیستم هوش مصنوعی برای پیشبینی نقاط جرمخیز و بهینهسازی مسیرهای گشتزنی مستقر کند.
رویکرد هوش مصنوعی قانون اساسی خصوصی: مهندسان شرکت تأمینکننده بر اساس دستورالعملهای اخلاقی عمومی، اصولی را تدوین میکنند: «کاهش جرم»، «پرهیز از پیشبینیهای جانبدارانه»، «احترام به حریم خصوصی». مدل بر این اساس آموزش میبیند. عموم با یک امر تحققیافته مواجه میشوند.
رویکرد هوش مصنوعی قانون اساسی عمومی:
- تشکیل مجمع شهروندان: انتخاب یک گروه ۱۰۰ نفره از شهروندان که از نظر جمعیتشناسی نماینده باشند.
- مرحله آموزش: کارشناسان، پلیس پیشبینیکننده، سوگیری الگوریتمی (مثلاً از طریق معیارهایی مانند تأثیر تفاوت $DI = \frac{P(\text{پیشبینی پرخطر} | \text{گروه A})}{P(\text{پیشبینی پرخطر} | \text{گروه B})}$) و مصالحهها (مثلاً امنیت عمومی در مقابل پلیسکاری بیش از حد) را توضیح میدهند.
- بررسی: مجمع به بحث در مورد مواد خاص قانون اساسی میپردازد. به عنوان مثال:
- "این الگوریتم باید ماهانه تحت حسابرسی سوگیری نژادی قرار گیرد و نسبت تأثیر تفاوت نباید از 1.2 تجاوز کند."
- "هر پیشبینی که منجر به افزایش گشتزنی در یک محله شود، باید توسط کمیته جامعه آن محله مورد بررسی قرار گیرد."
- "هدف اصلی کاهش جرایم خشونتبار جدی است، نه تخلفات جزئی."
- تصویب: پیشنویس قانون اساسی برای همهپرسی مشورتی در سطح شهر ارائه شد.
- اجرا: شهرداری الزام میکند که هر سیستم هوش مصنوعی تأمینکننده باید بر اساس این قانون اساسی عمومی آموزش و ارزیابی شود.
این مورد، پتانسیل ایجاد قوانین آگاهتر از بافت و قابلاعتمادتر را برجسته میکند، در عین حال هزینه، زمان و پیچیدگی قابل توجه این فرآیند را نیز آشکار میسازد.
9. کاربردها و توسعه آینده
تأثیر چارچوب هوش مصنوعی قانون اساسی عمومی فراتر از مدلهای زبانی بزرگ پیشرفته است:
- قانون اساسی خاص حوزه: تدوین عمومی قوانین اساسی برای هوش مصنوعی در حوزههایی مانند بهداشت و درمان (تریاژ، پشتیبانی تشخیصی)، آموزش (یادگیری شخصیشده، نمرهدهی) و رفاه اجتماعی (تخصیص مزایا).
- قانوناساسی پویا: توسعه مکانیزمهایی که امکان تکامل قانون اساسی را در طول زمان از طریق بازبینی دورهای عمومی فراهم میکند، مشابه اصلاحیههای قانون اساسی، که مستلزم توانایی مدلهای هوش مصنوعی برای یادگیری مستمر تحت مجموعه قوانین در حال تغییر است.
- داوری فراقضایی: پژوهش در مورد سیستمهای هوش مصنوعی که قادر به مدیریت تعارضهای بین قوانین اساسی عمومی مختلف هنگام عمل در محیطهای جهانی یا فدرال هستند، با الهام از تحقیقات در بهینهسازی چندهدفه و استدلال هنجاری.
- توسعه ابزار: ایجاد پلتفرمهای نرمافزاری برای تسهیل بحثهای عمومی آگاهانه در مقیاس بزرگ درباره اصول هوش مصنوعی، با امکان استفاده از خود هوش مصنوعی برای خلاصهسازی مناظرات، روشنسازی مبادلات و تبدیل افکار عمومی به مواد پیشنویس.
- ادغام با امنیت فنی: تلفیق فرآیند تعیین ارزشهای عمومی با تحقیقات امنیت فنی هوش مصنوعی در مورد استحکام، قابلیت تفسیر و نظارت. قانون اساسی عمومی «چیستی» و «چرایی» را تعریف میکند، در حالی که مهندسان به «چگونگی» میپردازند.
جهتگیری نهایی به سمتاکوسیستم حکمرانی مشارکتی هوش مصنوعیتوسعهای است که در آن چرخه حیات سیستمهای هوش مصنوعی - از ارزشهای بنیادین آن تا حسابرسی استقرار - تحت تأثیر ورودی و کنترل ساختاریافته و فراگیر عمومی قرار میگیرد.
10. مراجع
- Abiri, G. (2025). Public Constitutional AI. Georgia Law Review, 59(3), 601-648.
- Anthropic. (2023). Constitutional AI: Harmlessness from AI Feedback. arXiv preprint arXiv:2212.08073.
- Binns, R. (2018). Fairness in Machine Learning: Lessons from Political Philosophy. Proceedings of the 1st Conference on Fairness, Accountability and Transparency (FAT*), 149-159.
- AI Now Institute. (2023). Algorithmic Accountability: A Primer. Retrieved from https://ainowinstitute.org/publication/algorithmic-accountability-primer
- Hadfield, G. K., & Clark, R. M. (2023). The Problem of AI Governance. ددالوس، 152(1)، 242-256.
- Goodman, B., & Flaxman, S. (2017). European Union Regulations on Algorithmic Decision-Making and a "Right to Explanation." مجله هوش مصنوعی، 38(3)، 50-57.
- Zhu, J. Y., Park, T., Isola, P., & Efros, A. A. (2017). Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks. مجموعه مقالات کنفرانس بینالمللی IEEE در مورد بینایی کامپیوتر (ICCV)، 2223-2232.
- Dryzek, J. S., & Niemeyer, S. (2019). Deliberative Democracy and Climate Governance. Nature Human Behaviour, 3(5), 411-413. (در مورد اثربخشی مجامع شهروندی).