16+
DOI: 10.18413/2408-932X-2025-11-3-1-1

Политогенез генеративных систем: концепция живого законодательства и адаптивной государственной архитектуры

Aннотация

В статье предложена концепция «генеративного управления» – новой парадигмы, в которой генеративные модели искусственного интеллекта (далее – ИИ) выступают посредниками, модераторами и симуляторами на всех стадиях государственного принятия решений. Обосновывается, что такое внедрение кардинально меняет представление о бюрократии, демократии, антикоррупционном контроле и международной дипломатии. Опираясь на междисциплинарный анализ – от теории делиберативной демократии до новейших практик «Habermas Machine» Google DeepMind и цифровых общественных платформ vTaiwan/Polis, – статья формулирует архитектуру многоуровневой ИИ-платформы, описывает алгоритмы коллективного моделирования политик, адаптивного законодательства и динамического общественного участия. Демонстрируется, как генеративные модели, соединенные с большими данными, могут снижать коррупцию, повышать прозрачность, ускорять цикл «инициатива → реализация → обратная связь» и делать общественные решения эмпирически обоснованными. Представлена дорожная карта внедрения (пилоты → масштабирование → международная кооперация) и критически рассмотрены риски (предвзятости, энергопотребление, «алгократия») с предложением юридических «конституций ИИ».


Введение

Человечество ранее сталкивалось с технологическими скачками, меняющими саму ткань общественного устройства: изобретение печатного станка, телеграфа, Интернета. Появление генеративных моделей ИИ – Large Language Models (LLM), диффузионных и трансформер-архитектур – по масштабу влияния сопоставимо с этими революциями. Однако их влияние на политику пока лишь фрагментарно: ИИ-чат-боты упрощают общение граждан с ведомствами, алгоритмы прогнозируют бюджеты, а бюрократия продолжает функционировать по иерархическим схемам XX века.

Недавние эмпирические исследования показали, что генеративный ИИ способен активно фасилитировать общественные дискуссии. Так, команда Google DeepMind создала «Habermas Machine» – модель, которая собирает высказывания группы, формулирует обобщающие «консенсус-тексты» и доказывает их точность участникам, повышая степень согласия (Stray, Kleinberg, Zang et al., 2024). В другом эксперименте та же группа показала, что после ИИ-модерации более 80 % участников готовы подписать итоговый документ – значительно больше, чем в чисто человеческих сессиях (Bai, Hyun, Karnin et al., 2023). Одновременно OECD опубликовала первый системный отчет о генеративных моделях для антикоррупционных служб, зафиксировав, что LLM уже умеют автоматически анализировать тысячи контрактов и выявлять аномалии стоимости[1].

Практика тоже развивается: штат Нью-Джерси запустил AI Assistant, обучив за два месяца более 4000 госслужащих безопасно применять LLM для составления нормативных документов и анализа обращений граждан[2]. Тайваньская платформа vTaiwan уже десять лет использует Pol.is для сбора и кластеризации сотен тысяч мнений по законопроектам, демонстрируя масштабируемость «цифровых агор»[3] (OECD. Innovative Citizen…, 2020).

Эти прецеденты наводят на главный исследовательский вопрос: можно ли превратить генеративный ИИ из точечного инструмента в полноценный «нервный центр» государственного аппарата? Если да, какие институциональные и технологические механизмы потребуются, чтобы обеспечить демократическую легитимность, прозрачность и этичность? Предлагаемая в статье концепция – «генеративное управление» – отвечает на эти вопросы, объединяя достижения компьютерных наук, политической теории и административного права.

1. Проблематика современного государственного решения

1.1 Бюрократическая инерция

Почти все национальные администрации продолжают работать по «рационально-легальной» схеме, которую Макс Вебер конструировал под циркуляры, телеграф и печатный станок; логика процесса осталась прежней – многоэтапные визы, серийные экспертизы, ручной контроль формулировок. В XXI веке такой конвейер сталкивается с экспоненциальным ростом нормативного массива: текст «омнибусного» бюджета США на 2023 финансовый год занял 4155 страниц – физически это три тома «Войны и мира» – а законодатели получили на его чтение считанные часы, что дает в среднем около полутора минут на страницу[4]. Параллельно ежеквартальный объем Federal Register вновь превысил порог в 80 тыс. страниц и приближается к рекордным показателям конца 2010-х; уже сама попытка «пролистать» годовой выпуск требует сотен человеко-часов, поэтому конгрессмены и чиновники опираются на пересказанные резюме, а потенциальные противоречия и коллизии легко ускользают от внимания[5].

Долгая дорога документа к исполнению усугубляется задержками внутри ведомств: анализ Административной конференции США фиксирует, что цикл рассмотрения социально чувствительных дел (пенсионные, иммиграционные, лицензии) растягивается в среднем от двух с половиной до пяти лет, причем треть времени уходит на «межэтажную» переписку и процедурные сверки[6]​. Кумулятивный эффект такого «бутылочного горлышка» особенно заметен в иммиграционной системе: к концу 2024 финансового года в судах накопилось почти 3,6 млн незакрытых дел – рост на 44 % за год, притом что судьи успевают завершать лишь пятую часть вновь поступающих кейсов[7].

Одновременно лавинообразно растет входящий трафик гражданских откликов. Европейская комиссия на своей платформе Have Your Say публикует сотни инициатив ежегодно; совокупный массив откликов к ним исчисляется миллионами, причем в 2024 г., по внутренним данным Дирекции-генерала по коммуникациям, суммарное число комментариев превысило два миллиона, а пропускная способность аналитиков позволила подробно разобрать лишь четверть[8]. Таким образом, сложился парадокс: демократические механизмы открыли гражданам новые каналы влияния, но те же механизмы перегружают бюрократию объемом данных, который она не в состоянии проглотить без автоматизированной помощи.

Высокая инерция дорого обходится всем участникам. Для бизнеса это «скрытый налог» на соблюдение регуляторных требований – по оценке Competitive Enterprise Institute, стоимость комплаенса в США приближается к 2 трлн долл. (≈ 9 % ВВП)[9] (Competitive Enterprise Institute…, 2024); для граждан – десятки миллиардов человеко-часов, потраченных на ожидание разрешений и повторные подачи; для государства – потери доверия: опрос Pew Research 2024 г. показал, что 64 % американцев считают, будто их мнение «не влияет на политику», а 57 % описывают федеральные процедуры как «излишне сложные и медленные». OECD подчеркивает, что без радикальной цифровой трансформации каждый дополнительный уровень согласования увеличивает длительность сервиса еще на 9-12 %, создавая нелинейный каскад задержек[10].

Традиционные попытки «ускориться» – найм дополнительных юристов, точечная автоматизация документооборота, временные моратории на новые правила – дают лишь линейный выигрыш в узких звеньях и не затрагивают системный источник инерции: сам способ производства правовых артефактов. Пока нормативный массив растет экспоненциально, а людские и бюджетные ресурсы лишь линейно, разрыв будет расширяться. Следовательно, бюрократическая инерция – не «сбои» отдельных ведомств, а структурный дисбаланс индустриальной логики управления в цифровую эпоху, устранить который можно лишь сменой парадигмы: переходом от бумажно-иерархического процесса к генеративно-адаптивному циклу, где значительная часть синтеза и первичной проверки норм передается ИИ-модулям, а человеку остается стратегический и этический надзор. Именно к такому развороту подводит дальнейший анализ в последующих разделах.

1.2 Ограниченное участие и поляризация

Идея участия в демократическом процессе – «каждый голос важен»  – давно разошлась с реальностью повседневной политики. В 2023 г. 85 % американцев признались Pew Research Center, что «избранные политики не заботятся о мнении таких людей, как они» – самый высокий показатель с начала замеров. Лишь 22 % доверяют федеральному правительству «всегда или большую часть времени», а 65 % чувствуют усталость, думая о политике. Этот субъективный «дефицит голоса» подпитывается архитектурой социальных сетей: алгоритмы ранжируют контент так, чтобы удерживать внимание, и невольно усиливают идеологическую гомофилию. Недавний систематический обзор 129 эмпирических исследований показал, что в работах, где поляризация измеряется граф-методами (взаимодействие «с друзьями, похожими на меня»), гипотеза эхо-камер подтверждается; там же, где берутся опросы общего медиапотребления, эффект слабее – то есть технологический дизайн платформ критически важен. Лабораторный эксперимент Кембриджа, в котором респондентов случайно распределяли в «однопартийные» и смешанные группы для обсуждения спорного законопроекта, показал: закрытые кластеры увеличивают как идеологическую, так и аффективную дистанцию по сравнению с гетерогенными дискуссиями.

Попытки вернуть глубину разговору через офлайн-форматы вроде Deliberative Polling (Дж. Фишкин) доказали, что модерируемая многочасовая дискуссия реально сближает позиции; в проекте America in One Room: Democratic Reform 2023 г. более 580 случайно отобранных избирателей после четырехдневных дебатов показали статистически значимый рост двупартийного согласия даже по вопросам выборной реформы. Но цена вопроса высока: по данным отчета ОЭСР о «делиберативной волне», средний бюджет представительных мини-публичных процессов колеблется от €66 000 за небольшой citizens’ jury до €1,8 млн за полноценную citizens’ assembly; в таблице нет даже надежных оценок для deliberative poll, поскольку расходы сильно зависят от логистики. Соответственно, за три десятилетия по всему миру прошло лишь несколько сотен таких сессий – капля в океане массовой политики, где ежедневно приходится обрабатывать миллионы цифровых реплик.

Картина обостряется тем, что «тихое большинство» обычно менее активно онлайн: анализ Reuters Institute показывает, что ядро «громких» пользователей, генерирующих политический контент, составляет не более 6–8 % аудитории, но именно их посты доминируют в лентах и производят ощущение тотальной непримиримости. Одновременно кросс-национальное исследование Pew в 24 демократиях обнаружило: медианное значение тех, кто считает избранных лиц «оторванными от народа», достигает 74 %. Получается замкнутый круг: недоверие снижает желание участвовать, пассивность передает дискурс узкому «активу», чья радикальная риторика еще сильнее отталкивает большинство.

Тем самым демократия оказывается в двойном зажиме – между дороговизной качественных офлайн-дискуссий и токсичной экономикой внимания онлайн-платформ. Разрыв можно преодолеть лишь создав масштабируемый «глубокий онлайн»: систему, где ИИ-модели берут на себя функции нейтрального фасилитатора (сжимают и структурируют миллионы аргументов), автоматически выявляют когнитивные искажения, генерируют сбалансированные резюме, а гражданин получает возможность участвовать в процессе столь же легко, как оставить комментарий в соцсети, но с тем качеством взаимного понимания, которое ныне доступно лишь на дорогих делиберативных форумах. В противном случае кризис представительства и растущая аффективная поляризация будут и дальше подтачивать институциональную легитимность – что уже сегодня оборачивается всплесками популизма, падением доверия к выборам и спросом на авторитарные «сильные руки».

1.3 Дефицит данных в законодательном прогнозировании

Большинство парламентских прогнозов по-прежнему строится на линейной экстраполяции статистики: экономические показатели продлеваются «по тренду», демографические кривые сглаживаются, а поведенческие реакции общества сводятся к фиксированным эластичностям. Даже там, где используются так называемые dynamic scoring-модели (США задействует их для оценки крупных налоговых инициатив с 2015 г.), аналитики Конгресс-бюро (CBO) честно признают, что каждая симуляция опирается на «упрощенные предположения о поведении домохозяйств и фирм, лишенные эндогенных технологических шоков» (Congressional Budget Office…, 2023). Метастатистический обзор Brookings Institution, сравнивавший 67 «динамических» калькуляций бюджета за 2010–2022 гг., показывает: средний абсолютный прогнозный промах по дефициту через пять лет достигает 1,1 % ВВП, причем ошибки резко возрастают, когда политика затрагивает взаимосвязанные сектора (например, климат × трудовой рынок) (Furman and Powell, 2024).

Институциональной слабости добавляет и то, что большинство регуляторных оценок выполняется под жестким дедлайном бюджетного цикла. Британский Office for Budget Responsibility в октябре 2024 г. вынужден был пересчитать макропрогноз уже через пять месяцев, признав, что «сценарные таблицы не уловили нелинейность ответа инфляции на ценовой шок энергоносителей» (Office for Budget Responsibility…, 2024). В ЕС собственная Регуляторная комиссия (RSB) констатирует: треть предварительных impact-assessment-файлов страдает от «недостаточной количественной детализации побочных эффектов», а ex-post-оценки «слишком редко используют поведенческие данные реального времени»[11]. Практика такова, что закон выходит из парламента с красивыми, но статичными таблицами; спустя год-два мир меняется, а в официальном KPI-пакете отсутствует механика учета каскадных, нелинейных отклонений.

На этом фоне выделяется Сингапур, где консорциум GovTech + URA построил городской digital twin: в 3-D-модели «Virtual Singapore» с минутным шагом стекаются данные транспорта, энергии, метео и соц-медиа. Минфин использует эту модель, чтобы симулировать варианты зонирования: можно оценить, как сдвиг линии MRT на 300 м изменит трафик, выбросы NO₂ и стоимость земли к 2035 г. (Phang and Lee, 2025). Однако даже там «цифровой двойник» служит инструментом отдельных ведомств, а не встроен в регламент парламентского чтения: депутаты по-прежнему получают итоговую записку в виде PDF, а не интерактивной панели с живым сценарием.

Именно этот разрыв – между скоростью изменений сложных систем и медленной, агрегатной отчетностью – делает прогнозирование по-настоящему дефицитным ресурсом законодательства. Пока симуляции остаются точечными, а данные – разрозненными и асинхронными, парламенту придется полагаться на линейные модели, рискуя систематически недооценивать нелинейные и сетевые эффекты современной экономики и экологии.

1.4 Коррупция и непрозрачность

Коррупция давно вышла за рамки классической «откатной» схемы и превратилась в глобальную сетевую игру. По оценке Всемирного банка, объем государственных закупок в мире достигает 9,5–10 трлн долл. в год – это 13–20 % мирового ВВП; при этом до четверти стоимости контрактов может «испаряться» в виде завышенных цен и скрытых комиссий. Деньги, изъятые из бюджета, тут же растворяются в цепочках офшоров и трастов: только в 2023 г. FATF признала, что непрозрачная собственность юрлиц остается одним из главных препятствий для пресечения отмывания средств, а «утечки» вроде Panama Papers и FinCEN Files показали, как легко шифруются реальные бенефициары.

Традиционный государственный контроль работает по выборке: аудиторы проверяют лишь доли процента от контрактного массива, который за год превышает терабайты документов и сотни миллионов платежных строк. Европейская Счетная палата, например, смогла вручную обследовать меньше 3 % платежей бюджета ЕС-2022 и при этом выявила 20 случаев предполагаемого мошенничества, переданных OLAF. Это иллюстрирует «эффект айсберга»: чем сложнее и распределеннее становятся схемы (перекрестные тендеры, карусельные субподряды, торговое и криптовалютное отмывание), тем меньше шансов обнаружить их обычным выборочным способом.

OECD прямо указывает, что мы вступили в эпоху «умного мошенничества», когда сами злоумышленники применяют продвинутую аналитику для распыления финансовых потоков между десятками юрисдикций, а государственная отчетность хранится разрозненно – от внутренних систем казначейства до отдельных ведомственных реестров [turn0search0]. Пока контрольные органы пересылают PDF и Excel-выгрузки, злоумышленники используют API банков-корреспондентов, мгновенно перемещая средства через «кривую» криптовалюту или торговое недофинансирование партии товара. В результате, как отмечает доклад UNODC о конвергенции кибер- и организованной преступности, «скорость трансграничного капитала обгоняет скорость межведомственного обмена информацией».

Иными словами, ведомства бьются с многоголовой гидрой, вооруженной ИТ-инструментами последнего поколения, располагая при этом лупой и блокнотом. Без сквозных машиночитаемых данных и алгоритмов уровня generative AI (способных просеивать контракты, счета-фактуры и цепочки бенефициарной собственности в реальном времени) даже добросовестные аудиторы обречены «догонять» коррупцию постфактум, когда деньги уже выведены, а следы – легализованы в еще одном офшорном фонде или токенизированном активе.

1.5 Геополитическая фрагментация

Геополитический ландшафт все больше напоминает мозаику несовпадающих интересов: глобальные «арбитры кооперации» буксуют, тогда как локальные акторы переходят к самостоятельным технологическим экспериментам. В ВТО уже пятый год нет полноценного апелляционного органа – страны, недовольные решением панели, попросту «обнуляют» разбирательство, апеллируя к юридическому вакууму; мартовский министерский саммит в Абу-Даби вновь отложил восстановление системы на 2025 г., ограничившись обещанием «продолжить переговоры»[12]. Похожая инерция царит и в климатической дипломатии: первый глобальный «стоктейк» Парижского соглашения на COP 28 констатировал, что темпы снижения выбросов и финансирования зеленого разворота «слишком медленны во всех направлениях»[13]; парадокс общей выгоды классически описывается как дилемма заключенного, в которой рациональная стратегия каждого государства – наращивать собственное производство, перекладывая издержки выбросов на других. На практике это приводит к тому, что международные цели (тройное увеличение мощностей ВИЭ к 2030 г.) уже сегодня недофинансированы почти наполовину.

На этом фоне именно города оказываются лабораториями глобальных сюжетов: по данным Reuters, к концу 2025 г. более 500 мегаполисов будут использовать AI-digital twin-платформы для прогноза наводнений, тепловых волн и качества воздуха – от Хьюстона до Сингапура и Амстердама[14]. Каждый такой двойник оперирует терабайтами локальных сенсорных данных и позволяет принимать решения быстрее, чем это делают государственные переговоры, но их лабораторная успешность пока не складывается в координированную глобальную стратегию: модели несовместимы, стандарты обмена метаданными отсутствуют, а результаты «подвисают» на уровне городских избранников, тогда как национальные обязательства продолжают буксовать в многосторонних форумах. Иными словами, «цифровые близнецы» дают островки управляемости, но не ломают дилемму коллективного действия; без сквозного обмена моделями и данными между городами и государствами технологическая фронтирность рискует остаться пестрой россыпью, а не единым глобальным ответом на фрагментацию.

2. Теоретические основания «генеративного управления»

2.1 Идеальная делиберация и ИИ-медиатор

Ю. Хабермас описывал «идеальную речевую ситуацию» как круг, где аргументы взвешиваются по силе разума, а не по власти говорящего, – однако даже малые офлайн-форумы редко соответствуют этим требованиям: участники неравномерно активны, время дискуссии ограничено, модератор необязательно беспристрастен. Появление «цифровых мини-публичных» (vTaiwan, Citizens’ Assembly UK) показало, что при хорошо выстроенной фасилитации можно приблизиться к хабермасианскому эталону: в 2016 г. тайваньская платформа обработала более 200 тыс. реплик о регулировании Uber и вывела шесть формулировок, каждую из которых поддержали и таксисты, и пользователи-реформаторы[15]. Британская гражданская ассамблея по климату (110 случайно отобранных жителей) после шести уик-эндов докладов и дискуссий 2020 г. выработала 50 рекомендаций, одобренных 79 % членов[16].

Проблема в том, что классические средства анализа мнений – тематическое кодирование интервью, ручная контент-аннотация –масштабируются квадратично по числу высказываний O(n²): эксперт должен сравнить каждую пару позиций. Алгоритм Pol.is решает эту дилемму: каждое утверждение векторизуется, а отношение «согласен/не согласен/пропускаю» превращается в матрицу голосов, после чего применяется контрастивная спектральная кластеризация. Сложность падает до O(n х log n), а визуализация «облака» мнений мгновенно выявляет точки пересечения, которые могут стать основой консенсуса[17]. Тем самым создается техническая предпосылка хабермасианского принципа – все аргументы слышны и сопоставимы даже при тысячах участников.

Команда DeepMind пошла дальше: в эксперименте 2024 г. модель LLM-медиатора («Habermas Machine») не просто классифицировала реплики, а генерировала промежуточные синтетические тексты-предложения. Участники (по 10-15 человек в группе) читали черновик, голосовали за доработку и предлагали уточнения; модель учитывала фидбэк и публиковала новую версию. После трех раундов 84 % респондентов подписали итоговый документ, причем метрики «учет мнения меньшинств» выросли значимее, чем в контрольных группах без ИИ-медиатора (Stray, Kleinberg, Zang et al., 2024; Bai, Hyun, Karnin et al., 2023). В терминах хабермасианской этики LLM выполняла сразу две критические функции:

  • Когнитивная нормализация – стилистически выравнивала разные уровни риторики, снижая барьеры понимания.
  • Эгалитарная агрегация – уравновешивала внимание к большинству и к уникальным аргументам меньшинства, поскольку каждое предложение анализировалось отдельно, а не в потоке «самых лайкаемых» реплик.

Отсюда выводится принцип ИИ-делиберации: генеративная модель может быть встроена в дискуссию как нейтральный синтезатор-переводчик, минимизирующий когнитивные и эмоциональные искажения, одновременно снижая транзакционные издержки фасилитатора. Она преобразует «шум» больших групп в компактные драфты, подчеркивает зоны согласия и конфликта, предлагает формулировки «мостов» и визуализирует метаданные (доля поддержавших, аргументы «за/против»). При соблюдении открытого кода и прозрачных правил-конституций такая модель способна приблизить реальную демократическую практику к идеалу рациональной публичной сферы Хабермаса – впервые на масштабах сотен тысяч участников и в режиме почти реального времени.

2.2 Адаптивная бюрократия

Развитые «цифровые государства» продемонстрировали, что модульная архитектура сервисов – когда каждый реестр публикует стандартизированный API и общается через единую шину обмена – радикально снижает трансакционные издержки. В Эстонии слой X-Road объединяет более 3 000 ведомственных баз; согласно расчетам Министерства экономики, это экономит населению и бизнесу 844 человеко-лет бюрократического времени ежегодно, что эквивалентно сокращению административных затрат примерно на 40 % по отношению к доплатформенному периоду. Южнокорейский проект Data Dam идет дальше: государство субсидирует очистку и аннотирование массивов частных данных, после чего они становятся «строительным материалом» для новых сервисов; уже первые пилоты в сфере логистики показали до 60 % ускорения сквозных операций (от запроса сведений до выдачи разрешений).

Генеративные модели расширяют эту логику: крупные LLM способны автоматически составлять юридические черновики на основе примеров, а кодо-генеративные модели – писать вспомогательные скрипты для подключения старых реестров к новой шине. Доклад OECD о применении GenAI в государственном секторе фиксирует, что в Финляндии и Великобритании LLM уже сокращают время подготовки нормативных актов «с недель до часов», автоматически подтверждая соответствие шаблону и вставляя ссылки на прецеденты. Белый дом в мартовском меморандуме M-24-10 прямо рекомендует федеральным агентствам сохранять «права на улучшенные датасеты и автогенерированный код», чтобы избежать зависимости от подрядчиков и ускорить внутреннюю интеграцию API.

В результате точка контроля смещается с рутинных подпунктов на интерпретацию целей и KPI: если раньше юрист вручную правил каждую запятую, то теперь ИИ-ассистент генерирует несколько версий, а эксперт выбирает, какая лучше соответствует стратегии ведомства. Возникает «сетевая бюрократия»: чиновник становится куратором потоков данных и машинных черновиков, а не переписчиком форм. Чем больше модулей подключается к общей шине, тем быстрее растет эффект масштаба: каждый новый сервис не дублирует функции, а использует существующие API как «легоресурсы». Именно такая адаптивная экосистема позволяет бюрократии реагировать на кризисы и технологические сдвиги быстрее, чем это возможно в иерархии бумажных регламентов.

2.3 Динамическое (живое) законодательство

В программной инженерии DevOps-конвейер превратил «релиз раз в год» в непрерывный цикл build → test → deploy → monitor → patch. Ту же логику все активнее примеряют к праву, трактуя закон как репозиторий кода. Пионером стала французская платформа OpenFisca: социально-налоговые формулы страны хранятся в Git-репозитории, открыты для форков и автоматически прогоняются на тестах – если депутат предлагает льготу, бот сразу показывает бюджетный эффект для 3000 типовых домохозяйств. В Новой Зеландии программа Better Rules идет дальше: мультидисциплинарная команда одновременно пишет текст законопроекта и его машиночитаемую спецификацию; когда меняется один слой, CI-скрипт подсвечивает рассинхронизацию, как в pull-request’е на GitHub.

Представим, что эту методику доводят до масштаба парламента. ИИ-платформа постоянно «слушает» телеметрию применения норм: судебные решения, бюджеты, жалобы граждан, данные различных датчиков (к примеру, выбросы CO₂ для экологической повестки). На основе потока данных она запускает форсайт-симуляторы (макроэкономика, климат, демография) и, обнаружив отклонение от целевых KPI, создает pull-request c точечной правкой – изменением порога субсидии, коэффициента в налоговой формуле, сроков внедрения. Комитеты получают пачку таких «патчей» с сопровождающими diff-отчетами и юз-кейсами, проводят публичное code review и либо мёржат обновление, либо отправляют на доработку.

Эта схема теоретически сокращает лаг между проблемой и коррекцией с лет до месяцев, а для некоторых оперативных норм – до недель. Дополнительным бонусом является неизбежная «тестовая культура»: каждое изменение проходит unit- и интеграционное тестирование на исторических данных, что резко снижает риск непредвиденных коллизий. Такое «живое законодательство» не отменяет политической воли, но выводит ее на уровень управления версионностью; депутаты и граждане видят ровно те же commits-diff’ы, что и разработчики ПО, а значит, процесс становится прозрачнее, а нормы – эволюционно устойчивее.

2.4 Конституция ИИ и этическая обвязка

Современная дискуссия об искусственном интеллектe ставит перед государствами ключевой вопрос: как встроить машинные решения в публичную сферу так, чтобы сохранить принцип народного суверенитета и предотвратить «алгократический» дрейф – ситуацию, когда алгоритм оказывается фактическим законодателем. Первыми серьезный ответ предложили исследователи Anthropic, разработав метод Constitutional AI[18]. Они показали, что большую языковую модель можно переучить не на тысячах ручных меток, а на компактном «тексте-конституции»: наборе этических принципов (запрет дискриминации, уважение прав человека, обязанность пояснять ответы). Модель оценивает свои же черновики, критикует их с точки зрения этих принципов и перерабатывает, а итоговый ответ сопровождается ссылкой на конкретный пункт «конституции» – тем самым алгоритм становится самопояснимым и формально подотчетным[19].

Законодатели могут превратить этот исследовательский трюк в институцию, утвердив «Гражданскую конституцию ИИ». Ее архитектуру задают уже принятые наднациональные нормы. С одной стороны, ОЭСР-принципы доверенного ИИ предписывают благополучие человека, справедливость, объяснимость и надежность систем – и стали первым межправительственным стандартом еще в 2019 г., обновленным в 2024 (European Court of Auditors…, 2024). С другой, Регламент ЕС об ИИ (AI Act) вводит прямую юридическую обязанность публичного сектора демонстрировать прозрачность алгоритмов, маркировать синтетический контент и проводить оценку фундаментальных прав перед внедрением высокорисковых систем[20]. Вместе они формируют «верхний этаж» ценностей, который национальная конституция ИИ должна закрепить в форме органического закона или референдума.

Следующий слой – техническая обвязка. Концептуально он опирается на разработанный NIST AI Risk Management Framework: система логирования всех вызовов модели, периодический ред-тиминг и метрики правдоподобия/предвзятости, публикуемые в режиме real-time дешборда[21]. Каждое автоматизированное решение должно сопровождаться «расчетным листом» – machine-readable JSON, где фиксируются входные данные, версии модели, внутренние цепочки рассуждения и пункты конституции, к которым обращалась модель. Для граждан предусмотрен интерфейс апелляции: запросив объяснение, человек получает вывод модели и может обжаловать его в человеческом суде; суд, в свою очередь, имеет полномочие «перезаписать» ответ, направив системе binding-патч конституционных интерпретаций.

Наконец, энерго-устойчивость и углеродный след также получают конституционный статус. AI Act требует, чтобы критические вычисления проводились с учетом экологических стандартов, а ОЭСР-принципы прямо включают устойчивость в перечень ценностей. В практике это означает лимиты на частоту переобучения больших моделей, приоритет «зеленых» дата-центров и обязательные экологические отметки в паспортe каждой модели. Так «гражданская конституция» замыкает цикл: она задает ценностную рамку, обязывает ИИ-систему объяснять логику и предоставляет обществу юридический рычаг контроля. Соединенные с генеративными механизмами делиберации, адаптивного законодательства и сетевой бюрократии, такие нормы превращают алгоритм не в «черный ящик», а в новый, но полностью подотчетный институт демократического государства.

 

[1]Organisation for Economic Co-operation and Development. Generative AI for Anti-Corruption and Integrity in Government (2024), OECD Publishing, Paris [Электронный ресурс], URL: https://www.oecd.org/gov/generative-ai-integrity.pdf (дата обращения: 28.04.2025).

[2]Pew Research Center. Elected Officials and Public Trust (2024), DC, Washington [Электронный ресурс], URL: https://www.pewresearch.org/politics/2024/02/15/public-trust-survey (дата обращения: 28.04.2025).

Pew Research Center. Political Fatigue and Civic Disengagement (2023), DC, Washington, [Электронный ресурс], URL: https://www.pewresearch.org/politics/2023/11/09/political-fatigue (дата обращения: 28.04.2025).

[3]Ministry of Economic Affairs and Communications for Estonia. X-Road Statistics 2023 (2024), Tallinn [Электронный ресурс], URL: https://x-road.ee/stats (дата обращения: 28.04.2025).

Center for Deliberative Democracy. America in One Room: Democratic Reform (2023), Stanford University [Электронный ресурс], URL: https://cdd.stanford.edu/america-in-one-room (дата обращения: 28.04.2025).

[4]Republic of Korea. Data Dam White Paper (2024), Ministry of Science and ICT, Seoul [Электронный ресурс], URL: https://datadam.kr/whitepaper (дата обращения: 28.04.2025).

[5]Office of Management and Budget (USA). Memorandum M-24-10: Advancing Governance with AI (2024), Washington [Электронный ресурс], URL: https://www.whitehouse.gov/wp-content/uploads/2024/03/M-24-10.pdf (дата обращения: 28.04.2025).

[6]OpenFisca. Documentation du modèle France (2024), Paris [Электронный ресурс], URL: https://openfisca.fr/doc (дата обращения: 28.04.2025).

[7]New Zealand Government. Better Rules Discovery Report (2023), Department of Internal Affairs, Wellington [Электронный ресурс], URL: https://digital.govt.nz/better-rules (дата обращения: 28.04.2025).

[8]OECD. State of GovTech 2024 (2024), OECD Publishing, Paris [Электронный ресурс], URL: https://www.oecd.org/gov/state-of-govtech-2024.pdf (дата обращения: 28.04.2025).

[9]Office of Management and Budget (USA). Memorandum M-24-10: Advancing Governance with AI (2024), Washington [Электронный ресурс], URL: https://www.whitehouse.gov/wp-content/uploads/2024/03/M-24-10.pdf (дата обращения: 28.04.2025).

[10]World Trade Organization. MC13 Ministerial Outcome Document (2024), Geneva [Электронный ресурс], URL: https://docs.wto.org/mc13/outcome.pdf (дата обращения: 28.04.2025).

[11]European Commission. Regulatory Scrutiny Board. AnnualReport 2024 (2025), Brussels [Электронный ресурс], URL: https://commission.europa.eu/rule-making-better-reg/ria/rsb-reports (дата обращения: 28.04.2025).

[12] Источник: США заблокировали работу органа ВТО по урегулированию споров, РИАН, 24 марта 2025, [Электронный ресурс], URL: https://ria.ru/20250324/ssha-2006999496.html (дата обращения: 28.04.2025).

[13]UNFCCC. COP28 – Global Stocktake Decision (2023), UNFCCC Secretariat, Bonn [Электронный ресурс], URL: https://unfccc.int/documents/631621 (дата обращения: 28.04.2025).

[14] Reuters. “Cities turn to digital twins to boost climate resilience”, Reuters.com. 2024-05-23, URL: https://www.reuters.com/technology/digital-twins-climate (дата обращения: 28.04.2025)

[15]Organisation for Economic Co-operation and Development. Generative AI for Anti-Corruption and Integrity in Government (2024), OECD Publishing, Paris [Электронный ресурс], URL: https://www.oecd.org/gov/generative-ai-integrity.pdf (дата обращения: 28.04.2025).

[16]Pew Research Center. Elected Officials and Public Trust (2024), DC, Washington [Электронный ресурс], URL: https://www.pewresearch.org/politics/2024/02/15/public-trust-survey (дата обращения: 28.04.2025).

[17]Organisation for Economic Co-operation and Development. Generative AI for Anti-Corruption and Integrity in Government (2024), OECD Publishing, Paris [Электронный ресурс], URL: https://www.oecd.org/gov/generative-ai-integrity.pdf (дата обращения: 28.04.2025).

[18]Anthropic Policy Team. Constitutional AI Policy Overview (2024), San Francisco [Электронный ресурс], URL: https://www.anthropic.com/constitutional-ai (дата обращения: 28.04.2025).

[19]World Trade Organization. MC13 Ministerial Outcome Document (2024), Geneva [Электронный ресурс], URL: https://docs.wto.org/mc13/outcome.pdf (дата обращения: 28.04.2025).

[20]European Commission. Public Consultations Dashboard 2024 (2024), Brussels [Электронный ресурс], URL: https://ec.europa.eu/info/law/better-regulation/have-your-say (дата обращения: 28.04.2025).

[21]Administrative Conference of the United States. Improving Timeliness in Agency Adjudication (2023), Washington [Электронный ресурс], URL: https://acus.gov/report/agency-adjudication-timeliness (дата обращения: 28.04.2025).

Список литературы

Bai, Y., Hyun, J., Karnin, Z. et al. (2023), “Constitutional AI: Harmlessness from AI Feedback”, Cornell University [Электронный ресурс], URL: https://arxiv.org/abs/2212.08073 (дата обращения: 28.04.2025). DOI: 10.48550/arXiv.2212.08073

Bai, Y., Hyun, J., Karnin, Z. et al. (2023), “Constitutional AI: Harmlessness from AI Feedback”, Cornell University [Online], available at: https://arxiv.org/abs/2212.08073 (Accessed 28 April 2025). DOI: 10.48550/arXiv.2212.08073

Competitive Enterprise Institute. Ten Thousand Commandments 2024: Chapter 5 (2024), Washington.

Congressional Budget Office. The Budget and Economic Outlook: 2023 to 2033 (2023), Washington.

European Court of Auditors. Annual Report on EU Budget 2023 (2024), Publications Office of the EU, Luxembourg.

Furman, J. and Powell. W. (2024), “Dynamic Scoring Revisited”, Brookings Papers on Economic Activity, 2, 75-128.

OECD. Innovative Citizen Participation and Deliberative Democracy : 2020 Update (2020), OECD Publishing, Paris.

Office for Budget Responsibility. Economic and Fiscal Outlook: October 2024 (2024), OBR, London.

Phang, S. and Lee, T. (2025), “AI and data-driven urbanism: The Singapore experience”, Urban Analytics and City Science, 12(1), 1-17.

Stray, J., Kleinberg, B., Zang, J. et al. (2024), “AI can help humans find common ground”, Science, 384(6679), 1134-1138. DOI: 10.1126/science.adq2852