СМИ: Власти обсуждают изменение избирательного законодательства в России

02.02.2026

Как передает Icma.az, со ссылкой на сайт Caliber.az.

Во внутриполитическом блоке администрации президента (АП) начали обсуждать возможность регулирования нейросетей перед предстоящей осенью кампании по выборам депутатов Госдумы. Об этом «Ведомостям» сказали три источника, близких к АП. Поправки в избирательное законодательство могут быть внесены весной и коснуться использования искусственного интеллекта (ИИ) в агитации, рассказывают собеседники «Ведомостей».

Сейчас собираются предложения от разных структур по этой тематике, свои идеи есть и у Центризбиркома (ЦИК), говорит один из источников. По его словам, довольно сложно найти подходящие формулировки для регулирования ИИ, в том числе для избирательного законодательства. В настоящий момент оно никак не затрагивает этот вопрос.

Поправки в избирательное законодательство вносятся до официального объявления выборов. Тогда они действуют уже во время текущей кампании. Например, нынешние выборы депутатов Госдумы вероятней всего назначат со 2 по до 22 июня (110–90 дней до дня голосования, которым является третье воскресенье сентября), а значит, законодателям надо успеть с изменениями до этого момента.

Впрочем, говорят собеседники «Ведомостей», поправки стоит ждать весной.

Глава ЦИК Элла Памфилова в июле 2025 г. отмечала, что парламентариям надо разработать законодательные рамки для применения технологий ИИ в избирательном процессе. По ее словам, создание дипфейков становится одним из рисков для кампаний.

Регулирование ИИ, в том числе на выборах, «не должно мешать развитию самой технологии», говорит федеральный чиновник. В этом уверен и еще один собеседник «Ведомостей», который напомнил, что в ближайшее время по поручению президента заработает штаб по развитию ИИ, который будет координировать его внедрение в России.

О том, что необходимо его создание, «если мы хотим, чтобы эта работа шла уверенно», говорил президент Владимир Путин в ноябре 2025 г.

В связи с этим, предполагает один из собеседников «Ведомостей», поправки не должны быть направлены против новых технологий, но они могут описать правила их использования, в том числе маркировки в агитации. Именно это является основным предметом обсуждения в контексте выборов, говорит источник «Ведомостей» в системе избирательных комиссий. 

Зарубежный опыт использования нейросетей в политической агитации, отмечает собеседник в Госдуме, изучала и думская межфракционная рабочая группа по ИИ. Там пришли к выводам, что эти аспекты регулируются общими документами.

Прошлые региональные выборы показали необходимость регулирования этой сферы, говорит один из собеседников «Ведомостей». 

В 2025 г. во время кампании в соцсетях распространялись ролики с изображениями действующих глав регионов, созданные нейросетями. В частности, в роликах были люди, похожие на глав Краснодарского и Пермского края Вениамина Кондратьева и Дмитрия Махонина, врио губернаторов Свердловской области и Коми Дениса Паслера и Ростислава Гольдштейна. Все они участвовали в качестве кандидатов в выборах. Официально штабы кандидатов не подтверждали, что эти ролики были ими созданы.

В конце октября 2025 г. Второй апелляционный суд, рассматривавший спор между челябинским обкомом КПРФ и избиркомом региона по поводу сгенерированной ИИ листовки, пришел к выводу, что использование в предвыборной агитации изображений людей, созданных с помощью нейросетей, противоречит закону. До этого Челябинский областной суд встал на сторону коммунистов, посчитав, что запрет на изображение физлиц, не являющихся кандидатами, распространяется только на реальных людей. Но апелляция решение отменила. В конце декабря коммунисты подали жалобу в Верховный суд.

Регулирование ИИ – это вопрос времени, но все попытки пока наталкиваются на слабую применимость прямых запретов к этой сфере, говорит юрист Олег Захаров. Самая очевидная мера – маркировка ИИ-контента – слабо защищена от нарушения, приводит он пример: «Если аналогичной обязательной маркировки нет на продуктах или на агитационных листовках, их так или иначе можно изъять из оборота и наказать тех, кто их распространяет. А что делать с созданным ИИ видеороликом с дипфейком, компрометирующим политика, как его запретить и пресечь распространение?» 

Ранее с теми же сложностями государство столкнулось, пытаясь «зачистить» YouTube, в итоге за невозможностью изъятия отдельных роликов пришлось блокировать весь сервис, напоминает он. 

В этих условиях «строгость запретов будет нивелирована необязательностью их исполнения в связи с отсутствием реального механизма ответственности», считает Захаров. Но постепенно ограничения в сфере предвыборной агитации будут вводиться, полагает он: «Например, можно ожидать появления запрета на ИИ в агитации или использование нейросетей на выборах только с указанием дополнительных «выходных данных» об этом. Неуказание сведений об использовании ИИ, если такое требование будет введено, можно трактовать как нарушение законодательства в сфере авторских прав и снимать за это с выборов через суд».

Но это касается только легальной агитационной продукции кандидатов, а главная проблема ИИ в том, что его применяют для создания анонимного контента, резюмирует юрист.

Создание контента и использование ИИ в агитации должно быть отрегулировано, считает руководитель Фонда развития гражданского общества Константин Костин: «Большая часть площадок для генерации контента – иностранные, поэтому встают вопросы о возможности их использования. Еще один вопрос – это регулирование авторских прав при создании агитационных материалов с помощью ИИ». 

Кроме того, ИИ используют для создания дипфейков, что тоже надо регулировать, напоминает Костин. Он приводит в пример ролик о «культе Владимира Жириновского» с его прогнозами – «они хорошо сделаны и посеяны в информпространстве, но в большинстве своем созданы нейросетями».

Следите за обновлениями и свежими новостями на Icma.az, где мы продолжаем следить за ситуацией и публиковать самую актуальную информацию.
Читать полностью