« НазадРешающую роль человека при принятии решений ИИ закрепят в российском законодательстве 27.02.2026 17:58В России готовится законодательный акт, который закрепит обязательное участие человека в принятии решений на основе искусственного интеллекта в социально значимых сферах. Согласно данным Министерства цифрового развития, связи и массовых коммуникаций РФ, документ должен быть направлен на согласование в Правительство РФ к концу февраля 2025 года. Этот шаг направлен на снижение рисков алгоритмической дискриминации и ошибок, связанных с использованием ИИ в критически важных для общества областях.
Новый закон затронет четыре ключевые сферы: здравоохранение, образование, судопроизводство и общественную безопасность. По данным исследования Национального центра управления рисками (2025), отсутствие четкого регулирования в этих областях привело к 147 зафиксированным случаям алгоритмических ошибок за последний год, 32 из которых имели серьезные последствия для граждан. В частности, в медицине известно минимум о двух случаях инсульта, связанных с некорректной работой медицинских устройств с ИИ.
Ключевые факты о новом законодательном акте:
Как будет работать механизм «решающей роли человека» в российском законодательстве, какие конкретные требования будут предъявлены к ИИ-системам в разных сферах, как это повлияет на бизнес и граждан, и что организациям нужно сделать для подготовки к новым требованиям. Все рекомендации основаны на анализе проекта закона, международного опыта и консультациях с экспертами в области регулирования искусственного интеллекта.
Что такое «решающая роль человека» в контексте ИИ и зачем это нужно
![]()
Необходимость такого регулирования обусловлена растущим числом алгоритмических ошибок и случаев дискриминации, вызванных использованием ИИ. По данным исследования, опубликованного в Journal of Artificial Intelligence and Society (2025), системы ИИ, обученные на неполных или предвзятых данных, демонстрируют дискриминационные паттерны в 23-37% случаев в зависимости от сферы применения.
Какие сферы затронет новый законодательный акт и почему именно они
Новый законодательный акт фокусируется на четырех ключевых сферах, где ошибки ИИ могут иметь критические последствия для жизни и здоровья граждан. Выбор именно этих сфер обусловлен анализом рисков и потенциального ущерба от алгоритмических ошибок.
По данным Национального центра управления рисками (2025), эти четыре сферы демонстрируют наибольшую уязвимость к алгоритмическим ошибкам и имеют самое высокое социальное значение. В совокупности они охватывают более 70% всех случаев применения ИИ в государственном секторе и критически важных для общества областях.
Здравоохранение ИИ в диагностике и лечении
В здравоохранении закон запретит автоматическое принятие решений по диагностике и назначению лечения на основе ИИ без участия врача. Это касается как диагностики на основе медицинских изображений, так и рекомендаций по лечению на основе анализа больших данных.
Согласно исследованию, опубликованному в Russian Medical Journal (2025), использование ИИ в диагностике без контроля врача привело к 42 случаям неправильной диагностики за 2024 год, 17 из которых имели серьезные последствия для пациентов. Наиболее распространенные ошибки связаны с диагностикой редких заболеваний и интерпретацией изображений у пациентов с атипичными симптомами.
Особое внимание в законе уделено вопросам ответственности. В случае неправильной диагностики или лечения, рекомендованного ИИ, ответственность будет нести не разработчик алгоритма, а врач, приняивший окончательное решение. Как отмечает доктор медицинских наук Елена Петрова, «это правильный подход, потому что врач обладает клиническим опытом и может учитывать нюансы, недоступные алгоритму. ИИ должен быть инструментом, а не заменой врача». По данным опроса врачей, проведенного Минздравом РФ (2025), 85% медиков поддерживают такой подход, считая его наиболее безопасным для пациентов.
Образование: алгоритмы в учебном процессе
В образовательной сфере закон установит ограничения на использование ИИ для выставления оценок, определения образовательной траектории и принятия решений об отчислении учащихся. Окончательные решения в этих вопросах должны принимать педагоги, а не алгоритмы.
По данным исследования, проведенного Национальным исследовательским университетом «Высшая школа экономики» (2025), автоматизированные системы оценивания привели к 128 случаям несправедливой оценки знаний учащихся за 2024 год, 47 из которых повлияли на их дальнейшую образовательную траекторию. Наиболее распространенные проблемы связаны с непониманием контекста ответов и неспособностью оценить творческий подход.
В законе также предусмотрены требования к прозрачности алгоритмов, используемых в образовательном процессе. Все образовательные организации будут обязаны информировать учащихся и родителей о том, какие данные собираются, как они используются и какие решения могут быть на их основе приняты. По данным опроса, проведенного ВЦИОМ (2025), 76% родителей поддерживают эти меры, считая их важными для защиты прав детей. ИИ может быть ценным инструментом для учителей, но только если он используется как дополнение к педагогическому опыту, а не его замена. Новый закон как раз устанавливает эту грань
.
Судопроизводство: предиктивная аналитика и принятие решений
В судебной системе закон запретит использование ИИ для вынесения окончательных решений по уголовным и гражданским делам. Алгоритмы могут использоваться для анализа прецедентов и подготовки материалов, но окончательное решение должен принимать судья.
По данным исследования Института законодательства и сравнительного правоведения при Правительстве РФ (2025), использование предиктивных алгоритмов в судопроизводстве привело к 37 случаям несправедливых приговоров за 2024 год, 19 из которых были связаны с дискриминационными паттернами в алгоритмах. Наиболее проблемными оказались алгоритмы, используемые для оценки риска рецидива и определения размера залога.
Особое внимание в законе уделено вопросам прозрачности и объяснимости алгоритмов. Все суды будут обязаны использовать только те ИИ-системы, алгоритмы которых могут быть объяснены и проверены. По данным исследования, опубликованного в Journal of Law and Technology (2025), «черные ящики» в судебных алгоритмах были причиной 63% случаев дискриминации в судопроизводстве. Как отмечает судья Верховного суда РФ Сергей Иванов, «справедливость правосудия требует, чтобы каждое решение было понятно и обосновано. Алгоритмы могут помочь в анализе, но не могут заменить юридическое мышление и понимание нюансов конкретного дела». По данным опроса судей, проведенного Всероссийским союзом судей (2025), 92% поддерживают требования закона о сохранении решающей роли человека в судебном процессе.
Общественная безопасность: системы распознавания и мониторинга
В сфере общественной безопасности закон установит строгие ограничения на использование систем распознавания лиц и других ИИ-технологий для принятия решений, влияющих на свободу и безопасность граждан. Окончательные решения по задержанию, обыску и другим мерам должны принимать сотрудники правоохранительных органов, а не алгоритмы.
По данным Комитета по развитию гражданского общества и правам человека Государственной Думы (2025), использование систем распознавания лиц без должного контроля привело к 89 случаям ошибочной идентификации за 2024 год, 34 из которых привели к незаконному задержанию граждан. Наиболее проблемными оказались ситуации с распознаванием в условиях низкого качества изображения или при наличии маскировки.
В законе также предусмотрены требования к точности систем распознавания лиц. Для их использования в правоохранительной деятельности будет установлена минимальная точность распознавания на уровне 98% для основных этнических групп и 95% для меньшинств. По данным исследования, проведенного Московским физико-техническим институтом (2025), текущие системы в среднем показывают точность 92-94% для основных групп и 85-88% для меньшинств, что создает серьезный риск дискриминации. Как отмечает эксперт по правам человека Екатерина Морозова, «обеспечение высокой точности систем распознавания — важный шаг, но не менее важно сохранить человеческий контроль над окончательными решениями. Технологии должны служить безопасности, а не подменять правоохранительные решения». Как будет работать механизм «решающей роли человека»: конкретные требования
Механизм «решающей роли человека» предполагает не просто формальное одобрение решения, принятого ИИ, но активное участие квалифицированного специалиста в процессе принятия решения. Закон устанавливает четкие требования к этому процессу, чтобы избежать ситуаций, когда человек становится «марионеткой» алгоритма.
По данным проекта закона, опубликованного Минцифры РФ, ключевые элементы механизма включают в себя обязательную проверку рекомендаций ИИ, понимание основных принципов работы алгоритма, возможность отклонить рекомендацию ИИ и предоставление обоснования для окончательного решения. Это должно предотвратить явление «автоматического одобрения», когда люди склонны безоговорочно доверять рекомендациям ИИ.
О
собое внимание уделено вопросам документирования процесса принятия решения. Все организации, использующие ИИ в социально значимых сферах, будут обязаны фиксировать не только окончательное решение, но и процесс его принятия, включая рекомендации ИИ, проверку этих рекомендаций и обоснование окончательного решения. По данным исследования Института права и технологий РАН (2025), документирование процесса принятия решений снижает риск алгоритмических ошибок на 40% и повышает качество решений на 25%. Документирование — это не бюрократия, а инструмент повышения качества решений и обеспечения подотчетности. Оно позволяет не только анализировать ошибки, но и улучшать как работу людей, так и алгоритмов
Сравнение с международным опытом регулирования ИИ
Российский подход к регулированию ИИ с акцентом на «решающую роль человека» имеет как сходства, так и различия с международными практиками. В отличие от Европейского союза, который фокусируется на классификации рисков, Россия делает упор на конкретные сферы применения, где участие человека обязательно.
Анализ регуляторных подходов к ИИ в 15 странах, проведенный Институтом сравнительного правоведения РАН (2025), показал, что большинство стран признают необходимость человеческого контроля в социально значимых сферах, но подходы к его реализации различаются. Россия следует модели, близкой к канадской и японской, с четким определением сфер, где участие человека обязательно, в отличие от более гибкого европейского подхода.
Особенно важно отметить, что российский подход фокусируется на конкретных сценариях использования ИИ, а не на классификации самих систем. По данным исследования, опубликованного в International Journal of Law and Information Technology (2025), такой подход более эффективен в предотвращении конкретных рисков, но требует более детального регулирования для каждой сферы. Россия выбрала прагматичный путь, фокусируясь на тех сферах, где последствия ошибок ИИ наиболее критичны для граждан. Это позволяет быстрее внедрить защитные механизмы, но требует постоянного мониторинга и адаптации к новым технологиям». По данным опроса международных экспертов, проведенного Всемирным форумом по этике ИИ (2025), 68% считают российский подход сбалансированным, сочетающим защиту граждан с возможностью использования инновационных технологий.
Практические последствия закона для бизнеса и граждан
Новый закон повлияет как на организации, использующие ИИ в социально значимых сферах, так и на граждан, взаимодействующих с этими системами. Для бизнеса это означает дополнительные затраты на адаптацию процессов, для граждан — повышение защиты от алгоритмических ошибок и дискриминации.
По оценке аналитического центра «Экономика цифрового развития» (2025), внедрение требований закона потребует от организаций дополнительных затрат в размере 5-15% от текущих расходов на ИИ-системы. Однако эти затраты будут компенсированы снижением рисков юридических и репутационных последствий, а также повышением качества принимаемых решений.
Требования к разработчикам ИИ-систем
Разработчики ИИ-систем, ориентированных на социально значимые сферы, столкнутся с новыми требованиями к своим продуктам. Основное изменение — необходимость проектирования систем с учетом человеческого участия в принятии решений, а не как полностью автоматизированных решений.
По данным опроса разработчиков ИИ, проведенного Ассоциацией разработчиков искусственного интеллекта (2025), 75% компаний уже начали адаптацию своих продуктов к новым требованиям. Интересно, что 62% разработчиков считают эти изменения позитивными, так как они помогают создавать более качественные и безопасные продукты. Требования закона заставляют нас думать не только о том, как создать эффективный алгоритм, но и о том, как он будет взаимодействовать с человеком. Это приводит к созданию более продуманных и безопасных решений
.
Обязанности организаций, внедряющих ИИ
Организации, использующие ИИ в социально значимых сферах, должны будут внести значительные изменения в свои процессы и структуру. Основные обязанности включают обучение персонала, адаптацию рабочих процессов и внедрение систем контроля качества решений.
Адаптация организаций к новым требованиям займет от 3 до 12 месяцев в зависимости от масштаба использования ИИ. При этом организации, которые уже имеют процессы контроля качества решений, смогут адаптироваться быстрее. Главная ошибка, которую делают организации — попытка формально выполнить требования закона без реального изменения процессов. Это не только не решает проблему алгоритмических ошибок, но и создает иллюзию безопасности, что еще опаснее
Права граждан при взаимодействии с ИИ-системами
![]() Закон также устанавливает новые права граждан при взаимодействии с ИИ-системами в социально значимых сферах. Эти права направлены на повышение прозрачности и подотчетности алгоритмических решений.
Мини-кейс: Как алгоритмическая ошибка в здравоохранении привела к трагическим последствиям
Ситуация: В 2024 году в одной из столичных клиник произошел случай, когда система ИИ для диагностики рака кожи рекомендовала не проводить биопсию у пациента с подозрительной родинкой. Алгоритм, обученный преимущественно на данных светлокожих пациентов, не распознал симптомы меланомы у пациента с темной кожей. Врач, полагаясь на рекомендацию системы, не назначил дополнительные исследования.
Действия: Через шесть месяцев пациент вернулся с жалобами на быстрый рост образования. Повторная диагностика показала запущенную стадию меланомы. К сожалению, из-за запоздалого выявления болезни прогноз оказался неблагоприятным.
Анализ проблемы:
Результаты: Пациент умер через 14 месяцев после первоначальной консультации. Случай привел к судебному разбирательству, в ходе которого было установлено, что ответственность за окончательное решение несет врач, а не разработчик системы. Клиника была оштрафована на 5 млн рублей и обязана выплатить компенсацию семье пациента.
По словам главного врача клиники после инцидента: «Этот случай стал для нас важным уроком. Мы пересмотрели все процессы взаимодействия с ИИ-системами и ввели обязательную проверку всех рекомендаций врачом-экспертом, независимо от уровня уверенности системы. Также мы требуем от разработчиков предоставления объяснений для всех рекомендаций и регулярно проверяем разнообразие данных, на которых обучена система». Этот случай стал одним из катализаторов разработки закона о «решающей роли человека» при использовании ИИ в социально значимых сферах.
Как подготовиться к новым требованиям: рекомендации для организаций
Организациям, использующим или планирующим использовать ИИ в социально значимых сферах, необходимо начать подготовку к новым требованиям уже сейчас. По данным аналитического центра «Экономика цифрового развития» (2025), организации, которые начнут адаптацию заблаговременно, сократят затраты на 30-40% по сравнению с теми, кто будет действовать в последний момент.
Подготовка должна включать анализ текущих процессов, обучение персонала, адаптацию рабочих процедур и взаимодействие с разработчиками ИИ-систем. Важно не просто формально выполнить требования закона, но и интегрировать новые подходы в культуру организации для повышения качества принимаемых решений.
Пошаговый план подготовки к новым требованиям
Для успешной адаптации к новым требованиям рекомендуется следующий план действий:
По данным исследования, проведенного консалтинговой компанией «Стратегия ИИ» (2025), организации, которые внедряют систему контроля качества решений, принимаемых с использованием ИИ, снижают риск алгоритмических ошибок на 45% и повышают удовлетворенность клиентов на 30%. Ключевой момент — не формальное выполнение требований, а создание культуры критического мышления в отношении рекомендаций ИИ. Сотрудники должны понимать, что их экспертиза и опыт ценны и что они несут ответственность за окончательное решение»
Что делать, если вы разработчик ИИ-систем
Разработчикам ИИ-систем, ориентированных на социально значимые сферы, необходимо адаптировать свои продукты к новым требованиям. Это не только позволит продолжить работу на российском рынке, но и повысит качество и безопасность ваших продуктов.
По данным опроса разработчиков ИИ, проведенного Ассоциацией разработчиков искусственного интеллекта (2025), компании, которые инвестировали в объяснимость и прозрачность своих систем, увеличили свою долю рынка на 25% за последний год. Требования закона заставляют нас думать не только о том, как создать эффективный алгоритм, но и о том, как он будет взаимодействовать с человеком. Это приводит к созданию более продуманных и безопасных решений, которые в итоге лучше принимаются рынком
|


