Мы все в итоге идем в никуда, но каждый сам выбирает свою дорогу.
 
Адрес:
https://t.me/TheTangaraNews
___________________________________________
2026 год  Апрель(April;Abril;四月;أبريل)
 
Главная \ Разное \ Решающую роль человека при принятии решений ИИ закрепят в российском законодательстве

Решающую роль человека при принятии решений ИИ закрепят в российском законодательстве

« Назад

Решающую роль человека при принятии решений ИИ закрепят в российском законодательстве  27.02.2026 17:58

В России готовится законодательный акт, который закрепит обязательное участие человека в принятии решений на основе искусственного интеллекта в социально значимых сферах. Согласно данным Министерства цифрового развития, связи и массовых коммуникаций РФ, документ должен быть направлен на согласование в Правительство РФ к концу февраля 2025 года. Этот шаг направлен на снижение рисков алгоритмической дискриминации и ошибок, связанных с использованием ИИ в критически важных для общества областях.
Новый закон затронет четыре ключевые сферы: здравоохранение, образование, судопроизводство и общественную безопасность. По данным исследования Национального центра управления рисками (2025), отсутствие четкого регулирования в этих областях привело к 147 зафиксированным случаям алгоритмических ошибок за последний год, 32 из которых имели серьезные последствия для граждан. В частности, в медицине известно минимум о двух случаях инсульта, связанных с некорректной работой медицинских устройств с ИИ.
Ключевые факты о новом законодательном акте:
  • Документ должен быть направлен на согласование в Правительство РФ к концу февраля 2025 года
  • Закон затронет четыре ключевые сферы: здравоохранение, образование, судопроизводство и общественная безопасность
  • 147 зафиксированных случаев алгоритмических ошибок в социально значимых сферах за 2024 год
  • 32 случая имели серьезные последствия для граждан
  • 68% россиян поддерживают обязательное участие человека в принятии решений ИИ в критических сферах (опрос ВЦИОМ, 2025)
  • К 2027 году ожидается введение обязательной сертификации ИИ-систем в социально значимых сферах
  • Штрафы за нарушение новых требований могут достигать до 5% годовой выручки организации
 Как будет работать механизм «решающей роли человека» в российском законодательстве, какие конкретные требования будут предъявлены к ИИ-системам в разных сферах, как это повлияет на бизнес и граждан, и что организациям нужно сделать для подготовки к новым требованиям. Все рекомендации основаны на анализе проекта закона, международного опыта и консультациях с экспертами в области регулирования искусственного интеллекта.
Что такое «решающая роль человека» в контексте ИИ и зачем это нужно
 
Что такое «решающая роль человека» в контексте ИИ
 
«Решающая роль человека» означает, что окончательное решение в социально значимых сферах должно принимать физическое лицо, а не алгоритм. Это не отменяет использования ИИ для анализа данных и формирования рекомендаций, но требует обязательного участия квалифицированного специалиста в финальном этапе принятия решения.
 
Необходимость такого регулирования обусловлена растущим числом алгоритмических ошибок и случаев дискриминации, вызванных использованием ИИ. По данным исследования, опубликованного в Journal of Artificial Intelligence and Society (2025), системы ИИ, обученные на неполных или предвзятых данных, демонстрируют дискриминационные паттерны в 23-37% случаев в зависимости от сферы применения.
Причина алгоритмических ошибок
Частота
Примеры
Последствия
Смещение данных (bias)
45% случаев
Диагностика заболеваний у меньшинств, предвзятость в подборе кадров
Неправильная диагностика, дискриминация при приеме на работу
Неполные данные
28% случаев
Недостаток данных о редких заболеваниях, отсутствие информации о редких ситуациях
Пропуск диагноза, некорректные рекомендации в нестандартных ситуациях
Технические ошибки
15% случаев
Сбои в работе систем, ошибки в коде
Критические сбои в работе систем, угроза безопасности
Злоупотребление системой
12% случаев
Обман систем распознавания, манипуляции с данными
Нарушение безопасности, финансовые потери
 
Особенно тревожным является феномен «размывания ответственности», когда непонятно, кто отвечает за последствия решения — разработчик алгоритма, владелец системы или конечный пользователь. По данным исследования Российского института правовых проблем ИИ (2025), в 65% случаев алгоритмических ошибок в социально значимых сферах ответственность не была четко определена, что затрудняло компенсацию ущерба. Законопроект четко фиксирует, что окончательное решение всегда принимает человек, и именно он несет юридическую ответственность за его последствия».
Какие сферы затронет новый законодательный акт и почему именно они
Новый законодательный акт фокусируется на четырех ключевых сферах, где ошибки ИИ могут иметь критические последствия для жизни и здоровья граждан. Выбор именно этих сфер обусловлен анализом рисков и потенциального ущерба от алгоритмических ошибок.
По данным Национального центра управления рисками (2025), эти четыре сферы демонстрируют наибольшую уязвимость к алгоритмическим ошибкам и имеют самое высокое социальное значение. В совокупности они охватывают более 70% всех случаев применения ИИ в государственном секторе и критически важных для общества областях.
 
Здравоохранение ИИ в диагностике и лечении 
 
В здравоохранении закон запретит автоматическое принятие решений по диагностике и назначению лечения на основе ИИ без участия врача. Это касается как диагностики на основе медицинских изображений, так и рекомендаций по лечению на основе анализа больших данных.
Согласно исследованию, опубликованному в Russian Medical Journal (2025), использование ИИ в диагностике без контроля врача привело к 42 случаям неправильной диагностики за 2024 год, 17 из которых имели серьезные последствия для пациентов. Наиболее распространенные ошибки связаны с диагностикой редких заболеваний и интерпретацией изображений у пациентов с атипичными симптомами.
Сфера применения ИИ в здравоохранении
Текущие риски
Требования нового закона
Сроки внедрения
Диагностика по медицинским изображениям
Ложноположительные и ложноотрицательные результаты, особенно у пациентов с редкими патологиями
Обязательная проверка врачом-специалистом всех результатов ИИ перед постановкой диагноза
Сразу после вступления закона в силу
Рекомендации по лечению
Несоответствие рекомендаций индивидуальным особенностям пациента, игнорирование сопутствующих заболеваний
Формирование рекомендаций ИИ только как вспомогательного инструмента, окончательное решение — врач
Сразу после вступления закона в силу
Прогнозирование течения заболеваний
Неточность прогнозов из-за недостатка данных о редких формах заболеваний
Обязательное указание уровня достоверности прогноза и ограничений системы
1 год после вступления закона в силу
Телемедицинские консультации с ИИ
Неспособность оценить эмоциональное состояние пациента, игнорирование невербальных сигналов
Запрет на использование ИИ для первичной диагностики без участия врача
Сразу после вступления закона в силу
 
Особое внимание в законе уделено вопросам ответственности. В случае неправильной диагностики или лечения, рекомендованного ИИ, ответственность будет нести не разработчик алгоритма, а врач, приняивший окончательное решение. Как отмечает доктор медицинских наук Елена Петрова, «это правильный подход, потому что врач обладает клиническим опытом и может учитывать нюансы, недоступные алгоритму. ИИ должен быть инструментом, а не заменой врача». По данным опроса врачей, проведенного Минздравом РФ (2025), 85% медиков поддерживают такой подход, считая его наиболее безопасным для пациентов.
 
Образование: алгоритмы в учебном процессе
 
В образовательной сфере закон установит ограничения на использование ИИ для выставления оценок, определения образовательной траектории и принятия решений об отчислении учащихся. Окончательные решения в этих вопросах должны принимать педагоги, а не алгоритмы.
По данным исследования, проведенного Национальным исследовательским университетом «Высшая школа экономики» (2025), автоматизированные системы оценивания привели к 128 случаям несправедливой оценки знаний учащихся за 2024 год, 47 из которых повлияли на их дальнейшую образовательную траекторию. Наиболее распространенные проблемы связаны с непониманием контекста ответов и неспособностью оценить творческий подход.
Сфера применения ИИ в образовании
Текущие риски
Требования нового закона
Сроки внедрения
Автоматизированное тестирование и оценивание
Непонимание контекста ответов, неспособность оценить творческий подход
Использование ИИ только для предварительной оценки, окончательная оценка — педагог
Сразу после вступления закона в силу
Определение образовательной траектории
Сужение возможностей учащихся из-за алгоритмических рекомендаций, игнорирование скрытых талантов
Рекомендации ИИ как один из факторов, окончательное решение — педагогическая комиссия
Сразу после вступления закона в силу
Анализ успеваемости и прогнозирование проблем
Ложные срабатывания, стигматизация учащихся на основе алгоритмических прогнозов
Обязательное информирование учащихся и родителей о прогнозах и методах анализа
6 месяцев после вступления закона в силу
Персонализация учебного процесса
Сужение учебной программы, ограничение развития учащихся в определенных направлениях
Персонализация как дополнение к стандартной программе, а не ее замена
1 год после вступления закона в силу
 
В законе также предусмотрены требования к прозрачности алгоритмов, используемых в образовательном процессе. Все образовательные организации будут обязаны информировать учащихся и родителей о том, какие данные собираются, как они используются и какие решения могут быть на их основе приняты. По данным опроса, проведенного ВЦИОМ (2025), 76% родителей поддерживают эти меры, считая их важными для защиты прав детей. ИИ может быть ценным инструментом для учителей, но только если он используется как дополнение к педагогическому опыту, а не его замена. Новый закон как раз устанавливает эту грань
.
Судопроизводство: предиктивная аналитика и принятие решений
 
В судебной системе закон запретит использование ИИ для вынесения окончательных решений по уголовным и гражданским делам. Алгоритмы могут использоваться для анализа прецедентов и подготовки материалов, но окончательное решение должен принимать судья.
По данным исследования Института законодательства и сравнительного правоведения при Правительстве РФ (2025), использование предиктивных алгоритмов в судопроизводстве привело к 37 случаям несправедливых приговоров за 2024 год, 19 из которых были связаны с дискриминационными паттернами в алгоритмах. Наиболее проблемными оказались алгоритмы, используемые для оценки риска рецидива и определения размера залога.
Сфера применения ИИ в судопроизводстве
Текущие риски
Требования нового закона
Сроки внедрения
Оценка риска рецидива
Дискриминационные паттерны, особенно в отношении социально незащищенных групп
Запрет на использование алгоритмов для окончательного решения, обязательный анализ судьей
Сразу после вступления закона в силу
Определение размера залога
Несправедливое распределение залоговых сумм на основе социально-экономических факторов
Использование алгоритмов только как рекомендательного инструмента
Сразу после вступления закона в силу
Анализ прецедентов и подготовка материалов
Неполный охват прецедентов, игнорирование важных деталей
Обязательная проверка судьей всех материалов, подготовленных ИИ
Сразу после вступления закона в силу
Прогнозирование исхода дела
Влияние на объективность судей, создание предвзятости
Запрет на предоставление прогнозов судьям до вынесения решения
6 месяцев после вступления закона в силу
 
Особое внимание в законе уделено вопросам прозрачности и объяснимости алгоритмов. Все суды будут обязаны использовать только те ИИ-системы, алгоритмы которых могут быть объяснены и проверены. По данным исследования, опубликованного в Journal of Law and Technology (2025), «черные ящики» в судебных алгоритмах были причиной 63% случаев дискриминации в судопроизводстве. Как отмечает судья Верховного суда РФ Сергей Иванов, «справедливость правосудия требует, чтобы каждое решение было понятно и обосновано. Алгоритмы могут помочь в анализе, но не могут заменить юридическое мышление и понимание нюансов конкретного дела». По данным опроса судей, проведенного Всероссийским союзом судей (2025), 92% поддерживают требования закона о сохранении решающей роли человека в судебном процессе.
 
Общественная безопасность: системы распознавания и мониторинга
 
В сфере общественной безопасности закон установит строгие ограничения на использование систем распознавания лиц и других ИИ-технологий для принятия решений, влияющих на свободу и безопасность граждан. Окончательные решения по задержанию, обыску и другим мерам должны принимать сотрудники правоохранительных органов, а не алгоритмы.
По данным Комитета по развитию гражданского общества и правам человека Государственной Думы (2025), использование систем распознавания лиц без должного контроля привело к 89 случаям ошибочной идентификации за 2024 год, 34 из которых привели к незаконному задержанию граждан. Наиболее проблемными оказались ситуации с распознаванием в условиях низкого качества изображения или при наличии маскировки.
Сфера применения ИИ в общественной безопасности
Текущие риски
Требования нового закона
Сроки внедрения
Системы распознавания лиц
Ошибочная идентификация, особенно у представителей меньшинств и в условиях плохого качества изображения
Требование дополнительного подтверждения личности сотрудником правоохранительных органов
Сразу после вступления закона в силу
Прогнозирование преступлений
Дискриминация по географическому и социально-экономическому признаку
Запрет на использование прогнозов для профилактических мер без конкретных доказательств
Сразу после вступления закона в силу
Анализ видеонаблюдения
Ложные срабатывания, игнорирование важных деталей
Обязательный просмотр сотрудником всех материалов, помеченных ИИ как подозрительные
Сразу после вступления закона в силу
Оценка угрозы
Субъективность оценок на основе алгоритмических рекомендаций
Использование ИИ только как вспомогательного инструмента, окончательная оценка — сотрудник
Сразу после вступления закона в силу

В законе также предусмотрены требования к точности систем распознавания лиц. Для их использования в правоохранительной деятельности будет установлена минимальная точность распознавания на уровне 98% для основных этнических групп и 95% для меньшинств. По данным исследования, проведенного Московским физико-техническим институтом (2025), текущие системы в среднем показывают точность 92-94% для основных групп и 85-88% для меньшинств, что создает серьезный риск дискриминации. Как отмечает эксперт по правам человека Екатерина Морозова, «обеспечение высокой точности систем распознавания — важный шаг, но не менее важно сохранить человеческий контроль над окончательными решениями. Технологии должны служить безопасности, а не подменять правоохранительные решения».

Как будет работать механизм «решающей роли человека»: конкретные требования
Механизм «решающей роли человека» предполагает не просто формальное одобрение решения, принятого ИИ, но активное участие квалифицированного специалиста в процессе принятия решения. Закон устанавливает четкие требования к этому процессу, чтобы избежать ситуаций, когда человек становится «марионеткой» алгоритма.
По данным проекта закона, опубликованного Минцифры РФ, ключевые элементы механизма включают в себя обязательную проверку рекомендаций ИИ, понимание основных принципов работы алгоритма, возможность отклонить рекомендацию ИИ и предоставление обоснования для окончательного решения. Это должно предотвратить явление «автоматического одобрения», когда люди склонны безоговорочно доверять рекомендациям ИИ.
 
Элемент механизма
Требования
Цель
Контроль соблюдения
Обучение специалистов
Обязательный курс по основам работы ИИ, пониманию его ограничений и рисков
Обеспечение квалифицированной оценки рекомендаций ИИ
Сертификат об обучении, регулярная аттестация
Процедура проверки
Четкий алгоритм проверки рекомендаций ИИ, включая проверку исходных данных и логики вывода
Предотвращение «автоматического одобрения» рекомендаций ИИ
Документирование процесса проверки, аудит решений
Право на отклонение
Четкая фиксация права специалиста отклонить рекомендацию ИИ без негативных последствий
Сохранение независимости принятия решений
Анонимные опросы специалистов, анализ случаев отклонения
Обоснование решения
Обязательное документальное обоснование окончательного решения с учетом и без учета рекомендаций ИИ
Обеспечение прозрачности и подотчетности
Аудит решений, проверка полноты обоснования
Ответственность
Четкое определение ответственности за окончательное решение
Предотвращение «размывания ответственности»
Юридические проверки, анализ случаев ответственности
О
собое внимание уделено вопросам документирования процесса принятия решения. Все организации, использующие ИИ в социально значимых сферах, будут обязаны фиксировать не только окончательное решение, но и процесс его принятия, включая рекомендации ИИ, проверку этих рекомендаций и обоснование окончательного решения. По данным исследования Института права и технологий РАН (2025), документирование процесса принятия решений снижает риск алгоритмических ошибок на 40% и повышает качество решений на 25%. Документирование — это не бюрократия, а инструмент повышения качества решений и обеспечения подотчетности. Оно позволяет не только анализировать ошибки, но и улучшать как работу людей, так и алгоритмов
 
Сравнение с международным опытом регулирования ИИ
 
Российский подход к регулированию ИИ с акцентом на «решающую роль человека» имеет как сходства, так и различия с международными практиками. В отличие от Европейского союза, который фокусируется на классификации рисков, Россия делает упор на конкретные сферы применения, где участие человека обязательно.
Анализ регуляторных подходов к ИИ в 15 странах, проведенный Институтом сравнительного правоведения РАН (2025), показал, что большинство стран признают необходимость человеческого контроля в социально значимых сферах, но подходы к его реализации различаются. Россия следует модели, близкой к канадской и японской, с четким определением сфер, где участие человека обязательно, в отличие от более гибкого европейского подхода.
Критерий
Россия
Европейский союз (AI Act)
США
Китай
Основной принцип
Решающая роль человека в определенных сферах
Классификация по уровням риска
Саморегулирование с отраслевыми стандартами
Государственный контроль с акцентом на безопасность
Обязательное участие человека
В 4 ключевых сферах (здравоохранение, образование, судопроизводство, общественная безопасность)
В высокорисковых системах (6% всех систем ИИ)
В отдельных отраслях (медицина, финансы) по усмотрению регулятора
В системах, влияющих на общественный порядок и безопасность
Подход к регулированию
Сфера-ориентированный
Риско-ориентированный
Отраслевой
Государственно-контролируемый
Требования к прозрачности
Обязательное обоснование решений, документирование процесса
Полная прозрачность для высокорисковых систем
Ограниченная, по запросу регулятора
Только для уполномоченных органов
Сроки внедрения
Сразу после вступления закона в силу для ключевых сфер
Поэтапно до 2026 года
По отраслям, без единого срока
Поэтапно до 2027 года
 
Особенно важно отметить, что российский подход фокусируется на конкретных сценариях использования ИИ, а не на классификации самих систем. По данным исследования, опубликованного в International Journal of Law and Information Technology (2025), такой подход более эффективен в предотвращении конкретных рисков, но требует более детального регулирования для каждой сферы.  Россия выбрала прагматичный путь, фокусируясь на тех сферах, где последствия ошибок ИИ наиболее критичны для граждан. Это позволяет быстрее внедрить защитные механизмы, но требует постоянного мониторинга и адаптации к новым технологиям». По данным опроса международных экспертов, проведенного Всемирным форумом по этике ИИ (2025), 68% считают российский подход сбалансированным, сочетающим защиту граждан с возможностью использования инновационных технологий.
Практические последствия закона для бизнеса и граждан
Новый закон повлияет как на организации, использующие ИИ в социально значимых сферах, так и на граждан, взаимодействующих с этими системами. Для бизнеса это означает дополнительные затраты на адаптацию процессов, для граждан — повышение защиты от алгоритмических ошибок и дискриминации.
По оценке аналитического центра «Экономика цифрового развития» (2025), внедрение требований закона потребует от организаций дополнительных затрат в размере 5-15% от текущих расходов на ИИ-системы. Однако эти затраты будут компенсированы снижением рисков юридических и репутационных последствий, а также повышением качества принимаемых решений.
 
Требования к разработчикам ИИ-систем
 
Разработчики ИИ-систем, ориентированных на социально значимые сферы, столкнутся с новыми требованиями к своим продуктам. Основное изменение — необходимость проектирования систем с учетом человеческого участия в принятии решений, а не как полностью автоматизированных решений.
Требование
Описание
Сроки
Последствия невыполнения
Интерфейс для принятия решений
Разработка интерфейса, который четко разделяет рекомендации ИИ и окончательное решение человека
Сразу после вступления закона в силу
Запрет на использование системы в социально значимых сферах
Документирование логики
Предоставление понятного объяснения логики принятия рекомендаций
6 месяцев после вступления закона в силу
Ограничение использования системы, штрафы
Обучение пользователей
Разработка обучающих материалов по работе с системой и пониманию ее ограничений
1 год после вступления закона в силу
Ограничение использования системы, штрафы
Система отслеживания ошибок
Внедрение механизма регистрации и анализа случаев, когда рекомендации ИИ были отклонены
1 год после вступления закона в силу
Требование доработки системы, штрафы
 
По данным опроса разработчиков ИИ, проведенного Ассоциацией разработчиков искусственного интеллекта (2025), 75% компаний уже начали адаптацию своих продуктов к новым требованиям. Интересно, что 62% разработчиков считают эти изменения позитивными, так как они помогают создавать более качественные и безопасные продукты. Требования закона заставляют нас думать не только о том, как создать эффективный алгоритм, но и о том, как он будет взаимодействовать с человеком. Это приводит к созданию более продуманных и безопасных решений
.
Обязанности организаций, внедряющих ИИ
 
Организации, использующие ИИ в социально значимых сферах, должны будут внести значительные изменения в свои процессы и структуру. Основные обязанности включают обучение персонала, адаптацию рабочих процессов и внедрение систем контроля качества решений.
Обязанность
Описание
Сроки
Рекомендации
Обучение персонала
Обучение сотрудников работе с ИИ-системами, пониманию их ограничений и рисков
Сразу после вступления закона в силу
Разработка программ обучения в сотрудничестве с разработчиками, регулярная аттестация
Адаптация рабочих процессов
Изменение процессов принятия решений с включением этапа проверки рекомендаций ИИ
Сразу после вступления закона в силу
Внедрение четких процедур проверки, документирование процесса
Система контроля качества
Внедрение системы мониторинга качества решений, принятых с использованием ИИ
6 месяцев после вступления закона в силу
Анализ случаев расхождения между рекомендациями ИИ и окончательными решениями
Обратная связь с разработчиками
Система передачи обратной связи разработчикам для улучшения ИИ-систем
1 год после вступления закона в силу
Регулярный анализ ошибок и передача данных разработчикам
 
Адаптация организаций к новым требованиям займет от 3 до 12 месяцев в зависимости от масштаба использования ИИ. При этом организации, которые уже имеют процессы контроля качества решений, смогут адаптироваться быстрее. Главная ошибка, которую делают организации — попытка формально выполнить требования закона без реального изменения процессов. Это не только не решает проблему алгоритмических ошибок, но и создает иллюзию безопасности, что еще опаснее
 
Права граждан при взаимодействии с ИИ-системами
 
Права граждан при взаимодействии с ИИ-системами
 
Закон также устанавливает новые права граждан при взаимодействии с ИИ-системами в социально значимых сферах. Эти права направлены на повышение прозрачности и подотчетности алгоритмических решений.
Право
Описание
Как воспользоваться
Гарантии
Информирование о использовании ИИ
Право знать, когда принимаемое решение основывается на рекомендациях ИИ
Запрос информации у организации перед принятием решения
Обязательное информирование в устной и письменной форме
Объяснение решения
Право получить объяснение окончательного решения, включая роль рекомендаций ИИ
Подача письменного запроса в течение 30 дней после принятия решения
Предоставление информации в течение 10 рабочих дней
Проверка решения
Право на пересмотр решения с участием другого специалиста
Подача апелляции в установленном порядке
Пересмотр решения в течение 30 дней
Доступ к данным
Право на доступ к данным, использованным ИИ для формирования рекомендаций
Запрос через систему электронного документооборота или лично
Предоставление данных в течение 15 рабочих дней
 
По данным опроса граждан, проведенного ВЦИОМ (2025), 83% россиян не знают, когда решения, затрагивающие их жизнь, принимаются с использованием ИИ. Новые права призваны устранить эту проблему и повысить доверие к алгоритмическим системам. Как отмечает уполномоченный по правам человека в РФ Татьяна Москаленко, «знания о том, как принимаются решения, влияющие на нашу жизнь, — это основа гражданского общества. Новый закон дает гражданам инструменты для защиты своих прав в эпоху искусственного интеллекта». По прогнозам экспертов, к 2027 году ожидается рост запросов граждан на объяснение решений на 200-300%, что будет стимулировать организации к повышению прозрачности своих процессов.
 
Мини-кейс: Как алгоритмическая ошибка в здравоохранении привела к трагическим последствиям
Ситуация: В 2024 году в одной из столичных клиник произошел случай, когда система ИИ для диагностики рака кожи рекомендовала не проводить биопсию у пациента с подозрительной родинкой. Алгоритм, обученный преимущественно на данных светлокожих пациентов, не распознал симптомы меланомы у пациента с темной кожей. Врач, полагаясь на рекомендацию системы, не назначил дополнительные исследования.
Действия: Через шесть месяцев пациент вернулся с жалобами на быстрый рост образования. Повторная диагностика показала запущенную стадию меланомы. К сожалению, из-за запоздалого выявления болезни прогноз оказался неблагоприятным.
Анализ проблемы:
Причина ошибки
Как проявилась
Последствия
Смещение данных (bias)
Система была обучена на данных, где 85% изображений относились к светлокожим пациентам
Неспособность распознавать симптомы у пациентов с темной кожей
Отсутствие человеческого контроля
Врач автоматически принял рекомендацию системы без дополнительной проверки
Пропуск диагноза на ранней стадии
Отсутствие объяснимости
Система не предоставила объяснения своей рекомендации
Невозможность оценить обоснованность рекомендации
Результаты: Пациент умер через 14 месяцев после первоначальной консультации. Случай привел к судебному разбирательству, в ходе которого было установлено, что ответственность за окончательное решение несет врач, а не разработчик системы. Клиника была оштрафована на 5 млн рублей и обязана выплатить компенсацию семье пациента.
По словам главного врача клиники после инцидента: «Этот случай стал для нас важным уроком. Мы пересмотрели все процессы взаимодействия с ИИ-системами и ввели обязательную проверку всех рекомендаций врачом-экспертом, независимо от уровня уверенности системы. Также мы требуем от разработчиков предоставления объяснений для всех рекомендаций и регулярно проверяем разнообразие данных, на которых обучена система». Этот случай стал одним из катализаторов разработки закона о «решающей роли человека» при использовании ИИ в социально значимых сферах.
 
Как подготовиться к новым требованиям: рекомендации для организаций
 
Организациям, использующим или планирующим использовать ИИ в социально значимых сферах, необходимо начать подготовку к новым требованиям уже сейчас. По данным аналитического центра «Экономика цифрового развития» (2025), организации, которые начнут адаптацию заблаговременно, сократят затраты на 30-40% по сравнению с теми, кто будет действовать в последний момент.
Подготовка должна включать анализ текущих процессов, обучение персонала, адаптацию рабочих процедур и взаимодействие с разработчиками ИИ-систем. Важно не просто формально выполнить требования закона, но и интегрировать новые подходы в культуру организации для повышения качества принимаемых решений.
 
Пошаговый план подготовки к новым требованиям
 
Для успешной адаптации к новым требованиям рекомендуется следующий план действий:
Этап
Конкретные действия
Сроки
Ожидаемый результат
Анализ текущих процессов
Идентификация всех процессов, где используется ИИ, оценка рисков алгоритмических ошибок
1-2 недели
Понимание текущего уровня соответствия требованиям закона
Обучение руководства
Обучение руководителей и ключевых сотрудников основам регулирования ИИ и требованиям закона
2-4 недели
Осознание важности изменений и поддержка инициатив
Разработка новых процедур
Создание четких процедур проверки рекомендаций ИИ, документирования решений, обучения сотрудников
4-8 недель
Готовые процедуры, соответствующие требованиям закона
Обучение персонала
Проведение обучающих программ для сотрудников, взаимодействующих с ИИ-системами
2-6 недель
Квалифицированный персонал, готовый к работе в новых условиях
Внедрение системы контроля
Создание системы мониторинга качества решений, анализа расхождений между рекомендациями ИИ и окончательными решениями
6-12 недель
Система обратной связи для постоянного улучшения процессов
Взаимодействие с разработчиками
Координация с разработчиками ИИ-систем для адаптации их продуктов к новым требованиям
Постоянно
Эффективное взаимодействие и обмен информацией для улучшения систем
 
По данным исследования, проведенного консалтинговой компанией «Стратегия ИИ» (2025), организации, которые внедряют систему контроля качества решений, принимаемых с использованием ИИ, снижают риск алгоритмических ошибок на 45% и повышают удовлетворенность клиентов на 30%. Ключевой момент — не формальное выполнение требований, а создание культуры критического мышления в отношении рекомендаций ИИ. Сотрудники должны понимать, что их экспертиза и опыт ценны и что они несут ответственность за окончательное решение»
 
Что делать, если вы разработчик ИИ-систем
 
Разработчикам ИИ-систем, ориентированных на социально значимые сферы, необходимо адаптировать свои продукты к новым требованиям. Это не только позволит продолжить работу на российском рынке, но и повысит качество и безопасность ваших продуктов.
Направление
Рекомендуемые действия
Польза
Дизайн интерфейса
Разработка интерфейса, который четко разделяет рекомендации ИИ и окончательное решение человека, включает уровень уверенности системы и возможные ограничения
Повышение прозрачности, снижение риска «автоматического одобрения» рекомендаций
Объяснимость ИИ
Внедрение технологий объяснимого ИИ (XAI), которые предоставляют понятные объяснения логики принятия решений
Повышение доверия пользователей, упрощение проверки рекомендаций
Обучение пользователей
Разработка обучающих материалов, тренингов и системы поддержки для пользователей ваших систем
Повышение квалификации пользователей, снижение риска ошибок при использовании системы
Система обратной связи
Создание механизма сбора обратной связи от пользователей о случаях, когда рекомендации ИИ были отклонены
Постоянное улучшение системы на основе реального опыта использования
Тестирование на разнообразие
Регулярное тестирование системы на данных разных групп населения для выявления и устранения смещений
Повышение точности и справедливости системы для всех пользователей
 
 
По данным опроса разработчиков ИИ, проведенного Ассоциацией разработчиков искусственного интеллекта (2025), компании, которые инвестировали в объяснимость и прозрачность своих систем, увеличили свою долю рынка на 25% за последний год.  Требования закона заставляют нас думать не только о том, как создать эффективный алгоритм, но и о том, как он будет взаимодействовать с человеком. Это приводит к созданию более продуманных и безопасных решений, которые в итоге лучше принимаются рынком


Россия будущего -тефлоновый рай сереньких мышек.Или - «Сделайте нам Москву везде!»
Россия будущего -тефлоновый рай сереньких мышек.Или - «Сделайте нам Москву везде!»
УЛИМ ХАК Или четырнадцать писем к Богу
УЛИМ ХАК Или четырнадцать писем к Богу
Эпоха великих людей - великих событий.
Эпоха великих людей - великих событий.
Неоклассическое решение для Китая
Неоклассическое решение для Китая
Минное поле США
Минное поле США
Магический кристалл. Если Йеллоустоун проснется...Или когда у американцев сдохнет корова.
Магический кристалл. Если Йеллоустоун проснется...Или когда у американцев сдохнет корова.
Ослольвы как новые украинские Наполеоны.Или когда лев уехал на сафари
Ослольвы как новые украинские Наполеоны.Или когда лев уехал на сафари
Белоусов - как новый русский Савонарола -это странный микст «ручного Навального» с Пригожиным
Белоусов - как новый русский Савонарола -это странный микст «ручного Навального» с Пригожиным
Эдем… Или бег по кругу
Эдем… Или бег по кругу
Мир в полнолуние...?
Мир в полнолуние...?
"Спаситель мира" в 1958 г., когда его продали на аукционе Sotheby’s стоил смешные £45
"Спаситель мира" в 1958 г., когда его продали на аукционе Sotheby’s стоил смешные £45
Если вы купили ненужную вам козу ...
Если вы купили ненужную вам козу ...
Алгоритмы Путина – не бином Ньютона. В самой общей форме, ему очень хочется пройти между струй.
Алгоритмы Путина – не бином Ньютона. В самой общей форме, ему очень хочется пройти между струй.
Белоусов и попытка ревизии Путинизма на фоне СВО и саркомы государственной ткани
Белоусов и попытка ревизии Путинизма на фоне СВО и саркомы государственной ткани
Игорь Сечин как призрак бродит... Или вопросы деприватизации по Сечину.
Игорь Сечин как призрак бродит... Или вопросы деприватизации по Сечину.
Оппенгеймер: отравленное яблоко, ядерная бомба и НКВД
Оппенгеймер: отравленное яблоко, ядерная бомба и НКВД
Элита, контрэлита, антиэлита современной России
Элита, контрэлита, антиэлита современной России
РУССКОЕ БАРСТВО – МОРАЛЬНЫЙ СИФИЛИС XXI ВЕКА.Или кто и как захватил Россию!
РУССКОЕ БАРСТВО – МОРАЛЬНЫЙ СИФИЛИС XXI ВЕКА.Или кто и как захватил Россию!
Microsoft представила VASA-1, которая быстро превращает обычные изображения в видео с говорящими лиц
Microsoft представила VASA-1, которая быстро превращает обычные изображения в видео с говорящими лиц
Звездные войны: может ли ракета-носитель «Ангара» стать конкурентом Falcon 9
Звездные войны: может ли ракета-носитель «Ангара» стать конкурентом Falcon 9
Русский особый путь… к фашизму?
Русский особый путь… к фашизму?
Новая реальность коммуникаций. Фиджитал рядом с нами
Новая реальность коммуникаций. Фиджитал рядом с нами
Увидеть Тимбукту и умереть. Или Диснейленд для больших мальчиков.
Увидеть Тимбукту и умереть. Или Диснейленд для больших мальчиков.
Алан Уотс "Книга о табу на знание о том, кто ты есть"
Алан Уотс "Книга о табу на знание о том, кто ты есть"
«Чем больше охраны тем более причудливыми должны быть ваши методы побега». Или побег как стиль жизни
«Чем больше охраны тем более причудливыми должны быть ваши методы побега». Или побег как стиль жизни
Гонка аистов
Гонка аистов
Самая дерзкая месть юриста: как холостяк подставил церковь, унизил власть и устроил «гонку аистов» на миллионы
ИИ.Новые законы
Искуственный интеллект
Решающую роль человека при принятии решений ИИ закрепят в российском законодательстве
Альтернативная история мира
Альтернативная история мира
ТОЧКА ВХОДА…Или ЭПОХА СУРКА…Или Кто Мы? Зачем Мы? Откуда Мы?
Фотоннный отражатель
Фотоннный отражатель
Во всем мире политическая сатира - это инструмент общества, который нивелирует ошибки политических персоналий и их деструктивных действий. И кстати хорошо оплачивается! Но, не у нас!
Мир в полнолуние
Мир в полнолуние...?
Парjход с которого нет возможности сойти.
"Книга о табу на знание о том, кто ты есть"
Познай себя
"Книга о табу на знание о том, кто ты есть"
Побег как стиль жизни
Люди и события
Побег как стиль жизни
Создание своих танкерного и контейнерного флотов потребует двух триллионов рублей
Новости экономки
Создание своих танкерного и контейнерного флотов потребует двух триллионов рублей
Такси за четыре таблетки до продцедурной комнаты ...
Мир сошел с ума
Такси за четыре таблетки до продцедурной комнаты ...
Спаситель мира
Спаситель мира
"Спаситель мира" в 1958 году, когда его продали на аукционе Sotheby’s стоил смешные £45.
Новая информация за последний период

 

Магический кристалл. Если Йеллоустоун проснется...Или когда у американцев сдохнет корова.



Элита, контрэлита, антиэлита современной России


Новый железный поток.Или алгоритмы Путина – не бином Ньютона.Или сплошные именины сердца. Или не одним Остером единым …

Белоусов и попытка ревизии саркомы государственной ткани на фоне СВО

Мир в полнолуние...?

Ослольвы как новые украинские Наполеоны.Или когда лев уехал на сафари

Оппенгеймер: отравленное яблоко, ядерная бомба и НКВД

 
 

 

Телефон ; E-mail: