| Нормативно-правовое регулирование искусственного интеллекта в образовании. Проблемы и перспективы |
|
|
|
| Автор: Русакова Д.А. |
| 29.04.2026 11:19 |
|
НОРМАТИВНО-ПРАВОВОЕ РЕГУЛИРОВАНИЕ
ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ВЫСШЕМ ОБРАЗОВАНИИ. ПРОБЛЕМЫ И ПЕСРПЕКТИВЫ Русакова
Д.А. преподаватель Кафедры публичного и частного права Института Экономики и Права Петрозаводского
государственного Университета г. Петрозаводск,
Россия Аннотация. В рамках настоящей статьи основе
формально-юридического и сравнительно-правового методов исследуется современное
состояние нормативно-правового регулирования искусственного интеллекта (ИИ) в
высшем образовании. Выявлены пробелы российского законодательства, касающиеся
обработки персональных данных, авторских прав на контент, создаваемый
нейросетями и ответственности за ошибочные действия алгоритмов. Проанализированы
новые национальные стандарты (ГОСТ Р 722393-2025, ГОСТ Р 72394-2025) и проект
федерального закона об основах регулирования ИИ (2026). Предлагается трехуровневая
модель юридического сопровождения внедрения ИИ в вузах. Ключевые слова. искусственный интеллект, высшее
образование, правовое регулирование, персональные данные, авторское право, алгоритмические
риски, национальные стандарты, GDPR. Актуальность исследования обусловлена активной цифровой трансформацией высшей школы, в результате которой адаптивные обучающие системы, автоматизированная проверка знаний и генерация учебных материалов с использованием искусственного интеллекта становятся повседневной практикой. При этом действующее законодательство Российской Федерации, включая Федеральный закон «Об образовании» и Федеральный закон № 152-ФЗ «О персональных данных», не содержат специальных норм, регламентирующих применение ИИ в академической среде [1, с. 556]. Это порождает системные юридические риски, связанные с защитой персональных данных студентов, определением авторского права на контент, создаваемый нейросетями, и распределением ответственности за ошибки алгоритмов. Степень научной разработанности проблемы в отечественной науке отражена в работах Э.В. Талапиной Д.Ю. Вороновой и др, однако динамика нормативного регулирования 2025-2026 гг. (принятие национальных стандартов, внесение законопроекта об ИИ) требует обновления научного анализа. Для достижения поставленной цели необходимо решить следующие задачи: проанализировать нормативную базу РФ и ЕС в части регулирования ИИ в образовании, идентифицировать риски в сферах персональных данных, авторского права и алгоритмической ответственности, предложить трехуровневую модель правового сопровождения внедрения ИИ в вузах. Методологическая основа включает формально-юридический метод (толкования норм), сравнительно-правовой (сравнения российского и европейского законодательства), метод правового моделирования, а также общенаучные методы анализа и синтеза. В Российской Федерации до 2025 года отсутствовали специальные акты, регулирующие ИИ в образовании. Ситуация изменилась после утверждения Росстандартом двух национальных стандартов: ГОСТ Р 72393 «Технологии искусственного интеллекта в образовании. Алгоритмы идентификации вовлеченности при онлайн -обучении» и ГОСТ Р 72394-2025 «Технологии искусственного интеллекта в образовании. Функциональная подсистема формирования контингента абитуриентов..» [2;3]. Оба стандарта вступили в силу с 1 января 2026 и устанавливают общие положения и методики испытаний для соответствующих ИИ-систем. 18 марта 2026 года Минцифры РФ представило проект федерального закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации» [4; 5]. Законопроект вводит базовые понятия (ИИ- модель, ИИ-система, разработчик, оператор), закрепляет права и обязанности участников, устанавливает требования к маркировке контента, созданного с помощью ИИ, а также определяет механизмы контроля. Планируемый срок вступления в силу- 1сентября 2027 года [6]. Кроме того, в Госдуме разработан законопроект о внесении поправок в Федеральный закон «Об образовании», разрешающий использование верифицированных нейросетей при условии обеспечения педагогического контроля и защиты персональных данных [7]. В Европейском Союзе ключевым актом остается GDPR (Regulation (EU) 2-16/679), статья 22 которого закрепляет право субъекта данных не подвергаться решению, основанному исключительно на автоматизированной обработке, если это решение порождает юридические последствия [8]. Это значит, что вуз не может полностью автоматизировать принятие решений о переводе, стипендии или отчислении студента без участия человека. Данный подход рассматривается как ориентир для российского законодательства [9, с.5]. Правой статус решений, принимаемый ИИ- системами при оценивании студенческих работ, остается неопределенным. Не установлено, кто несет ответственность за некорректный результат- разработчик алгоритма, вуз или преподаватель, допустивший его применение. Правительство РФ в феврале 2026 года заявило о необходимости законодательно закрепить приоритет человека над ИИ при принятии решений в образовании, медицине и суде. [10]. В законопроекте 2026 года предусмотрена возможность досудебного обжалования решений ИИ право на компенсацию вреда [4]. Для минимизации предвзятости требуется обязательный аудит алгоритмов и внедрения механизма «человек в цикле» [11, с. 22]. Согласно позиции Роспатента, объектом авторского права может быть произведение, созданное творческим трудом человека. Если ИИ действует самостоятельно, результат не охраняется, что создает правовой вакуум: вузы не могут запретить третьим лицам использовать сгенерированные учебные материалы, а студенты претендовать на авторство в отношении работ, выполненных ИИ. В законопроекте предлагается признать автором пользователя, внесшего творческий вклад в формулировку запроса (промта) и последующую обработку результата [4]. Ряд исследователей настаивают на внесении изменений в гражданский кодекс РФ о признании «машинного творчества» особым объектом смежных прав [12, с. 128]. Использование ИИ -систем связано со сбором больших массивов данных об успеваемости, поведенческих паттернах и психологических характеристиках студентов. Техническая уязвимость ( устаревшее шифрование) и организационные пробелы ( недостаточная подготовка персонала) создают высокую вероятность утечек [1, с. 557]. Особую опасность представляет «запоминание» конфиденциальной информации самими моделями. В законопроекте об ИИ вводится требование к доверенным моделям: они должны проходить проверку безопасности у ФСБ и ФСТЭК, а также обрабатывать данные на территории РФ [6]. На основании приведенного анализа предлагается трехуровневая модель правового сопровождения. Первый уровень -нормативная инфраструктура. Разработка федеральных стандартов (включая уже действующие ГОСТ Р 722393-2025, ГОСТ Р 72394-2025), отраслевых приказов Минобрнауки и локальных актов вузов. Локальные акты должны определять перечень задач, передаваемых ИИ; порядок утверждения систем, процедуру обжалования решений; обязательность человеческого контроля при принятии значимых решений. Второй уровень- организационно технические меры. Шифрование данных, разграничение доступа, регу ГОСТ Р 722393-2025, ГОСТ Р 72394-2025лярное обучение персонала, внедрение систем аудита и логирование работы ИИ- алгоритмов, проведение тестирования на репрезентативных выборках для выявления предвзятости. Третий уровень- механизмы досудебной защиты. Создание при вузах специализированной комиссии по ИИ- спорам с участием юристов, IT- специалистов и педагогов, развитие медиации, страхование ответственности разработчиков и операторов ИИ-систем. Проведенное
исследование позволяет сформировать ряд следующих выводов: Российское
законодательство об ИИ в образовании находится на стадии активного
формирования. Принятие национальных стандартов (2025) и разработка профильного
федерального закона (2026) создает основу для правовой определенности, однако
до вступления закона в силу (планируемый 2027 год) сохраняются значительные
пробелы. Ключевыми юридическими рисками являются: неопределенность
ответственности за алгоритмические ошибки, нерешенность вопросов авторского
права на контент, созданный ИИ, и недостаточная регламентация защиты
персональных данных применительно к нейросетевым технологиям. Предложенная
трехуровневая модель правового сопровождения (нормативная инфраструктура,
организационно-технические меры, механизм досудебной защиты) позволяет
минимизировать указанные риски еще до принятия полноценного закона.
Перспективными направлением является гармонизация российского законодательства
с международными стандартами (GDPR, проекты AI Act) при сохранении требований
локализации данных и приоритета человеческого контроля. Литература 1.
Анисенко
Т.А., Козенко Д.А. Защита персональных данных в цифровой экономике: вызовы и
решения // 61-я научная конференция аспирантов, магистрантов и студентов БГУИР.
– Минск, 2025. – С. 556–557. 2.
Власти
представили законопроект о регулировании ИИ в России. Главное // РБК. – 2026. –
19 марта.URL https://www.rbc.ru/technology_and_media/19/03/2026/69bb1d5a9a79470e2984c919
(дата обращения: 27.04.2026). 3.
Воронова
Д.Ю. Этические аспекты использования искусственного интеллекта в
образовательном процессе // Журнал правовых и экономических исследований. –
2025. – № 2. – С. 19–27. 4.
В
России законодательно закрепят решающую роль человека при использовании ИИ //
Вести образования. – 2026. – 13 февраля. – URL:https://edition.vogazeta.ru/articles/2026/2/13/bigdata/27044-v_rossii_zakonodatelno_zakrepyat_reshayuschuyu_rol_cheloveka_pri_ispolzovanii_ii (дата обращения: 27.04.2026). 5.
ГОСТ
Р 72393-2025. Технологии искусственного интеллекта в образовании. Алгоритмы
идентификации вовлеченности при онлайн-обучении. Общие положения и методика
испытаний : национальный стандарт Российской Федерации : утвержден и введен в
действие Приказом Росстандарта от 20.11.2025 № 1435-ст. – М. : Стандартинформ,
2025. – 32 с. 6.
ГОСТ
Р 72394-2025. Технологии искусственного интеллекта в образовании.
Функциональная подсистема формирования контингента абитуриентов по программам
подготовки научных и научно-педагогических кадров в аспирантуре. Общие
положения и методика испытаний : национальный стандарт Российской Федерации :
утвержден и введен в действие Приказом Росстандарта от 20.11.2025 № 1436-ст. –
М. : Стандартинформ, 2025. – 28 с. 7.
Монарх
П.М. Рецензия на монографию: Бегешев И.Р., Хисамова З.И. Искусственный
интеллект и уголовный закон. М.: Проспект, 2021 // Уголовная юстиция. – 2020. –
№ 16. – С. 127–129. 8.
Нилов:
применение ИИ в образовании требует строгого законодательного регулирования //
DumaTV. – 2026. – 3 апреля. – URL: https://migration.dumatv.ru/news/nilov--primenenie-ii-v-obrazovanii-trebuet-strogogo-zakonodatelnogo-regulirovaniya (дата
обращения: 27.04.2026). 9.
Проект
федерального закона «Об основах государственного регулирования сфер применения
технологий искусственного интеллекта в Российской Федерации» (ID: 166424) //
Федеральный портал проектов нормативных правовых актов. – URL: https://regulation.gov.ru/projects/166424/ (дата
обращения: 27.04.2026). 10.
Талапина
Э.В. Прозрачность алгоритмов искусственного интеллекта // Право. Журнал Высшей
школы экономики. – 2025. – № 3. – С. 4–27. 11.
Regulation (EU) 2016/679 of the European
Parliament and of the Council of 27 April 2016 on the protection of natural
persons with regard to the processing of personal data and on the free movement
of such data, and repealing Directive 95/46/EC (General Data Protection
Regulation) // Official Journal of the European Union. – 2016. – L 119. – P.
1–88. |


