Добровільний, але важливий: що передбачає Кодекс поведінки GPAI | НААУ

"Підтримка ментального здоров'я українських адвокатів під час війни" детальніше за посиланням

Головна цитата

«Кодекс є важливим кроком у створенні етичних і безпечних рамок для розвитку ШІ в Європі», - адвокат С. Барбашин

Публікація

Добровільний, але важливий: що передбачає Кодекс поведінки GPAI

10:12 Ср 30.07.25 Автор : Юридична практика 338 Переглядів Версія для друку

ChatGPT, Gemini, Claude — мовні моделі, що стрімко змінюють реальність. Але чи достатньо чинних норм, щоб контролювати їхній вплив? ЄС запропонував перші практичні стандарти для штучного інтелекту — добровільний Кодекс поведінки GPAI.

Кодекс поведінки щодо загального штучного інтелекту (General-Purpose AI Code of Practice) — це добровільний документ, розроблений Європейською комісією для підтримки компаній у дотриманні вимог Закону про штучний інтелект ЄС (AI Act), який набув чинності у 2024 році та впроваджується поетапно. Зокрема, з 2 серпня 2025 року будуть застосовуватися вимоги до систем загального призначення.

Основна мета Кодексу — сприяти відповідальному розвитку та використанню систем GPAI, таких як великі мовні моделі. Кодекс пропонує чіткі рекомендації щодо прозорості, безпеки та дотримання авторських прав, щоб забезпечити етичне використання ШІ. Він не є юридично обов’язковим, але компанії, які його приймають, отримують переваги у вигляді правової визначеності та спрощеного підходу до виконання вимог AI Act. Кодекс також встановлює стандарти, які можуть слугувати орієнтиром для глобального регулювання ШІ.

Розробка Кодексу тривала рік і завершилася 10 липня 2025 року публікацією документа. Процес координувався Європейським офісом зі штучного інтелекту і включав широке залучення зацікавлених сторін — близько 1400 учасників, серед яких представники технологічної індустрії, академічної спільноти, громадянського суспільства та малих підприємств. Робота велася в чотирьох робочих групах, які очолювали провідні експерти  у галузі ШІ.

Кодекс зосереджується на трьох ключових аспектах.

  1. Прозорість даних. Компанії, які розробляють моделі ШІ, зобов’язані надавати вичерпну інформацію про дані, що використані для їхнього навчання. Це включає детальний опис джерел даних, методів їх збору та обробки. Особлива увага приділяється зменшенню ризиків упередженості у моделях, що може призводити до дискримінаційних результатів. Кодекс вимагає впровадження механізмів для виявлення та фільтрації неприйнятного контенту, такого як матеріали, що містять дані, отримані з порушенням законодавства про захист персональних даних (наприклад, GDPR). Для цього компанії повинні використовувати інструменти автоматичної модерації, аналізу даних і документувати свої підходи, щоб забезпечити відтворюваність і перевірку.
  2. Дотримання авторського права. Кодекс встановлює вимоги до поваги до інтелектуальної власності. Розробники ШІ повинні впроваджувати політики, які запобігають відтворенню матеріалів, захищених авторським правом, без відповідного дозволу. Це передбачає використання технічних засобів, таких як алгоритми фільтрації контенту, системи перевірки походження даних і механізми ідентифікації захищених матеріалів. Наприклад, якщо модель генерує текст, зображення чи музику, вона не повинна відтворювати захищений контент без ліцензії. Кодекс також закликає до співпраці з правовласниками, щоб забезпечити прозорість у використанні їхніх матеріалів для навчання моделей.
  3. Безпека та захист (для високоризикових моделей). Цей розділ стосується найпотужніших моделей ШІ, які класифікуються як такі, що мають системні ризики, тобто можуть створювати загрози для суспільної безпеки чи економічної стабільності. Кодекс вимагає від компаній проводити регулярні оцінки ризиків, включаючи тестування моделей перед їх випуском на ринок і після значних оновлень. Наприклад, моделі повинні перевірятися на здатність генерувати небезпечний контент, такий як інструкції для створення біологічної зброї чи дезінформація, що може вплинути на демократичні процеси. У разі виявлення серйозних інцидентів компанії зобов’язані повідомляти про них Європейський офіс зі штучного інтелекту протягом 2–15 днів, залежно від тяжкості проблеми. Кодекс також наголошує на важливості співпраці з постачальниками систем, які інтегрують ці моделі, для забезпечення безпеки на всіх етапах використання.

Також документ передбачає створення стандартизованих методологій оцінки ризиків, які можуть бути застосовані до різних моделей ШІ. Це включає розробку критеріїв для визначення системних ризиків і рекомендації щодо їх мінімізації. Наприклад, компанії повинні впроваджувати системи моніторингу, які дають змогу виявляти аномалії в поведінці моделей у реальному часі.

Отже, Кодекс є важливим кроком у створенні етичних і безпечних рамок для розвитку ШІ в Європі. Він не лише допоможе компаніям привести свою діяльність до вимог Закону про штучний інтелект, але й сприятиме зміцненню довіри до технологій ШІ серед громадян.

Подібні нормотворчі процеси є важливими для забезпечення балансу між інноваціями та захистом суспільних цінностей, таких як безпека, прозорість і повага до прав людини. Розробка, адаптація та впровадження АІ-процесів відповідно до чинних норм та принципів має відбуватися як на технічному рівні, так і на юридичному (підготовка профільних політик, інструкцій, угод із користувачами тощо).

Матеріал опубліковано у виданні «Юридична практика».

Автор публікації: Сергій Барбашин

Аби першим отримувати новини адвокатури, підпишіться на канал Національної асоціації адвокатів України у Telegram.

Інші публікації автора

Вестник:№6 червень 2025 - Вісник;
Міжнародна благодійна допомога для НААУ;
Стратегія НААУ 2021-2025;
Доступ до адвокатської професії -;
Рекомендації щодо захисту професейних та;
АНАЛІЗ ПОРУШЕНЬ ПРАВ ТА ГАРАНТІЙ;
Навчальні продукти для адвокатів;
НеВестник 4

Надішліть файл із текстом публікації у форматі *.doc, фотографію за тематикою у розмірі 640х400 та Ваше фото.

Оберіть файл