|
12:41 Пт 27.02.26 |
ШІ в адвокатурі та правосудді: етика, регулювання, межі застосування |
|
У Національній асоціації адвокатів України провели круглий стіл «Штучний інтелект у роботі адвоката: етика, відповідальність, юридичний промтінженіринг». Учасники обговорили, як системи штучного інтелекту вже використовуються в професійній діяльності адвокатів і де проходять етичні межі допустимого. Проект чи субʼєкт? Голова Комітету законотворчих ініціатив з питань адвокатської діяльності Олексій Ющенко пояснив, що круглий стіл вирішили провести на базі його комітету, аби питання роботи адвоката, пов’язані зі штучним інтелектом, можна було б оформити у законодавчі пропозиції. Він також закликав присутніх подавати ідеї, які комітет систематизує у формі змін. Можливість імплементації корисних ініціатив в організації роботи адвокатів, зокрема на рівні інституту адвокатури, підтвердив заступник голови НААУ, РАУ Валентин Гвоздій. Він окреслив роль комітетів, які організували захід. Так, Комітет із питань законодавчих ініціатив, на його думку, має визначати, де потрібне нормативне врегулювання, і готувати пропозиції для парламенту, а Комітет з питань цифровізації адвокатури повинен оперативно розробити навчальний курс у Вищій школі адвокатури, аби адвокати розуміли можливості інструментів, обмеження та коректні сценарії застосування, зважаючи на вартість окремих продуктів і платних версій сервісів. В.Гвоздій відзначив, що програмні продукти, що працюють із великими масивами даних, допомагають юристам виконувати роботу швидше та якісніше, але водночас зростає значення проблеми неправильного використання такого інструменту. «Треба пам’ятати: те, що вам пропонує ChatGPT, наприклад, це просто проект, гайдлайн, який не замінює вашу роль. І буде прикро, якщо ви повірите тексту з посиланнями на неіснуючі документи, на неіснуючі факти. Найгірше, що може зробити адвокат — це перекласти свою роботу на машину», — застеріг він. Ідею підготовки навчального матеріалу для адвокатів з розʼясненнями форм, меж і наслідків використання ШІ в роботі підтримав голова Комітету НААУ з питань цифровізації адвокатури Андрій Приходько. Він закликав усіх бажаючих долучитися до роботи комітету у цьому напрямі. Проведення круглого столу НААУ підтримала ГО «Фундація Пилипа Орлика». Голова її правління Артем Миколайчук відзначив, що штучний інтелект уже набув суб’єктності. «Ми непомітно для себе перейшли у нову еру. На жаль, ми до цього не підготувалися і не усвідомили цього», - відзначив він. Як приклад, експерт навів прогноз рівня безробіття у США на рівні 10,2% до кінця 2027 року, а також факт скорочення індійськими IT-фірмами персоналу на 80%. У цьому контексті він наголосив на потребі продумати правильну модель взаємодії між штучним інтелектом і людиною: як його використовувати або як вступати з ним у партнерство, як його регламентувати та як обмежувати його права. А без такого підходу існує ризик опинитися в майбутньому, яке люди не зможуть контролювати. Три «пласти» для адвокатури Тему ризиків і можливостей, підняту попередніми спікерами, продовжив член Робочої групи НААУ з питань правового регулювання штучного інтелекту Олег Чернобай. Адвокат оцінив темпи правового врегулювання питань штучного інтелекту на міжнародному рівні, та навів приклади технологічного розвитку. На цьому тлі він зауважив, що Україна відстає саме з погляду правової регламентації, хоча технологічні аспекти, включно з оборонною сферою й використанням дронів, розвиваються активно. Окремо О.Чернобай підкреслив місце адвокатури й сформулював три рівні її взаємодії зі штучним інтелектом. Перший він описав як утилітарний: використання ШІ адвокатами для підготовки процесуальних документів і навіть для допомоги у формуванні правової позиції, коли система аналізує зібрану доказову базу та може видавати прогнози щодо позиції і вирішення справи. Це зумовлює потребу інструктивних і рекомендаційних матеріалів для адвокатів щодо практичного використання інструментів і правильного формулювання завдань для них. Другий рівень член профільної робочої групи визначив як професійне правове обслуговування розробників і користувачів ШІ: адвокати можуть супроводжувати їх у підготовці документів, представництві в судах та інших юридичних процедурах. Третій рівень він окреслив як можливе обслуговування самого ШІ — у разі, якщо дискусія про суб’єктність призведе до визнання для нього певного статусу. «Поки що для України це футуристичний рівень, але будемо мати на увазі, що він може бути розвинутий», - застеріг О.Чернобай. Переходячи до методології, він наголосив, що другий і третій рівні безпосередньо пов’язані з правотворчістю та правозастосуванням, а отже потребують базового розуміння права. Адвокат описав проблемність позитивістського підходу в умовах браку спеціальних нормативних актів і зазначив, що в Україні в цій сфері фактично є лише окремі норми, зокрема в законодавстві про авторське право та академічну доброчесність. Водночас він вказав, що реальні відносини щодо використання ШІ вже розвиваються швидше за нормативне упорядкування. Орієнтиром для нормотворчості О.Чернобай вважає європейський підхід і зосередився на Регламенті ЄС 2024/1689 від 13.06.2024, який встановлює гармонізовані правила щодо штучного інтелекту. Він також згадав український підхід, який Мінцифри визначило як «м’яке право»: Дорожня карта регулювання 2023 року і Біла книга 2024-го із фокусом на рекомендації, кодекси поведінки, «регуляторну пісочницю» й підготовку до подальшої імплементації європейського регламенту. Європейська шкала ризиків Співголова міжфракційного депутатського об’єднання «Стратегічний форсайт України» народний депутат Олексій Жмеренецький повідомив, що разом із колегами досліджує передові зміни в законодавстві, пов’язані з технологічними викликами. За його словами, ще під час підготовки європейського AI Act вони мали змогу спілкуватися з авторами, секретаріатом і науковцями, які брали участь у розробці документа. Акт був ухвалений влітку 2024 року, а його впровадження є поетапним до 2027 року. При цьому 2026 рік є ключовим через обов’язок держав-членів ЄС запровадити на національному рівні регулювання систем ШІ високого ризику. Далі нардеп виклав логіку європейського підходу, акцентувавши, що в різних регіонах світу по-різному сприймають ризики і баланс між технологіями та правами людини. Європейський Союз він охарактеризував як юрисдикцію з найбільш суворим і деталізованим регулюванням у сфері ШІ. Китайський підхід орієнтований на інтереси держави, контроль і безпеку, а в США домінують ліберальні, ринкові підходи і пріоритет інтересів бізнесу та корпорацій. AI Act запроваджує чотири рівні небезпеки: неприйнятний, високий, середній і низький. До неприйнятного ризику відноситься використання ШІ для соціальних рейтингів, розпізнавання емоцій і формування психологічного профілю людини, а також застосування для прогнозування ризиків і превентивного впливу на людину. Такі практики у ЄС повністю забороняються. Високий ризик пов’язаний із критичною інфраструктурою та процедурами добору персоналу, де використання можливе, але за умов прозорості алгоритмів, чітких критеріїв і аудиту, щоб система не була «чорним ящиком». Середній ризик О.Жмеренецький пояснив на прикладі генерації контенту і чатботів, де ключовою вимогою є інформування людини про взаємодію з машиною. Як приклад він навів маркування AI-контенту в соцмережах і самоідентифікацію чатботів у сервісних комунікаціях. Низький ризик характеризують прикладні задачі на кшталт спам-фільтрів у пошті, для яких застосовується більш ліберальний підхід. Народний депутат наголосив, що Україні доведеться імплементувати положення AI Act з огляду на курс на членство в ЄС, але, на його думку, не обов’язково йти на випередження через витрати та складність адаптації для бізнесу. Він повідомив, що Мінцифри вже працює в цьому напрямі, а в парламенті законопроєкту ще не внесено, хоча дискусії тривають. Також О.Жмеренецький торкнувся судової системи: припустив інтеграцію ШІ для підготовки проектів рішень і зменшення технічних витрат часу, а автоматизовані рішення пов’язав із масовими «технічними» справами, на кшталт штрафів за порушення ПДР. Водночас у кримінальних справах, на думку народного депутата, запровадити системи штучного інтелекту навряд удасться. Помічник, а не замінник Власну позицію щодо застосування штучного інтелекту насамперед у правосудді, окреслив народний депутат Верховної Ради VIII скликання Ігор Лапін, який бачить себе радше противником, ніж прихильником такого напряму. Він назвав прийнятним застосування штучного інтелекту для систематизації законодавства, узагальнення судової практики в окремих категоріях справ і формування кейсів. Водночас ключову проблему юрист пов’язав із тим, як саме ШІ може впливати на формування думки судді. Адже суддя керується законом і внутрішнім переконанням, яке формується під впливом багатьох факторів. У цьому контексті він поставив питання, на чийому боці в такій моделі може опинитися штучний інтелект: закону, людини, справедливості або механізму формування внутрішнього переконання. Окремо він звернув увагу на принцип змагальності сторін і описав ризик ситуації, коли «штучний інтелект прокурора» змагатиметься зі «штучним інтелектом адвоката». На його думку, психологію людини в конкретній ситуації неможливо звести до математичного обчислення, тому роль ШІ він допускав саме як допоміжну. У цьому ж блоці він підняв питання відповідальності за помилки: хто має відповідати, якщо система на підставі даних «склала неправильну картинку» і це вплинуло на сприйняття реальності. Він окреслив ланцюг ризиків, який може виникати, якщо штучний інтелект використовує адвокат, прокурор або навіть система, що допомагає судді готувати попередній проект рішення. «Я б такі ризики, чесно кажучи, побоявся закладати саме в контексті правосуддя», - резюмував І.Лапін. Він також звернувся до питання персональних даних і того, хто надає право використовувати їх для обчислення. Юрист згадав, що сучасні системи інколи відмовляються давати медичні поради, і поставив у цьому зв’язку питання, хто і на якій підставі визнає допустимим надання юридичних порад, коли йдеться про долю людини. Окремо він описав ризик впливу інформаційних масивів на відповіді систем, навівши сценарій, за якого на умовно політичне запитання ШІ може обробити великі масиви даних, сформовані, зокрема, ботофермами, і видати викривлену картину реальності. Торкнувшись військової сфери, І.Лапін зауважив, що застосування ШІ там може виглядати добре, доки не постає питання відповідальності за наслідки, зокрема якщо техніка змінить поведінку й це призведе до втрат. У цивільному житті, за його логікою, проблема посилюється тим, що притягнути до відповідальності транскорпорацію складно. Підсумовуючи, він повернувся до розмежування ролей: штучний інтелект може бути корисним як інструмент-помічник для швидкої систематизації великих масивів даних і практики, але як замінник людини — неприйнятний у питаннях, де йдеться про людину та її сприйняття. Аби першим отримувати новини адвокатури, підпишіться на канал Національної асоціації адвокатів України у Telegram. |
|
|
© 2026 Unba.org.ua Всі права захищені |
|