Ads
Europe

Ключовий момент для регулювання штучного інтелекту в ЄС: хто керуватиме кодексом практики GPAI?

Досвід і бачення (заступників) голови матимуть вирішальне значення для розробки правил GPAI у майбутньому та забезпечення того, щоб європейський шлях до надійності в екосистемі ШІ тривав, пишуть Кай Зеннер і Корнелія Куттерер.

Протягом наступних трьох тижнів Офіс ШІ, ймовірно, призначить одну важливу групу зовнішніх осіб, які будуть формувати імплементацію ключової частини Закону ЄС про штучний інтелект: голів і заступників голів Кодексу практик для ШІ загального призначення ( моделі GPAI).

  • Щоб надати деяку передісторію: розвиток генеративного штучного інтелекту, включно з такими популярними програмами, як ChatGPT OpenAI, був не лише руйнівним в економічному плані, він також спричинив політичну суперечку наприкінці трилогу щодо Закону про штучний інтелект.
  • Країни-члени, такі як Франція, Німеччина та Італія, були стурбовані тим, що регуляторне втручання в основу стека штучного інтелекту було передчасним і стримало б такі стартапи в ЄС, як Mistral або Aleph Alpha, хоча, нагадаємо, Франції вдалося провалитися. кілька разів, перш ніж приземлитися в цю стійку.
  • Для Європейського парламенту було навпаки. Стурбована концентрацією ринку та потенційними порушеннями фундаментальних прав, вона запропонувала комплексну правову основу для генеративного штучного інтелекту, або, як охрещено в остаточному законі, моделей GPAI.
  • Маючи такі протилежні погляди, співзаконодавці ЄС обрали третій шлях, підхід до спільного регулювання, який визначає зобов’язання постачальників моделей GPAI у кодексах і технічних стандартах.

Саме комісар Тьєррі Бретон запропонував використовувати цей інструмент, запозичивши сторінку з Кодексу практики щодо дезінформації 2022 року.

Основні подібності приховані за межами підходу до управління, що робить гнучкі коди особливо придатними для безпеки штучного інтелекту: технологія, що швидко розвивається, соціально-технічні цінності та складність політики щодо вмісту та рішень модерації.

Проте не всі погодяться з тим, що кодекси є відповідним інструментом регулювання. Їхні критики вказують на ризик того, що компанії візьмуть на себе лише мінімальні зобов’язання та запізно зроблять надто мало.

Принаймні таке враження склалося у багатьох аудиторів щодо початкової версії Кодексу практики ЄС щодо дезінформації в 2018 році.

Після суворої перевірки команда Комісії з дезінформації підштовхнула компанії до кращих результатів, залучила до переговорів громадянське суспільство та сильних озброєних учасників, щоб вони призначили незалежного вченого головою процесу.

Технічно здійсненний та інноваційний

Хороша новина полягає в тому, що, повертаючись до майбутніх призначень (заступників) голів у середині вересня, Управління штучного інтелекту також використало цей конкретний досвід як основу для свого підходу до спільного регулювання щодо GPAI.

30 червня запропонували ефективну систему управління для розробки кодексів практики GPAI за допомогою чотирьох робочих груп.

Таким чином, усім зацікавленим сторонам надається багато можливостей внести свій внесок і сформувати остаточний текст, зокрема, через публічні консультації та три пленарні засідання. Компанії GPAI все ще домінуватимуть у процесі розробки, оскільки їх запрошують на додаткові семінари.

Вони також не зобов’язані дотримуватися кінцевих результатів, оскільки кодекси є добровільними.

Щоб досягти найвищої якості, Офіс AI має обирати (заступників) голів за заслугами: серйозні технічні, соціально-технічні та управлінські знання щодо моделей GPAI у поєднанні з практичним досвідом того, як керувати роботою комітетів на європейській чи міжнародній арені.

Озираючись назад до Кодексу проти дезінформації, можна сказати, що критерії незалежності (заступників) голів стануть вирішальними для збереження довіри та належного балансу процесу розробки.

Призначені особи матимуть великий вплив, оскільки вони фактично є власниками пера, відповідальними за розробку текстів і головування чотирьох робочих груп.

Один додатковий дев’ятий стілець міг би виконувати навіть координуючу роль. Разом вони могли б прагнути знайти правильний баланс між амбітними правилами в світлі системних ризиків, зберігаючи при цьому зобов’язання технічно здійсненними та сприятливими для інновацій.

Кодекс GPAI відображає прагматичне тлумачення сучасного рівня

Щоб досягти найвищої якості, Офіс AI має обирати (заступників) голів за заслугами: серйозні технічні, соціально-технічні та управлінські знання щодо моделей GPAI у поєднанні з практичним досвідом того, як керувати роботою комітетів на європейській чи міжнародній арені.

Вибір першорядної важливості

Процес відбору буде складним. Безпека штучного інтелекту – це галузь досліджень, яка зароджується та розвивається, позначена методом проб і помилок.

Офіс штучного інтелекту має орієнтуватися в різноманітному наборі професійних досвідом, збалансувати величезну кількість перевірених інтересів і дотримуватися типових міркувань ЄС щодо різноманітності країн і статей, визнаючи, що багато провідних експертів з безпеки штучного інтелекту знаходяться за межами ЄС.

Звичайно, Кодекс GPAI має зосереджуватися на цінностях ЄС, і важливо забезпечити сильне представництво ЄС серед (заступників) голів. Однак, враховуючи його глобальне значення та той факт, що Закон про штучний інтелект вимагає врахування міжнародних підходів, численні поважні міжнародні експерти висловили інтерес до цих ролей.

Для ЄС також було б виграшем призначити значну кількість всесвітньо відомих експертів на посади голів або заступників голів. Такий крок підвищить вірогідність успішного результату, забезпечить легітимність кодексу та зробить його більш сприятливим для компаній, що не входять до ЄС, узгодити процес.

Підсумовуючи, вибір (заступників) голів для Кодексу GPAI є надзвичайно важливим на цьому етапі.

Їхнє керівництво задасть тон розвитку процесу спільного регулювання з часом, особливо, оскільки воно керується складними соціально-технічними проблемами та делікатною політикою, як-от права інтелектуальної власності, CSAM та критичні порогові значення, які визначають зобов’язання відповідних моделей GPAI.

Досвід і бачення (заступників) голови матимуть вирішальне значення для розробки правил GPAI у майбутньому та забезпечення збереження європейського шляху до надійності в екосистемі ШІ.


Кай Зеннер є головою офісу та радником з цифрової політики депутата Європарламенту Акселя Восса (Німеччина, ЄНП) і брав участь у переговорах щодо Закону про штучний інтелект на технічному рівні.

Корнелія Куттерер є керуючим директором Considerati, радником SaferAI і дослідником у міждисциплінарному інституті штучного інтелекту UGA.

euronews.com

EditorChief-NW

Recent Posts

Президент Тайваню прибув до Есватіні після звинувачення Китаю у скасуванні попередньої поїздки

ТАЙБЕЙ, 2 травня (Reuters) - Президент Тайваню Лай Чін-де прибув до Есватіні в суботу, через…

5 години ago

ISW: Головне зусилля підпорядкованих Росії сил №3 – Донецька область

Ціль Росії: Захопити всю Донецьку область, територію, заявлену російськими маріонетками на Донбасі, та просуватися в…

2 дні ago

Нафта тимчасово підскочила вище 126 доларів за барель на тлі загострення війни з Іраном

Нафтові ринки стикаються з надзвичайним тиском, причому ціна на нафту марки Brent у четвер вранці…

2 дні ago

Вихід ОАЕ з ОПЕК завдав серйозного удару по світовій групі виробників нафти

ДУБАЙ, 28 квітня (Reuters) - Об'єднані Арабські Емірати заявили у вівторок про вихід з групи…

4 дні ago

Європейські ринки відкрилися зростанням, незважаючи на зупинку переговорів між США та Іраном

Європейські ринки відкрилися зростанням у понеділок вранці, незважаючи на зупинку переговорів між Іраном та США.…

6 днів ago

З’явився електронний лист Пентагону про відсторонення Іспанії від НАТО та інші кроки щодо розколу в Ірані

ВАШИНГТОН, 24 квітня (Reuters) - У внутрішньому електронному листі Пентагону викладено варіанти покарання Сполученими Штатами…

1 тиждень ago
Ads