Досвід і бачення (заступників) голови матимуть вирішальне значення для розробки правил GPAI у майбутньому та забезпечення того, щоб європейський шлях до надійності в екосистемі ШІ тривав, пишуть Кай Зеннер і Корнелія Куттерер.
Протягом наступних трьох тижнів Офіс ШІ, ймовірно, призначить одну важливу групу зовнішніх осіб, які будуть формувати імплементацію ключової частини Закону ЄС про штучний інтелект: голів і заступників голів Кодексу практик для ШІ загального призначення ( моделі GPAI).
- Щоб надати деяку передісторію: розвиток генеративного штучного інтелекту, включно з такими популярними програмами, як ChatGPT OpenAI, був не лише руйнівним в економічному плані, він також спричинив політичну суперечку наприкінці трилогу щодо Закону про штучний інтелект.
- Країни-члени, такі як Франція, Німеччина та Італія, були стурбовані тим, що регуляторне втручання в основу стека штучного інтелекту було передчасним і стримало б такі стартапи в ЄС, як Mistral або Aleph Alpha, хоча, нагадаємо, Франції вдалося провалитися. кілька разів, перш ніж приземлитися в цю стійку.
- Для Європейського парламенту було навпаки. Стурбована концентрацією ринку та потенційними порушеннями фундаментальних прав, вона запропонувала комплексну правову основу для генеративного штучного інтелекту, або, як охрещено в остаточному законі, моделей GPAI.
- Маючи такі протилежні погляди, співзаконодавці ЄС обрали третій шлях, підхід до спільного регулювання, який визначає зобов’язання постачальників моделей GPAI у кодексах і технічних стандартах.
Саме комісар Тьєррі Бретон запропонував використовувати цей інструмент, запозичивши сторінку з Кодексу практики щодо дезінформації 2022 року.
Основні подібності приховані за межами підходу до управління, що робить гнучкі коди особливо придатними для безпеки штучного інтелекту: технологія, що швидко розвивається, соціально-технічні цінності та складність політики щодо вмісту та рішень модерації.
Проте не всі погодяться з тим, що кодекси є відповідним інструментом регулювання. Їхні критики вказують на ризик того, що компанії візьмуть на себе лише мінімальні зобов’язання та запізно зроблять надто мало.
Принаймні таке враження склалося у багатьох аудиторів щодо початкової версії Кодексу практики ЄС щодо дезінформації в 2018 році.
Після суворої перевірки команда Комісії з дезінформації підштовхнула компанії до кращих результатів, залучила до переговорів громадянське суспільство та сильних озброєних учасників, щоб вони призначили незалежного вченого головою процесу.
Технічно здійсненний та інноваційний
Хороша новина полягає в тому, що, повертаючись до майбутніх призначень (заступників) голів у середині вересня, Управління штучного інтелекту також використало цей конкретний досвід як основу для свого підходу до спільного регулювання щодо GPAI.
30 червня запропонували ефективну систему управління для розробки кодексів практики GPAI за допомогою чотирьох робочих груп.
Таким чином, усім зацікавленим сторонам надається багато можливостей внести свій внесок і сформувати остаточний текст, зокрема, через публічні консультації та три пленарні засідання. Компанії GPAI все ще домінуватимуть у процесі розробки, оскільки їх запрошують на додаткові семінари.
Вони також не зобов’язані дотримуватися кінцевих результатів, оскільки кодекси є добровільними.
Щоб досягти найвищої якості, Офіс AI має обирати (заступників) голів за заслугами: серйозні технічні, соціально-технічні та управлінські знання щодо моделей GPAI у поєднанні з практичним досвідом того, як керувати роботою комітетів на європейській чи міжнародній арені.
Озираючись назад до Кодексу проти дезінформації, можна сказати, що критерії незалежності (заступників) голів стануть вирішальними для збереження довіри та належного балансу процесу розробки.
Призначені особи матимуть великий вплив, оскільки вони фактично є власниками пера, відповідальними за розробку текстів і головування чотирьох робочих груп.
Один додатковий дев’ятий стілець міг би виконувати навіть координуючу роль. Разом вони могли б прагнути знайти правильний баланс між амбітними правилами в світлі системних ризиків, зберігаючи при цьому зобов’язання технічно здійсненними та сприятливими для інновацій.
Кодекс GPAI відображає прагматичне тлумачення сучасного рівня
Щоб досягти найвищої якості, Офіс AI має обирати (заступників) голів за заслугами: серйозні технічні, соціально-технічні та управлінські знання щодо моделей GPAI у поєднанні з практичним досвідом того, як керувати роботою комітетів на європейській чи міжнародній арені.
Вибір першорядної важливості
Процес відбору буде складним. Безпека штучного інтелекту – це галузь досліджень, яка зароджується та розвивається, позначена методом проб і помилок.
Офіс штучного інтелекту має орієнтуватися в різноманітному наборі професійних досвідом, збалансувати величезну кількість перевірених інтересів і дотримуватися типових міркувань ЄС щодо різноманітності країн і статей, визнаючи, що багато провідних експертів з безпеки штучного інтелекту знаходяться за межами ЄС.
Звичайно, Кодекс GPAI має зосереджуватися на цінностях ЄС, і важливо забезпечити сильне представництво ЄС серед (заступників) голів. Однак, враховуючи його глобальне значення та той факт, що Закон про штучний інтелект вимагає врахування міжнародних підходів, численні поважні міжнародні експерти висловили інтерес до цих ролей.
Для ЄС також було б виграшем призначити значну кількість всесвітньо відомих експертів на посади голів або заступників голів. Такий крок підвищить вірогідність успішного результату, забезпечить легітимність кодексу та зробить його більш сприятливим для компаній, що не входять до ЄС, узгодити процес.
Підсумовуючи, вибір (заступників) голів для Кодексу GPAI є надзвичайно важливим на цьому етапі.
Їхнє керівництво задасть тон розвитку процесу спільного регулювання з часом, особливо, оскільки воно керується складними соціально-технічними проблемами та делікатною політикою, як-от права інтелектуальної власності, CSAM та критичні порогові значення, які визначають зобов’язання відповідних моделей GPAI.
Досвід і бачення (заступників) голови матимуть вирішальне значення для розробки правил GPAI у майбутньому та забезпечення збереження європейського шляху до надійності в екосистемі ШІ.
Кай Зеннер є головою офісу та радником з цифрової політики депутата Європарламенту Акселя Восса (Німеччина, ЄНП) і брав участь у переговорах щодо Закону про штучний інтелект на технічному рівні.
Корнелія Куттерер є керуючим директором Considerati, радником SaferAI і дослідником у міждисциплінарному інституті штучного інтелекту UGA.