Досвід і бачення (заступників) голови матимуть вирішальне значення для розробки правил GPAI у майбутньому та забезпечення того, щоб європейський шлях до надійності в екосистемі ШІ тривав, пишуть Кай Зеннер і Корнелія Куттерер.
Протягом наступних трьох тижнів Офіс ШІ, ймовірно, призначить одну важливу групу зовнішніх осіб, які будуть формувати імплементацію ключової частини Закону ЄС про штучний інтелект: голів і заступників голів Кодексу практик для ШІ загального призначення ( моделі GPAI).
Саме комісар Тьєррі Бретон запропонував використовувати цей інструмент, запозичивши сторінку з Кодексу практики щодо дезінформації 2022 року.
Основні подібності приховані за межами підходу до управління, що робить гнучкі коди особливо придатними для безпеки штучного інтелекту: технологія, що швидко розвивається, соціально-технічні цінності та складність політики щодо вмісту та рішень модерації.
Проте не всі погодяться з тим, що кодекси є відповідним інструментом регулювання. Їхні критики вказують на ризик того, що компанії візьмуть на себе лише мінімальні зобов’язання та запізно зроблять надто мало.
Принаймні таке враження склалося у багатьох аудиторів щодо початкової версії Кодексу практики ЄС щодо дезінформації в 2018 році.
Після суворої перевірки команда Комісії з дезінформації підштовхнула компанії до кращих результатів, залучила до переговорів громадянське суспільство та сильних озброєних учасників, щоб вони призначили незалежного вченого головою процесу.
Хороша новина полягає в тому, що, повертаючись до майбутніх призначень (заступників) голів у середині вересня, Управління штучного інтелекту також використало цей конкретний досвід як основу для свого підходу до спільного регулювання щодо GPAI.
30 червня запропонували ефективну систему управління для розробки кодексів практики GPAI за допомогою чотирьох робочих груп.
Таким чином, усім зацікавленим сторонам надається багато можливостей внести свій внесок і сформувати остаточний текст, зокрема, через публічні консультації та три пленарні засідання. Компанії GPAI все ще домінуватимуть у процесі розробки, оскільки їх запрошують на додаткові семінари.
Вони також не зобов’язані дотримуватися кінцевих результатів, оскільки кодекси є добровільними.
Щоб досягти найвищої якості, Офіс AI має обирати (заступників) голів за заслугами: серйозні технічні, соціально-технічні та управлінські знання щодо моделей GPAI у поєднанні з практичним досвідом того, як керувати роботою комітетів на європейській чи міжнародній арені.
Озираючись назад до Кодексу проти дезінформації, можна сказати, що критерії незалежності (заступників) голів стануть вирішальними для збереження довіри та належного балансу процесу розробки.
Призначені особи матимуть великий вплив, оскільки вони фактично є власниками пера, відповідальними за розробку текстів і головування чотирьох робочих груп.
Один додатковий дев’ятий стілець міг би виконувати навіть координуючу роль. Разом вони могли б прагнути знайти правильний баланс між амбітними правилами в світлі системних ризиків, зберігаючи при цьому зобов’язання технічно здійсненними та сприятливими для інновацій.
Щоб досягти найвищої якості, Офіс AI має обирати (заступників) голів за заслугами: серйозні технічні, соціально-технічні та управлінські знання щодо моделей GPAI у поєднанні з практичним досвідом того, як керувати роботою комітетів на європейській чи міжнародній арені.
Процес відбору буде складним. Безпека штучного інтелекту – це галузь досліджень, яка зароджується та розвивається, позначена методом проб і помилок.
Офіс штучного інтелекту має орієнтуватися в різноманітному наборі професійних досвідом, збалансувати величезну кількість перевірених інтересів і дотримуватися типових міркувань ЄС щодо різноманітності країн і статей, визнаючи, що багато провідних експертів з безпеки штучного інтелекту знаходяться за межами ЄС.
Звичайно, Кодекс GPAI має зосереджуватися на цінностях ЄС, і важливо забезпечити сильне представництво ЄС серед (заступників) голів. Однак, враховуючи його глобальне значення та той факт, що Закон про штучний інтелект вимагає врахування міжнародних підходів, численні поважні міжнародні експерти висловили інтерес до цих ролей.
Для ЄС також було б виграшем призначити значну кількість всесвітньо відомих експертів на посади голів або заступників голів. Такий крок підвищить вірогідність успішного результату, забезпечить легітимність кодексу та зробить його більш сприятливим для компаній, що не входять до ЄС, узгодити процес.
Підсумовуючи, вибір (заступників) голів для Кодексу GPAI є надзвичайно важливим на цьому етапі.
Їхнє керівництво задасть тон розвитку процесу спільного регулювання з часом, особливо, оскільки воно керується складними соціально-технічними проблемами та делікатною політикою, як-от права інтелектуальної власності, CSAM та критичні порогові значення, які визначають зобов’язання відповідних моделей GPAI.
Досвід і бачення (заступників) голови матимуть вирішальне значення для розробки правил GPAI у майбутньому та забезпечення збереження європейського шляху до надійності в екосистемі ШІ.
Кай Зеннер є головою офісу та радником з цифрової політики депутата Європарламенту Акселя Восса (Німеччина, ЄНП) і брав участь у переговорах щодо Закону про штучний інтелект на технічному рівні.
Корнелія Куттерер є керуючим директором Considerati, радником SaferAI і дослідником у міждисциплінарному інституті штучного інтелекту UGA.
Остаточна кількість загиблих поки невідома після раптової повені на сході та півдні Іспанії, яка призвела…
Велика та громіздка армія намагається трансформувати себе, щоб у разі потреби швидко розгорнути її в…
Камала Гарріс у своїй заключній промові перед виборцями визнала неминучу політичну реальність: Дональд Трамп не…
Виборча кампанія в країні з населенням 3,7 мільйона людей, яка межує з Росією, відзначалася запеклою…
Кампанія віце-президента Камали Гарріс швидко просунулася в неділю, бо мала змогу засудити расистські та підбурливі…
Опозиція звинувачує партію «Грузинська мрія» у «конституційному перевороті» після отримання 54% голосів на 99% підрахованих…