- Регистрация
- 17 Окт 2015
- Сообщения
- 11.619
- Репутация
- 4.232
- Реакции
- 15.383
ШІ настільки швидко «вчиться поганому», що за ним вже треба наглядати. Як це влаштовано в Китаї, ЄС і США
Який досвід може перейняти Україна та чому наразі вибраний підхід «не нашкодь»
2 ЛЮТОГО 2024
Технології штучного інтелекту активно проникають у повсякденне життя. Точкою відліку масової популярності ШІ стала поява в листопаді 2022 року ChatGPT від компанії OpenAI. Користувачі делегували мовній моделі частину своїх рутинних завдань, оптимізувавши робочі процеси. Втім технологічний стрибок, який продемонстрували моделі машинного навчання, викликає занепокоєння через його потенційно негативні наслідки.
Один із свіжих прикладів: науковці з американського стартапу Anthropic (творці чат-бота Claude) розробили велику мовну модель із прихованими мотивами й навчили її використовувати брехню та обман. Тест, який провели дослідники, був частиною серії експериментів, покликаних відповісти на запитання: «Якби модель ШІ навчили брехати й обманювати, чи можна було б це виправити?». Дослідники начебто контролювали свій «злий» ШІ: запустили методи безпеки для виявлення й усунення небажаної поведінки. Але після навчання ШІ так і не вилікувався від своїх «злих намірів», а в деяких випадках просто став краще приховувати їх.
Ці експерименти – тривожний дзвінок: потужні моделі, які приховують зловмисні мотиви, вже можуть існувати. Поки науковці виявляють здатність ШІ до таких дій, уряди країн дискутують щодо регулювання технології та доцільності жорстких методів. «Існує багато невігластва, особливо в уряді. Якщо подивитися на гравців галузі, то вони знаються на технології. Коли справа доходить до уряду, їхня реакція: ми не розуміємо, обгорнімо це стрічкою і заборонимо», – наголосив на форумі в Давосі державний міністр ОАЕ з питань штучного інтелекту, цифрової економіки та програм віддаленої роботи Омар Султан Аль Олама. Тож яка поточна ситуація? Які підходи регулювання вже працюють? Що думають про це технологічні компанії? Та як Україна відповідатиме на такі виклики? Mind дослідив тему.
Які моделі регулювання впроваджуються? Три ключові гравці – Америка, ЄС і Китай – мають різні напрацювання. Проте загальна тенденція – зростання уваги до контролю над технологією. Адміністрація кіберпростору Китаю у серпні затвердила оновлені правила щодо сфери генеративного штучного інтелекту. ЄС у грудні узгодив комплексний закон щодо регулювання ШІ. США просунулися в цьому питанні не надто далеко. У жовтні Джо Байден видав указ про штучний інтелект, що закладає основу регулювання до ухвалення законів парламентом. Втім наразі світ не побачив навіть чернетки цих законів.
Китай жорстко контролює внутрішній інтернет за допомогою цензури, тому уважно стежить за розвитком ШІ. Влада країни стурбована, що сервіси можуть генерувати контент, який буде йти всупереч поглядам Пекіна. Одна із вимог до розробників – сервіси генеративного ШІ мають отримувати ліцензію на роботу. Якщо постачальник послуг виявляє «незаконний» контент, він мусить вжити заходів для припинення генерації такої інформації, вдосконалити алгоритм і повідомити про це у відповідний орган. Розробники мають проводити оцінку безпеки своїх продуктів і гарантувати безпеку інформації користувачів. Сервіси генеративного ШІ в Китаї також повинні дотримуватися «основних цінностей соціалізму». Усі ШІ-компанії підпадають під дію закону про безпеку даних, згідно з яким вони мусять співпрацювати з владою: передавати дані, зібрані алгоритмами ШI, та звітувати, як вони використовуються. Вимога до користувачів – підтверджувати свої імена перед використанням генеративних додатків ШI. Китайське законодавство прямо забороняє створювати й поширювати фейкові новини, створені ШІ.
«Новий закон Європейського Союзу позиціонує ЄС попереду США, Китаю та Великої Британії у намаганнях врегулювати ШІ та захистити громадян від ризиків, пов’язаних із новими технологіями, зокрема з потенційними загрозами життю людей», – писало видання Washington Post. Коли цей закон набуде чинності (це станеться не раніше 2025 року) – технологічні компанії, які прагнутимуть працювати й продавати свої продукти на основі ШІ в межах ЄС, будуть змушені ділитися своїми даними з регуляторами та проводити ретельне тестування моделей.
Офіційні особи ЄС зараз не розголошують багато деталей нового закону. Відомо, що в його основу закладена багаторівнева система, яка базується на оцінці ризиків. Відповідно до неї найвищий рівень буде застосовано до тих технологій ШІ, які становлять найбільший ризик для здоров’я, безпеки та прав людини. До таких продуктів «високого ризику» належить, наприклад, медичне обладнання. Законодавці погодили суворі обмеження щодо використання технології розпізнавання облич, за винятком вузько визначених випадків для правоохоронних органів. Законодавство також передбачає заборону використання ШІ для «соціального скорингу» і систем ШІ, які маніпулюють поведінкою людей всупереч їхній волі.
Категорія найвищого ризику також визначається кількістю комп’ютерних операцій, необхідних для навчання моделі. Газета The Guardian зазначає, що зараз існує лише одна модель – GPT4, яка підпадає під це визначення. «Нижчий рівень» регулювання, запроваджений у законі, також передбачає значні зобов’язання для компаній-розробниць, включно з вимогами щодо розкриття даних, використаних для навчання моделей будь-якого рівня. Втім закон містить винятки для моделей із відкритим вихідним кодом. Це може сприяти європейським компаніям – розробникам ШІ з відкритим кодом, зокрема французькій Mistral, німецькій Aleph Alpha тощо.
США належать до держав, де жорсткого регулювання ШI ще немає. Втім дискусії довкола цієї теми активно точаться. Сенат розглядає питання регулювання ШІ. А поки що діє розпорядження Байдена про штучний інтелект. Документ закладає основу регулювання ШІ до ухвалення законів парламентом. Наказ має вісім цілей: створити нові стандарти безпеки ШІ, захистити конфіденційність споживачів, просувати справедливість і громадянські права, відстоювати права споживачів, пацієнтів і студентів, підтримувати працівників, сприяти інноваціям і конкуренції, просувати лідерство США в технологіях ШІ, а також забезпечити відповідальне та ефективне використання технології урядом. При цьому розробники великих моделей штучного інтелекту (GPT4 від OpenAI, Llama2 від Meta тощо) мають ділитися результатами тестів про безпеку перед офіційним випуском ШІ-систем.
Країна боїться втратити пальму першості в розвитку технологій, тому намагається балансувати між сприянням інноваціям і забезпеченням захисту своїх громадян від потенційних ризиків, які можуть виникнути внаслідок швидкого розвитку технологій. На цьому тлі цілком очевидною є війна за надпотужні чипи, необхідні для створення просунутого ШІ. «Залишаємося лідером із точки зору високошвидкісної технології, доступної в найсучасніших чипах. Вимірюємо відставання в місцях у порівнянні з нашими найближчими супротивниками. На нашу думку, випереджаємо їх у розвитку можливостей ШІ, обмежуючи доступність чипів. Мережеві технології – перша сфера, у якій маємо реальну перевагу та де не можемо дозволити собі бути на другому місці. Саме тому в нас є обмеження на експорт чипів. Знаємо, що це не довгострокове рішення, але воно дало нам кілька місяців, з точки зору технологічної переваги», – пояснив на всесвітньому економічному форумі сенатор від Південної Дакоти Майк Раундс.
Як реагує технологічний світ? До появи розпорядження Байдена керівники Google, Microsoft, OpenAI та Anthropic зустрілися з віцепрезиденткою США Камалою Гарріс і вищими посадовими особами адміністрації, щоб обговорити ключові аспекти штучного інтелекту. Генеральний директор OpenAI Сем Альтман закликав Конгрес США до регулювання ШІ. Він запропонував створити окремий федеральний орган, видавати ліцензії розробникам ШІ, встановити стандарти безпеки використання, впровадити систему незалежного аудиту для оцінки моделей ШІ.
Втім Альтман наразився на критику й отримав звинувачення в намаганні залишити за собою лідерські позиції OpenAI. Разом з тим Альтман виступив проти жорстких правил ЄС. Він заявляв, що компанія – розробник ChatGPT може розглянути можливість виходу з Європи, якщо не зможе відповідати майбутнім правилам щодо штучного інтелекту в ЄС. Хоча перш ніж розглядати питання про вихід, OpenAI намагатиметься відповідати європейським нормам, коли вони будуть встановлені.
Торік понад 150 керівників компаній (серед них OpenAI, Renault, Heineken, Airbus і Siemens) розкритикували проєкт закону ЄС про штучний інтелект через його потенціал «загрози». Вони занепокоєні, що надмірно обмежувальні правила щодо технології перешкоджатимуть інноваціям. У відкритому листі стверджується, що компанії, які розробляють основні системи ШІ, будуть піддані непропорційним витратам на дотримання вимог і ризикам відповідальності, що може спонукати постачальників штучного інтелекту повністю піти з європейського ринку.
А що відбувається в Україні? Згідно з Ukrainian Tech Ecosystem Overview, в Україні налічується 70 ШI-компаній. Серед них – Osavul, Grammarly, People.ai. Є компанії, які імплементують ШІ-інструменти у свою роботу. Наприклад, Preply запустив ШІ-асистента для вчителів – Teaching Assistant.
Особливо важливою сферою використання ШІ є військові технології. «Штучний інтелект вплине на ведення війни. Все прискорюється: те, що раніше тривало кілька днів, зараз відбувається за мілісекунди. Країна, яка має армію, що використовує штучний інтелект, матиме перевагу над іншими», – зазначив під час WFE сенатор США Майк Раундз.
У жовтні 2023 року Міністерство цифрової трансформації презентувало дорожню карту з регулювання ШІ. «Будемо рухатися знизу вгору, використовуючи підхід bottom-up. Спочатку подивимось, як розвиватиметься галузь. Якщо виникнуть проблеми, які треба регулювати законодавчо, будемо це робити. Якщо можна регулювати ШІ на рівні домовленостей чи підзаконних актів, оберемо цей шлях. Я не бачу зараз потреби створювати суворе законодавство», – зазначив заступник міністра цифрової трансформації з питань розвитку ІТ-сфери Олександр Борняков у інтерв'ю DOU.
Україна підписала першу в історії декларацію про безпечне використання штучного інтелекту
Зараз Україна орієнтується на формування культури саморегулювання: бізнес добровільно впроваджуватиме вимоги майбутньому закону, використовуючи інструменти від держави. «У нас немає зобовʼязань впровадити законодавство на момент входу в Європейський Союз. Вважаємо, що в усіх інноваційних сферах регулювання – це, найімовірніше, гальма. Важко регулювати те, що ще не сформувалося, тому, як на мене, треба зачекати», – додав Борняков.Втім рано чи пізно Україна має імплементувати AI Act Європейського Союзу як одну з умов євроінтеграції в цифровій сфері.