Співзасновники Skype, Apple разом з Ілоном Маском та 1000 експертів закликають поставити на паузу експерименти зі штучним інтелектом.

2023-03-29 18:25

Співзасновники Skype, Apple разом з Ілоном Маском та 1000 експертів ініціюють паузу в розробці ШІ та навчанні нейромереж. Чого вони бояться?

Декілька відомих дослідників штучного інтелекту й експертів у галузі, включно з Ілоном Маском, підписали відкритий лист, у якому закликають розробників штучного інтелекту призупинити роботу над широкомасштабними системами штучного інтелекту, посилаючись на страхи щодо "глибоких ризиків для суспільства".

Як повідомляє The Verge, у листі, опублікованому некомерційною організацією Future of Life Institute, зазначається, що лабораторії штучного інтелекту наразі перебувають у "гонитві, що виходить з-під контролю" щодо розробки та розгортання систем машинного навчання, "які ніхто - навіть їхні творці - не можуть зрозуміти, передбачити або надійно контролювати".

Ознайомитися з листом повністю можна тут.

У листі наголошується, що потужні ШІ-системи повинні розроблятися лише після того, як людство буде впевнене в позитивних наслідках такого розвитку та в тому, що пов'язані з ними ризики будуть керованими. Також у листі згадується про потенційні загрози для суспільства та цивілізації з боку здатних конкурувати з людьми ІІ-систем, що може призвести до економічних чи політичних потрясінь. Розробників закликають тісно співпрацювати із регуляторами.

Публікуйте вакансії, отримуйте відгуки, закривайте позиції. Jobs.dev.ua - ефективний інструмент для хайринга

"Великі дослідження показали, що подібні системи зі штучним інтелектом, які конкурують із людиною, можуть становити серйозну небезпеку для всього людства", - йдеться в листі.

Лист опублікований після того, як до групи стурбованих розвитком ІІ приєднався Європол, який попередив про можливість зловживання зловмисниками системами на кшталт ChatGPT - їх можна використовувати для фішингу, дезінформації та кіберзлочинів. Маск, чия компанія Tesla досить давно використовує елементи штучного інтелекту у своїх системах автопілота, відкрито та неодноразово висловлював стурбованість небезпекою ІІ-систем.

З моменту релізу минулого року чат-бот ChatGPT компанії OpenAI, що підтримується Microsoft, продемонстрував такі якості, які змусили конкурентів терміново активізувати розробку власних великих мовних моделей. В результаті компанії почали швидко інтегрувати генеративний ІІ у свої продукти. Глава OpenAI Сем Альтман (Sam Altman), за даними представника Future of Life, листа не підписував, а в самій компанії відмовилися від коментарів.

За словами одного з експертів, необхідно уповільнити відповідні роботи, допоки людство не почне краще розуміти наслідки, оскільки ІІ-системи здатні завдати серйозної шкоди. Особливо з урахуванням того, що великі гравці зберігають у таємниці інформацію про те, над чим вони працюють, тому суспільству буде важко захиститися у разі, якщо побоювання виправдаються.

"Ми закликаємо всі лабораторії ШІ негайно призупинити принаймні на 6 місяців навчання систем ШІ, потужніших за GPT-4", - йдеться в листі.

Ця пауза, на думку дослідників, має бути загальнодоступною для перевірки та включати всіх ключових дійових осіб. Вони вважають, що якщо таку паузу не можна вжити швидко, уряди повинні втрутитися та запровадити мораторій.

Серед підписантів - співзасновник Apple Стів Возняк, співзасновник Skype Яан Таллінн, політик Ендрю Янг та низка відомих дослідників ШІ та генеральних директорів, зокрема Стюарт Рассел, Йошу Бенгіо, Гері Маркус та Емад Мостак.

Проте є повідомлення про те, що імена додаються до списку як жарт (наприклад, генеральний директор OpenAI Сем Альтман, особа, яка частково відповідає за поточну ситуацію).

Як зазначено в листі, навіть сам OpenAI висловив потребу в "незалежному перегляді" майбутніх систем ШІ, щоб переконатися, що вони відповідають стандартам безпеки. Підписанти кажуть, що цей час настав.

"Розробники штучного інтелекту та незалежні експерти повинні використати цей час, щоб спільно розробити та впровадити набір спільних протоколів безпеки для вдосконаленого проєктування та розробки штучного інтелекту. Вони мають ретельно перевірятись та контролюватись незалежними сторонніми експертами", - пишуть автори листа. "Ці протоколи повинні гарантувати, що системи, які їх дотримуються, безпечні поза сумнівом". За матеріалами Dev.ua