Future of Life Institute — некомерційна організація, яка працює над зменшенням глобальних катастрофічних та екзистенціальних ризиків, з якими стикається людство — опублікував публічного листа з вимогою призупинити принаймні на 6 місяців навчання систем штучного інтелекту, потужніших за GPT-4.

Цього листа вже підписали тисячі візіонерів, включно з CEO SpaceX, Tesla та Twitter Ілоном Маском, співзасновником Apple Стівом Возняком співзасновником Ripple Крісом Ларсеном, CEO Stability AI Емадом Мостаком та професорами десятків світових університетів.

Що вимагають підписанти?

У Future of Life Institute зазначають, що системи штучного інтелекту з конкурентоспроможним інтелектом можуть становити серйозні ризики для суспільства та людства загалом, а до його розгортання та розробки потрібно підходити з відповідальністю.

«На жаль, ми не спостерігаємо достатнього рівня планування та управління, а в останні місяці лабораторії штучного інтелекту вийшли з-під контролю за розробкою та розгортанням все більш потужних цифрових розумів, яких ніхто, навіть їхні творці, не можуть зрозуміти. Прогнозувати або надійно контролювати», — зазначають автори відкритого листа.

На їх думку, потужні системи штучного інтелекту слід розробляти лише тоді, коли людство буде впевнене, що їхній ефект буде позитивним, а ризики — керованими. Тому в Future of Life Institute закликають всі лабораторії з розробки штучного інтелекту негайно призупинити принаймні на 6 місяців навчання потужніших за GPT-4 систем.

Під час цієї паузи системи мають бути загальнодоступними та для перевірки та включати всіх ключових учасників. Якщо таку паузу не вийде здійснити, то уряди повинні втрутитися та ввести мораторій на розробку ШІ. Паралельно розробники ШІ повинні співпрацювати з політиками, щоб значно прискорити розробку надійних систем управління штучним інтелектом. Вони повинні включати як мінімум:

  • Нові дієві регуляторні органи, які займаються штучним інтелектом;
  • Нагляд і відстеження високопродуктивних систем штучного інтелекту та великих обчислювальних можливостей;
  • Системи відстеження походження та ідентифікації, які б могли допомогти відрізнити справжні (тексти/фото) від створених синтетично та відстежувати витоки моделей; 
  • Надійну екосистема аудиту та сертифікації; 
  • Відповідальність за шкоду, заподіяну штучним інтелектом; 
  • Надійне державне фінансування технічних досліджень безпеки штучного інтелекту; 
  • А також добре забезпечені ресурсами установи для подолання економічних і політичних зривів (особливо для демократії), які спричинить штучний інтелект.

Хто підписав листа та що це дасть?

На момент написання публікації лист із закликом негайно призупинити всі лабораторії з навчання систем ШІ, принаймні на 6 місяців вже підписало 1125 людей, серед яких генеральний директор SpaceX, Tesla та Twitter Ілон Маск, співзасновник Apple Стів Возняк, старший науковий співробітник DeepMind Вікторія Краковна, співзасновник Ripple Кріс Ларсен, CEO Stability AI Емад Мостак та професорами десятків світових університетів.

Проте ймовірно, що цей лист ні на що не вплине. Подібна акція проходила у 2015 році, коли Стівен Хокінг, Ілон Маск і понад тисячу вчених та дослідників робототехніки підписали лист із пропозицію щодо заборони використання штучного інтелекту у війнах. Проте такі розробки не зупинялися й продовжуються досі.