Стартап Safe Superintelligence (SSI), нещодавно заснований колишнім головним науковцем OpenAI Іллею Суцкевером, залучив $1 млрд для розробки безпечних систем штучного інтелекту, які значно перевершують людські можливості. Про це Reuters розповіли керівники компанії.

  • SSI, яка наразі налічує 10 співробітників, планує використовувати ці кошти для придбання обчислювальної потужності та залучення провідних спеціалістів. 
  • Компанія зосередиться на створенні невеликої, але з високим рівнем довіри, команди дослідників та інженерів. 
  • Вони працюватимуть між містами Пало-Альто, що в штаті Каліфорнія, та Тель-Авівом.
  • Компанія відмовилася розголошувати свою оцінку, але джерела, близькі до цієї справи, повідомили, про суму у $5 млрд.
  • Серед інвесторів були провідні компанії венчурного капіталу Andreessen Horowitz, Sequoia Capital, DST Global та SV Angel.
  • Також інвестував NFDG, інвестиційний партнер, який очолюють Нат Фрідман і головний виконавчий директор SSI Даніель Гросс.

Фінансування показує, що деякі інвестори все ще готові робити великі ставки на тих, хто працює над фундаментальними дослідженнями штучного інтелекту. Це відбувається всупереч загальному зниженню інтересу до фінансування таких компаній, які можуть бути нерентабельними протягом деякого часу.

37-річний Суцкевер є одним з найвпливовіших технологів у галузі ШІ. Він був одним із перших прихильників гіпотези, що моделі ШІ покращуватимуть свою продуктивність завдяки величезній обчислювальній потужності. Ця ідея та її реалізація розпочали хвилю інвестицій у чипи, центри обробки даних та енергію, заклавши основу для таких досягнень генеративного штучного інтелекту, як ChatGPT.

Суцкевер співзаснував SSI разом із Гроссом, який раніше керував ініціативами ШІ в Apple, та колишнім дослідником OpenAI Даніелем Леві. Суткевер є головним науковим співробітником, Леві — головним науковим співробітником, а Гросс відповідає за обчислювальну потужність і залучення коштів.

Минуле Суцкевера в OpenAI

Минулого року Ілля Суцкевер був членом ради директорів OpenAI, яка проголосувала за звільнення генерального директора Сема Альтмана. Саме Суцкевер повідомив Альтману, що той має покинути компанію, бо він «не завжди був відвертим у спілкуванні з радою директорів».

Проте західні ЗМІ почали тоді писати, що проблема складніша. The Wall Street Journal та інші медіа повідомляли, що Суцкевер зосередив свою увагу на безпеці, щоб штучний інтелект не зашкодив людям. Тоді як Альтман прагнув просунути вперед нову технологію.

Після тиску з боку співробітників та інвесторів, включаючи Microsoft, Альтмана поновили на посаді. Тоді він сказав, що не відчуває до Суцкевера «жодної неприязні». Проте, як писали The Information, після повернення Альтмана Суцкевер покинув раду директорів і фактично не з’являвся в компанії.

Ілля Суцкевер і Ян Лейк, які займалися в OpenAI довгостроковими ризиками штучного інтелекту, повідомили, що йдуть з компанії. А OpenAI розпустила їхню команду з безпеки.