OpenAI звільнила двох дослідників штучного інтелекту за ймовірний витік інформації, пише The Information з посиланням на свої джерела. Але про яку інформацію йдеться — наразі невідомо.

Компанія звільнила дослідника команди з питань безпеки ШІ для суспільства Леопольда Ашенбреннера. Та ще одного дослідника Павла Ізмаілова (родом із росії), який також працював у групі безпеки, перш ніж перейти до дослідницької групи.

Леопольд Ашенбреннер і Павел Ізмаілов. Світлини взяті з The Information
  • Видання пише, що Ашенбреннер був союзником головного науковця OpenAI Іллі Суцкевера, який у листопаді 2023 року повідомив гендиректору OpenAI Сему Альтману про звільнення, бо він «не завжди був відвертим у спілкуванні з радою директорів».
  • Через чотири дні Альтмана поновили на посаді, і він сказав, що не відчуває до Суцкевера «жодної неприязні». Як пише The Information, після повернення Альтмана науковець покинув раду директорів і фактично не з’являвся в компанії.

Окрім того, що Ашенбреннер був «союзником» Суцкевера, також він працював у створеній ним команді супервирівнювання: вона займалася розробкою методів контролю та управління просунутим штучним інтелектом, відомим як суперінтелект, який розв’язуватиме проблеми ядерного синтезу або колонізації інших планет.

Напередодні звільнення співробітники OpenAI розійшлися в думках про те, чи достатньо безпечно компанія розробляє ШІ. Ашенбреннер мав зв’язки з рухом «Ефективний альтруїзм». Цей рух надає пріоритет усуненню небезпек, пов’язаних з ШІ, а не короткостроковим вигодам у вигляді прибутку або продуктивності.