Керівники компаній, орієнтованих на розвиток штучного інтелекту, включаючи генерального директора OpenAI Сема Альтмана, приєдналися до експертів і професорів у підвищенні «ризику вимирання від ШІ». Як повідомляє Reuters, 350 підписантів відкритого листа порівнюють ризики від розвитку штучного інтелекту з пандеміями та ядерною війною.

  • «Зменшення ризику вимирання через штучний інтелект має бути глобальним пріоритетом поряд з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна», — написали понад 350 підписантів у листі, опублікованому некомерційною організацією Center for AI Safety (CAIS).
  • Окрім Альтмана, серед них були генеральні директори компаній DeepMind і Anthropic, які займаються штучним інтелектом, а також керівники Microsoft і Google.
  • Серед них також були Джеффрі Хінтон і Йошуа Бенгіо — двоє з трьох так званих «хрещених батьків штучного інтелекту», які отримали нагороду Тюрінга 2018 року за роботу з глибокого навчання, — а також професори різних закладів від Гарварду до китайського Університету Цінхуа. Хінтон раніше заявив Reuters, що штучний інтелект може становити «більш нагальну» загрозу для людства, ніж зміна клімату.
  • Публікація відкритого листа збіглася із зустріччю Ради з торгівлі та технологій США – ЄС у Швеції, де очікується, що політики, серед іншого, обговорять питання регулювання штучного інтелекту.