На початку минулого року невідомий хакер зміг отримати доступ до внутрішніх систем обміну повідомленнями OpenAI. Він вкрав деталі про розробку технологій штучного інтелекту компанії, пише The New York Times.

  • Кіберзлочинець викрав деталі з дискусій на онлайн-форумі, де співробітники обговорювали новітні технології OpenAI. Але таки не потрапив у системи, де компанія розміщує і будує свій ШІ.
  • Керівництво компанії повідомило про це своїх працівників і Раду директорів. Але вирішили не інформувати ні громадськість, ні правоохоронні органи, адже дані клієнтів і партнерів не постраждали.
  • А сам інцидент не вважали загрозою нацбезпеці, оскільки думали, що хакер не пов’язаний з іноземним урядом.
  • Проте ця новина викликала побоювання, що іноземні супротивники зможуть вкрасти ШІ-технології. Хоча зараз це переважно робочий і дослідницький інструмент, побоюються, що в майбутньому він може поставити під загрозу національну безпеку США.
  • Це також викликало питання про те, наскільки серйозно OpenAI ставиться до безпеки.

Безпека в OpenAI

Нагадаємо, не так давно OpenAI звільнила двох працівників за витік інформації, серед яких був Леопольд Ашенбреннер. Він займався тим, щоб майбутні технології штучного інтелекту не завдавали серйозної шкоди.

В одному з подкастів він розповів, що говорив Раді директорів про недостатні зусилля для запобігання крадіжкам їхніх секретів китайським чи іншими урядами. Він назвав систему безпеки OpenAI недостатньо сильною.

В OpenAI відповіли, що не ці його висловлювання призвели до звільнення. Хоча компанія була не згодна з багатьма його заявами. 

Чи безпідставні такі побоювання

З одного боку, минулого місяця президент Microsoft Бред Сміт давав свідчення, як китайські хакери використовували системи техногіганта для атаки на мережі федерального уряду.

З іншого, є Meta, яка вільно ділиться розробками з рештою світу. Вони вважають, що небезпека ШІ незначна і що обмін кодом дозволяє інженерам і дослідникам знаходити та виправляти проблеми.

Такі компанії, як OpenAI, Anthropic і Google, додають запобіжники до своїх ШІ-моделей, перш ніж пропонувати їх людям і компаніям. Так вони сподіваються запобігти поширенню дезінформації або створенню інших проблем за допомогою ШІ.

Зараз існує не так багато доказів того, що ШІ дійсно становить серйозну загрозу нацбезпеці. Дослідження OpenAI, Anthropic та інших компаній за останній рік показали, що ШІ не є небезпечнішим за пошукові системи.