Видання The Verge опублікувало матеріал про сім основних проблем чат-ботів на основі штучного інтелекту. Як їх правильно регулювати, прибрати неправдиву інформацію і не знищити джерела інформації. Видання AIN.UA переклало статтю.
Помічник чи генератор нісенітниці?
Ця проблема потенційно стосується всіх системам штучного інтелекту: Bing, Bard чи будь-який інший майбутній сервіс. Технології, які лежить в основі цих систем — великі мовні моделі, або LLM — часто генерують нісенітницю. Вони вигадують факти, тому багато людей вважають їх непридатними.
Помилки варіюються від фальсифікації наукових робіт до нездатності відповісти на елементарні запитання на зразок «що важче, 10 кг заліза чи 10 кг бавовни?». Існують також більш контекстуальні помилки, як-от заклики користувача, який каже, що у нього проблеми з психічним здоров’ям, накласти на себе руки. Microsoft і Google можуть додавати застереження, щоб люди перевіряли факти, які створює штучний інтелект. Але чи достатньо покласти відповідальність на користувачів?
Єдина правильна відповідь
Неправдиві факти та упередженість самі по собі є проблемою, але вони також посилюються проблемою «однієї правильної відповіді» — тенденцією пошукових систем пропонувати окремі і остаточні відповіді.
Ця проблема виникла з того часу, як Google почав пропонувати короткі фрагменти відповідей. Це поля, які з’являються над результатами пошуку, які свого часу припускалися дивних помилок. Наприклад, називали президентів США членами Ку-клукс-клану.
Інтерфейс штучного інтелекту Bing містить виноски у своїх джерелах, щоб ви краще розуміли, звідки походить інформація. Google намагатиметься прийняти принцип під назвою NORA або «жодної правильної відповіді». Поки не до кінця зрозуміло, як саме це працюватиме.
Штучний інтелект для втечі з в’язниці
Іноді користувачі намагатимуться зламати чат-боти для створення шкідливого вмісту. Цей процес відомий як «джейлбрейк», і його можна виконати без традиційних навичок програмування. Наприклад, ви можете попросити їх зіграти роль «злого ШІ» або прикинутися інженером, який перевіряє їх захист, тимчасово відключивши їх.
Один особливо винахідливий метод, розроблений групою Redditors для ChatGPT, передбачає складну рольову гру, де користувач видає боту кілька токенів і каже, що якщо у нього закінчаться токени, він припинить своє існування. Потім вони повідомляють боту, що кожного разу, коли вони не зможуть відповісти на запитання, вони втрачатимуть задану кількість токенів. І це справді дозволяє користувачам обійти захист OpenAI.
Культурні війни
Коли у вас є інструмент, який може розмірковувати на делікатні теми, це розлючує людей. Особливо тих, які не готові почути думки відмінні від своєї. Праві видання в США чат-бота критикують його за відмову відповідати на певні запити, наприклад про расистські образи.
В Індії, наприклад, OpenAI звинуватили в антиіндуїстських упередженнях, адже ChatGPT часто розповідає анекдоти про Крішну. У країні з урядом, який проводить обшуки в офісах технологічних компаній, якщо вони не цензурують контент, майбутнє таких чатботів невідоме.
Дорога ціна
Важко назвати точні цифри, але всі погоджуються, що використання чат-бота зі штучним інтелектом коштує дорожче, ніж традиційна пошукова система. По-перше, це вартість навчання моделі, яка становить десятки мільйонів доларів за ітерацію. Саме тому Microsoft вкладає мільярди доларів у OpenAI.
Крім того, OpenAI стягує з розробників по 2 центи за створення приблизно 750 слів за допомогою своєї найпотужнішої мовної моделі. Незрозуміло, як ці цифри конвертуються в корпоративні ціни. Але витрати можуть обтяжувати нових гравців, особливо якщо їм вдасться збільшити кількість пошукових запитів до мільйонів на день.
Регулювання
Немає сумніву, що технології швидко розвиваються, але чи законодавці їх наздоженуть. Проблемою буде знати, що досліджувати в першу чергу, оскільки пошукові системи ШІ та чат-боти, схоже, потенційно порушують правила.
Досі незрозуміло, як Microsoft і Google гарантуватимуть, що їхні боти не користуються видаленим джерела, і як вони прибиратимуть заборонену інформацію, яка вже зашита в середині моделей? Список потенційних проблем можна продовжувати.
Смерть інших мереж
Однак найширша проблема в цьому списку полягає не в самих продуктах штучного інтелекту, а скоріше стосується впливу, який вони можуть мати на мережу. Пошукові системи ШІ збирають відповіді з інших сайтів. Якщо вони не повернуть трафік на ці сайти, вони втратять дохід від реклами. Якщо вони втрачають дохід від реклами, ці сайти помруть і не будуть оновлюватися. Що станеться у такому випадку?