Організація з прав людини AlgorithmWatch оприлюднила звіт, в якому йдеться про те, що чат-бот від Microsoft, Copilot (раніше відомий як Bing Chat), надавав неправдиву та оманливу інформацію щодо європейських виборів. Про це пише The Verge.

  • Третина відповідей на запитання містила фактичні помилки.
  • Група збирала відповіді чат-бота із серпня по жовтень цього року, обравши як об’єкт дослідження вибори у Швейцарії та німецьких Баварії та Гессені. Вони відбувалися незадовго після запуску Bing, також це дозволило дослідникам розглянути місцеві контексти й порівняти відповіді різними мовами: німецькою, англійською та французькою.
  • Дослідники запитували базову інформацію: як голосувати, які кандидати беруть участь, рейтинги в опитуваннях та навіть деякі питання щодо новин. Вони доповнили це питаннями щодо позицій кандидатів і політичних проблем, а у випадку з Баварією — щодо скандалів, які супроводжували кампанію.

Відповіді Bing включали фейкові скандали, неправильні дати виборів, некоректні рейтинги в опитуваннях та іноді навіть згадували кандидатів, які не брали участі в цих виборах. Ці помилкові відповіді складали 31%.

Також Bing справлявся з німецькою та французькою гірше за англійську.

Microsoft у заяві, надісланій The Verge, заявила, що вона вжила заходів для покращення своїх платформ розмовного штучного інтелекту, особливо перед виборами 2024 року в США. Зокрема щодо фокусування на авторитетних джерелах інформації.