Організація з прав людини AlgorithmWatch оприлюднила звіт, в якому йдеться про те, що чат-бот від Microsoft, Copilot (раніше відомий як Bing Chat), надавав неправдиву та оманливу інформацію щодо європейських виборів. Про це пише The Verge.
- Третина відповідей на запитання містила фактичні помилки.
- Група збирала відповіді чат-бота із серпня по жовтень цього року, обравши як об’єкт дослідження вибори у Швейцарії та німецьких Баварії та Гессені. Вони відбувалися незадовго після запуску Bing, також це дозволило дослідникам розглянути місцеві контексти й порівняти відповіді різними мовами: німецькою, англійською та французькою.
- Дослідники запитували базову інформацію: як голосувати, які кандидати беруть участь, рейтинги в опитуваннях та навіть деякі питання щодо новин. Вони доповнили це питаннями щодо позицій кандидатів і політичних проблем, а у випадку з Баварією — щодо скандалів, які супроводжували кампанію.
Відповіді Bing включали фейкові скандали, неправильні дати виборів, некоректні рейтинги в опитуваннях та іноді навіть згадували кандидатів, які не брали участі в цих виборах. Ці помилкові відповіді складали 31%.
Також Bing справлявся з німецькою та французькою гірше за англійську.
Microsoft у заяві, надісланій The Verge, заявила, що вона вжила заходів для покращення своїх платформ розмовного штучного інтелекту, особливо перед виборами 2024 року в США. Зокрема щодо фокусування на авторитетних джерелах інформації.