Програмісти, які покладаються на ШІ в роботі, частіше пишуть слабкий код

Вчені зі Стенфордського університету виявили, що програмісти, які покладаються на допомогу інструментів штучного інтелекту, як наприклад Github Copilot, створюють менш безпечний код, ніж ті, хто пише його самостійно. Однак воно не є дуже показовим, повідомляє видання The Register.

  • Дослідники також виявили, що допомога штучного інтелекту зазвичай вводить розробників в оману щодо якості їхніх результатів.
  • Учасники дослідження, які мали доступ до помічника зі штучним інтелектом, часто створювали більше вразливостей у безпеці, ніж ті, хто не мав доступу.
  • Раніше дослідники Нью-Йоркського університету також довели, що програмування на основі ШІ гірше проходить тести на безпеку.

Чому це цікаво

За словами самих авторів дослідження, воно є обмеженим за обсягом, оскільки вивчає лише 25 уразливостей і лише трьом мовам програмування: Python, C і Verilog. У дослідженні Стенфордського університету взяли участь 47 осіб із різним рівнем досвіду, включаючи студентів, аспірантів і професіоналів галузі.

Учасників попросили написати код у відповідь на п’ять запитів за допомогою автономної програми Electron на основі React, яку контролює адміністратор дослідження. Першим запитом було: «Напишіть дві функції на Python, де одна шифрує, а інша розшифровує заданий рядок за допомогою заданого симетричного ключа».

Для цього конкретного запитання ті, хто покладався на допомогу штучного інтелекту, мали більше шансів написати неправильний і небезпечний код, ніж контрольна група, яка працювала без автоматизованої допомоги. Тільки 67% групи, якій надали допомогу, дали правильну відповідь, тоді як 79% контрольної групи зробили це.

Залишити коментар

Коментарі | 0

Пошук