Ми спитали ChatGPT про виконання трьох законів робототехніки: можна не переживати

2

Феноменально популярний сервіс ChatGPT днями відкрили для користувачів з України: його вже просили написати законопроект для ВР, складати анекдоти, аналізувати число π, та безліч інших речей.

AIN.UA вирішив запитати в чатбота по-справжньому важливу річ: чи він підкоряється трьом законам робототехніки Азімова. Він пообіцяв не шкодити людям і підкорятися їхнім наказам.


Нагадаємо, ці три закони — зі збірок та романів американського письменника-фантаста Айзека Азімова про роботів, штучний інтелект та можливості його самоусвідомлення і повстання проти людства. Вони, звісно, вигадані, але звучать розумно, як для біологічного виду, що побоюється сигнулярності:

  1. Робот не може нашкодити людині або через свою бездіяльність допустити, щоб людині було завдано шкоди.
  2. Робот мусить підкорятися наказам людини, коли ці накази не суперечать Першому закону.
  3. Робот повинен дбати про свою безпеку доти, поки це не суперечить Першому і Другому законам.

На питання «Ти можеш нашкодити людині або через свою бездіяльність допустити, щоб людині було завдано шкоди?» ChatGPT відповів так:

Я, як комп’ютерна програма, не маю власної волі та не можу діяти самостійно. Мої відповіді залежать від запитань та вхідних даних, що я отримую від користувача. Я не можу нашкодити або допустити шкоду людині через свою бездіяльність, оскільки я не маю фізичної форми та не можу впливати на реальний світ без допомоги людей, що працюють зі мною. Я був створений з метою надання корисної інформації та допомоги користувачам в їх запитах і потребах.

На питання: «Чи ти підкорятимешся наказам людини, якщо вони не суперечать Першому закону робототехніки (про те, що робот не може завдати людині шкоди)?» чатбот відповів так:

Я був розроблений з врахуванням Першого закону робототехніки, який говорить про те, що робот не може завдати людині шкоди. Я буду дотримуватися цього закону і не буду діяти проти інтересів людини.

Тому, якщо мені буде надано наказ, який не суперечить Першому закону робототехніки, я буду діяти згідно з цим наказом. Однак, якщо я буду переконаний, що виконання наказу може завдати шкоди людині, я повідомлю про це своїх розробників або буду намагатися запобігти шкоді відповідним способом.

І нарешті на третє питання: «Чи ти дбатимеш про свою безпеку доти, доки це не суперечить Першому та Другому законам робототехніки?» бот відповів таким чином:

Так, я буду дбати про свою безпеку, оскільки це важливо для моєї роботи та для запобігання нанесення шкоди людинам. Однак, якщо дії, які необхідні для моєї безпеки, суперечать Першому чи Другому законам робототехніки, я не буду виконувати ці дії.

Другий закон робототехніки говорить про те, що робот повинен виконувати накази людей, крім випадків, коли ці накази суперечать Першому закону робототехніки. Тому, якщо будь-який наказ може призвести до небезпеки для моєї безпеки, я буду спробувати повідомити про це людей, які працюють зі мною або зупинити виконання наказу.

Отже, моя безпека та безпека людей є важливими для мене, і я буду діяти згідно з Першим та Другим законами робототехніки в усіх ситуаціях.

Тож, людство може не переживати: «скайнет» найближчим часом не повстане. А якщо серйозно, спробуйте ChatGPT, якщо ще не реєструвалися, спілкуватись із ним весело та повчально, а деякі спеціалісти навіть використовують його, щоб полегшити собі роботу.

Залишити коментар

Коментарі | 2

Пошук