Дослідження IEEE: 54% учасників прийняли GPT-4 за людину

Дослідження IEEE: 54% учасників прийняли GPT-4 за людину

Ключові моменти:

  1. Люди частіше взаємодіють зі штучним інтелектом в інтернеті, ніж усвідомлюють.
  2. В дослідженні IEEE 54% учасників прийняли GPT-4 за людину.
  3. Тест показав, що сучасні ШІ-системи можуть бути прийняті за людину через їх здатність імітувати людські когнітивні упередження та примхи.

У сучасному світі люди взаємодіють зі штучним інтелектом в інтернеті не лише частіше, ніж будь-коли, але й частіше, ніж їм здається. Нейромережі стають все більш просунутими, і часто відрізнити їх від людини не так просто. На підтвердження цього вчені з Інституту інженерів електротехніки та електроніки (IEEE) провели дослідження, у рамках якого респондентам пропонувалося поспілкуватися з чотирма агентами, серед яких була лише одна людина.

Мета дослідження полягала в тому, щоб визначити, чи зможуть учасники відрізнити синтетичного співрозмовника від живої людини. Дослідження вчених є сучасною інтерпретацією тесту, запропонованого знаменитим математиком Аланом Тюрінгом у 1950 році. Тест вважається пройденим, якщо ШІ-алгоритм у процесі спілкування з людиною може змусити його думати, що розмову з ним веде інша людина.

У тестуванні взяли участь 500 людей, які деякий час по черзі спілкувалися з чотирма агентами: однією людиною та трьома програмними продуктами. Серед них був написаний у 60-ті роки минулого століття віртуальний співрозмовник ELIZA та сучасні чат-боти, побудовані на базі великих мовних моделей GPT-3.5 та GPT-4 (остання також є основою популярного ШІ-бота ChatGPT).

Респонденти по п’ять хвилин спілкувалися з кожним із агентів, після чого мали визначити, з ким, на їхню думку, вони розмовляли — з людиною чи чат-ботом. Врешті-решт з’ясувалося, що 54% учасників тестування прийняли GPT-4 за людину. ELIZA, яка не має у своєму арсеналі великої мовної моделі та архітектури нейромережі, була визнана людиною лише у 22% випадків. Алгоритм на базі GPT-3.5 визнали людиною у 50% випадків, а людину впізнали у 67% випадків.

«Машини можуть розмірковувати, змішуючи правдоподібні обґрунтування речей постфактум, як це роблять люди. Вони можуть бути схильні до когнітивних упереджень, ними можна маніпулювати, і вони стають все більш оманливими. Все це означає, що в ШІ-системах виражаються людські недоліки та примхи, що робить їх більш схожими на людину, ніж попередні рішення, які мали у своєму арсеналі лише список готових заздалегідь відповідей», — прокоментував результати роботи один із дослідників.