
Поширити Джерело: online.ua
У рамках великого дослідження Microsoft Research і Salesforce з’ясувалося, що відомі чат-боти ШІ стають “менш розумними” після тривалої взаємодії з користувачами. Важливо враховувати, що загальний відсоток неточностей чат-ботів може збільшитися більше ніж на 100% при вивченні понад 200 тисяч переписок.
Ключові тези:
- Жодна з інтелектуальних моделей поки не готова до тривалої природної комунікації з людиною.
- Не варто розглядати штучний інтелект як джерело абсолютної та життєво важливої інформації.
Співпраця ШІ та людей спричинила непередбачувані наслідки
Зараз великі мовні моделі перебувають на вершині своєї популярності — їхніми послугами користуються сотні мільйонів людей у різних частинах світу.
Однак користувачі все частіше зіштовхуються з “помилками” та невірними відповідями під час спілкування з віртуальними помічниками.
Завдяки дослідженню Microsoft і Salesforce нарешті вдалося з’ясувати, що насправді відбувається з популярними ШІ, пише windowscentral.
З’ясувалося, що навіть передові нейромережі часто “втрачають нитку” під час розмови, коли завдання розбивається на природний людський діалог із кількох висловлювань.
Експерти вирішили проаналізувати понад 200 000 таких діалогів за участі GPT-4.1, Gemini 2.5 Pro, Claude 3.7 Sonnet та DeepSeek R1.
Так, стало відомо, що в рамках роботи з окремими запитами зазначені моделі показують понад 90% вдалих відповідей.
Проте під час тривалих розмов з уточненнями і додатковими питаннями показник опускається до 65%.
Різке зниження якості в довгих бесідах не означає, що моделі “дурнішають” у прямому сенсі — радше, це вказує на їхні обмеження в утриманні та адекватній інтерпретації великого обсягу даних у процесі діалогу.