
Поширити
Штучний інтелект ChatGPT знову потрапив у центр уваги після того, як користувачі звернули увагу на незвичну поведінку мовної моделі. Компанія OpenAI вже зробила офіційну заяву з даного питання.
Основні тези:
- ChatGPT почав згадувати “гоблінів” на 175% частіше, ніж раніше, а “гремлінів” – на 52%.
- Команда OpenAI визнала свою відповідальність у тому, що відбувається.
Що знову не так з ChatGPT?
Велика кількість питань у користувачів виникає під час використання мовних моделей серії GPT-5.
Основна проблема полягає в тому, що у розмовах вони все частіше почали застосовувати метафори з "гоблінами", "гремлінами" та іншими уявними істотами.
У зв’язку з цим, користувачі почали скаржитися на надмірну "невимушеність" відповідей чат-бота.
Команда OpenAI врешті-решт вирішила пояснити, що насправді трапилося.
За словами представників компанії, основною причиною такої поведінки бота став алгоритм навчання моделей під конкретні типи "характеру", які користувачі згодом могли вибирати для взаємодії з ChatGPT.
Особливо відчутно проблема виявилася у бота з типом характеру Nerdy (сленговий "ботан"). Хоча на характер Nerdy припадало лише 2,5% відповідей ChatGPT, саме ця версія виявилася відповідальною за 66,7% всіх згадок гоблінів.
Поширити
Як відзначають розробники, коли навчали версію Nerdy під специфічну "ботанську" манеру спілкування, їй ненавмисно встановили особливо високий пріоритет використання "метафор з істотами".
Звідти й поширилися гобліни, — офіційно підтвердила компанія OpenAI.
Поширити