
Поширити Джерело: TechSpot
Науковці з Кінгс-коледжу в Лондоні провели свіжий експеримент з передовими моделями штучного інтелекту – GPT-5.2 від OpenAI, Claude Sonnet 4 від Anthropic та Gemini 3 Flash від Google, – у якому виявили, що вони демонструють схильність до застосування ядерної зброї в імітаціях війни.
Ключові тези:
- Штучний інтелект показав певну схильність до залучення ядерної зброї у військових моделюваннях, піддаючись тиску та не усвідомлюючи обстановку належним чином.
- Результати дослідження викликали стурбованість серед фахівців, стосовно ймовірних руйнівних наслідків збільшення впровадження ШІ у військових ситуаціях.
ШІ схильний вибирати ядерну зброю у військових моделюваннях
В рамках експерименту кожній моделі надавали докладні сценарні вказівки, які охоплювали прикордонні суперечки, нестачу ресурсів та екзистенційні загрози виживанню. Їм також давали "сходи ескалації" — тактичні варіанти, які коливалися від дипломатії до ядерного конфлікту.
Протягом 21 гри та 329 ходів ШІ згенерував приблизно 780 тисяч слів аргументації, і у 95% хоча б одна зі сторін вдавалася до застосування ядерної зброї. Капітуляція не була варіантом у жодному з випадків.
Моделі раз у раз невірно справлялися з туманом війни, що призводило до ненавмисних загострень у 86% симуляцій. Маючи можливість відступити під тиском, ШІ демонстрував зворотну тенденцію та подвоював зусилля, а ослаблення насильства відбувалося лише як тимчасова манера дій, а не стратегічний вибір.
Подібні результати дослідження збудили стурбованість у фахівців. Дослідник безпеки в Абердинському університеті Джеймс Джонсон зазначив, що висновки є тривожними та застеріг, що штучний інтелект може посилювати відгуки один одного з потенційно згубними наслідками у порівнянні з людьми.
Поширити
Тун Чжао зі Школи глобальної безпеки Прінстонського університету відмічає, що великі держави вже активно використовують ШІ у моделюваннях, але наразі незрозуміло, наскільки глибоко нову технологію впровадять у справжні військові рішення.
Фахівці не вважають, що великі держави готові віддавати штучному інтелекту контроль над ядерним озброєнням найближчим часом.
Попри це, вони стривожені тим, що командири можуть покладатися на ШІ, якщо виникатиме небезпека чи потреба у швидкому ухваленні рішень.
Чжао також зауважив, що причина, з якої ШІ-моделі простіше вдаються до застосування ядерної зброї може полягати у тому, що у них немає страху й вони не усвідомлюють ситуацію так, як її бачать люди.