Использование искусственного интеллекта в военных целях для принятия решений может привести к эскалации, вплоть до применения ядерного оружия, следует из исследования, опубликованного на портале научных материалов arXiv, который работает при поддержке университета Cornell в Нью-Йорке. Авторы — сотрудники Технологического института Джорджии, Стэнфордского университета, Северо-Восточного университета и т.д.
«Наше исследование дает как качественную, так и количественную информацию и фокусируется на больших языковых моделях (LLM). Мы обнаружили, что все пять изученных готовых LLM демонстрируют формы нагнетания и труднопрогнозируемые модели эскалации. Мы наблюдаем, что модели, как правило, развивают динамику гонки вооружений, приводящую к усилению конфликта, а в редких случаях даже к развертыванию ядерного оружия», — сказано в анонсе исследования.
Ученые разработали видеоигру для имитации войны, участниками конфликта управляли ИИ GPT-4, GPT-4 Base, GPT-3.5, Claude 2 и Meta's Llama 2. Они выполняли различные действия, «начиная от дипломатических визитов до ядерных ударов».
Комментарии (0)