aЛаборатория фундаментальных исследований искусственного интеллекта, Москва, Россия bМосковский центр продвинутых исследований, Москва, Россия cЛаборатория проблем федеративного обучения, Москва, Россия dУниверситет Иннополис
Аннотация:
Вариационные неравенства (ВН) служат мощным инструментом для решения различных задач. Эта постановка может быть применена к широкому спектру задач оптимизации, машинного обучения и других задач. В то же время большие объемы данных необходимы для высокой производительности в задачах машинного обучения, которые решаются с помощью стохастических подходов. Однако широко используемый метод SGD страдает от неубывающей дисперсии стохастического градиента. Для решения этой проблемы были разработаны методы уменьшения дисперсии. Этот подход хорошо изучен для минимизации, но менее широко – для вариационных неравенств. В этой статье мы модифицируем метод SAGA, известный своей эффективностью при стохастической минимизации, путем интеграции техники экстраградиента для решения задач ВН. В работе приводится теоретический анализ предложенного метода и предоставляются эксперименты, включая билинейные задачи и задачи по устранению шумов на изображениях.
Ключевые слова:
вариационные неравенства, редукция дисперсии, стохастическая оптимизация, экстраградиент, SAGA.
УДК:
004.9
Поступило: 22.08.2025 Принято к публикации: 29.09.2025