aBasic Research of Artificial Intelligence Laboratory (BRAIn Lab), Москва, Россия bMoscow Center for Advanced Studies, Москва, Россия cFederated Learning Problems Laboratory, Москва, Россия dУниверситет Иннополис, Казань, Россия
Аннотация:
В этой статье исследуются задачи стохастической оптимизации в условиях марковского шума и условия сильного роста, основанные на чрезмерно параметризованных ML-моделях. Мы представляем улучшенный анализ алгоритма ускоренного градиентного спуска из [1] в сильно выпуклом случае, показывающий, что в режимах с низким уровнем шума марковским эффектом можно пренебречь. Кроме того, мы выводим первую нижнюю границу, которая одновременно зависит от времени смешивания цепи Маркова и уровня шума задачи, что подтверждает почти оптимальность наших результатов.