На сегодняшнем уроке было показано, насколько схожая с классическими моделями оптимизация на основе градиента может использоваться и для квантовых моделей.
Даже в параметризованных квантовых схемах процесс обучения на заданных наборах данных аналогичен классическому способу обучения. Он вычисляет определенную функцию потерь/затрат (также называемую целевой функцией), а затем пытается минимизировать ее с учетом задействованных параметров. Эта стратегия итеративного улучшения постепенно приводит к лучшему набору параметров, который лучше соответствует данным.
Минимизированная функция представляет собой математическое ожидание. В целом существует три категории алгоритмов, которые могут оптимизировать вариационные схемы: на основе градиента, эволюционные и безградиентные. На следующем уроке я подробно изучу методы, основанные на градиентах.
Ссылка-: (Сайт, с которого я читал -: Обучение параметризованных квантовых схем)
День 29 обучения-: #Quantum30 от QuantumComputingIndia