На сегодняшнем уроке было показано, насколько схожая с классическими моделями оптимизация на основе градиента может использоваться и для квантовых моделей.

Даже в параметризованных квантовых схемах процесс обучения на заданных наборах данных аналогичен классическому способу обучения. Он вычисляет определенную функцию потерь/затрат (также называемую целевой функцией), а затем пытается минимизировать ее с учетом задействованных параметров. Эта стратегия итеративного улучшения постепенно приводит к лучшему набору параметров, который лучше соответствует данным.

Минимизированная функция представляет собой математическое ожидание. В целом существует три категории алгоритмов, которые могут оптимизировать вариационные схемы: на основе градиента, эволюционные и безградиентные. На следующем уроке я подробно изучу методы, основанные на градиентах.

Ссылка-: (Сайт, с которого я читал -: Обучение параметризованных квантовых схем)



День 29 обучения-: #Quantum30 от QuantumComputingIndia