Я работаю над крупномасштабными разреженными проблемами, связанными с матрицами размером 2500 * 700 (т. Е. Переполненный словарь) и 2500 * 3200 (неполный словарь). Для этой цели мы используем MATLAB и знаем, что для этой задачи существуют стандартные разреженные решатели.
Например :
- SRC_L1L Бойда: http://web.stanford.edu/~boyd/l1_ls/
- SRC_L1Fg Ли: http://ai.stanford.edu/~hllee/softwares/nips06-sparsecoding.htm
2 известных стандартных решателя.
Мой вопрос двоякий:
- С точки зрения алгоритмов. Нам нужна точная категоризация этих решателей, реализованных различными исследовательскими группами по всему миру. Мы хотели бы знать, есть ли какая-либо статья/проект, в котором некоторые из этих решателей используются для разных приложений, и сравнить их производительность?
- Реализация: я думал об использовании Parallel Computing Toolbox (PCT) в MATLAB, который предлагает такие возможности, как Parallel Processing, Batch Processing и GPU-Programming для решения проблем со временем. Как вы думаете, насколько PCT может быть полезен для нашей цели.
Мы будем признательны за комментарии экспертов и специалистов, так как эта проблема может касаться и других.