Я использую Joblib для кэширования результатов ресурсоемкой функции в моем скрипте Python. Входные аргументы функции и возвращаемые значения представляют собой пустые массивы. Кэш отлично работает для одного запуска моего скрипта Python. Теперь я хочу запустить несколько параллельных запусков моего скрипта Python для подметания некоторых параметров в эксперименте. (Определение функции остается одинаковым для всех прогонов).
Есть ли способ разделить кэш joblib между несколькими параллельно работающими скриптами Python? Это позволит сэкономить много вычислений функций, которые повторяются в разных запусках, но не повторяются в одном запуске. Я не смог найти, возможно ли это в документации Joblib
joblib.Memory
в последовательных запусках. - person ali_m   schedule 30.07.2014mem.cache
повторяете функциональность, это должно работать из коробки. По крайней мере на одной машине с многопроцессорностью. Совсем другое дело в кластере из нескольких машин, не использующих совместно используемое дисковое пространство. Если они делят дисковое пространство, и вы помещаете туда кеш, я не понимаю, почему это не должно работать. - person eickenberg   schedule 30.07.2014