У меня проблемы с использованием функций Spark reduceByKey / groupByKey.
У меня есть пара RDD формы (datetime, [a1, b1, c1, d1]), (datetime, [a2, b2, c2, d2]) ...
Я хотел бы сгруппировать эти элементы по ключу (здесь та же дата и время) и получить выходное значение, соответствующее списку элементарного минимума.
В моем примере результат будет:
(datetime, [min(a1,a2), min(b1,b2), min(c1,c2), min(d1,d2)])
Я пробовал:
reduceByKey(lambda (a, b): [min(x) for x in zip(a, b)])
но пока безуспешно.
заранее спасибо
TypeError: <lambda>() takes exactly 1 argument (2 given)
при попытке выполнить вышеуказанное. Просто удалили круглые скобки лямбда-объекта (a, b) и похоже, что он работает ... но я не понимаю, почему ... Все равно спасибо! - person PMarshall   schedule 23.08.2016