Я запускаю некоторые задачи по уменьшению карты на хаупе. Mapper используется для генерации данных и, следовательно, не зависит от размещения блока hdfs. Для тестирования моей системы я использую 2 узла и один главный узел. Я провожу тестирование на hadoop-2.0 с пряжей.
Есть что-то очень неудобное, что я нахожу с hadoop. Я настроил его для запуска 8 задач карт. К сожалению, Hadoop запускает все 8 задач карты на одном узле, а другой узел почти идеален. Там 4 редуктора, и это тоже не балансирует эти редукторы. Это действительно приводит к плохой производительности, когда это происходит.
У меня есть эти свойства, установленные в mapred-site.xml как в средстве отслеживания вакансий, так и в средстве отслеживания задач.
<property>
<name>mapreduce.tasktracker.map.tasks.maximum</name>
<value>2</value>
</property>
<property>
<name>mapreduce.tasktracker.reduce.tasks.maximum</name>
<value>2</value>
</property>
Может кто-нибудь объяснить, можно ли решить эту проблему или почему такая проблема существует с hadoop?