Я использую hadoop cdh4.1.2, и моя программа сопоставления — это почти эхо входных данных. Но на моей странице статуса работы я увидел
FILE: Number of bytes written 3,040,552,298,327
почти равно
FILE: Number of bytes read 3,363,917,397,416
для мапперов, а я уже поставил
conf.set("mapred.compress.map.output", "true");
кажется, их алгоритм сжатия не работает для моей работы? почему это?