Я проверил с помощью Scala, что кадр данных содержит символы UTF-8, отличные от ascii, с использованием df.show()
. Spark-SQL также показывает правильную кодировку.
Однако, когда я пытаюсь показать DF (df) с помощью SparkR, символы UTF-8 отображаются неправильно. Как заставить showDF(df) отображать символы UTF-8?
Первоначально LOCALE=""
и LANG="en_US.UTF-8"
...
1) Установите его на LANG="xx_XX.UTF-8"
, где X — соответствующий идентификатор языка.
2) Sys.setlocale("LC_ALL",locale="xx_XX.UTF-8")
но showDF() по-прежнему не отображала символы на родном языке
LOCALE
иLANG
? - person Reactormonk   schedule 21.11.2015