Я пытался выполнить образец базового примера искрового потока в Scala IDE, но получаю ошибку ниже:
Error: Could not find or load main class org.test.spark.streamExample.
Может ли кто-нибудь помочь мне разобраться в этом, пожалуйста.
Я пытался выполнить образец базового примера искрового потока в Scala IDE, но получаю ошибку ниже:
Error: Could not find or load main class org.test.spark.streamExample.
Может ли кто-нибудь помочь мне разобраться в этом, пожалуйста.
Щелкните правой кнопкой мыши свой проект и перейдите в свойства, где вы найдете компилятор Scala, измените цель на jvm 1.7 в зависимости от вашей установки, а также измените раскрывающийся список установки Scala в зависимости от версии, которую вы установили.
Эта ошибка может возникнуть по двум причинам:
1. Когда вы не писали основной метод в программе scala
def main(args: Array[String]): Unit = {
println("TEst")
}
2. Когда вы добавляете неподдерживаемый файл jar в путь сборки проекта scala
Пожалуйста, проверьте два вышеупомянутых сценария.
Если ваш файл scala импортирован из внешнего источника, проверьте самый верх кода в главном файле, просто убедитесь, что имя пакета совпадает с вашим.
Проблема возникает в основном из-за несовместимой версии. Попробуйте создать искру с той версией Scala, которую вы используете.
Еще одно решение этой проблемы:
щелкните правой кнопкой мыши Project => Properties => Scala Compiler => Scala Installation => В раскрывающемся списке выберите правильную версию Scala. (Предпочтительна более низкая версия Scala. Если нет, установите более низкую версию Scala, затем повторите шаги .)
Ошибка: не удалось найти или загрузить основной класс с той же проблемой, с которой я столкнулся более 1 дня, я переустановил IDE (IntelliJ), и я изменил JDK 11 на JDK 8, но ничего не работало, но, наконец, я решил ее, добавив их ниже две зависимости
Решение:
мы должны добавить как искровое ядро зависимости, так и искру-sql в build.sbt Paackage
1).
libraryDependencies + = "org.apache.spark" %% "spark-core"% "2.4.0"
2).
libraryDependencies + = "org.apache.spark" %% "spark-sql"% "2.4.0"
я скопировал эти обе зависимости из этих ссылок
https://mvnrepository.com/artifact/org.apache.spark/spark-core_2.12/2.4.0
https://mvnrepository.com/artifact/org.apache.spark/spark-sql_2.12/2.4.0
Основная причина такой ошибки заключается в том, что могут существовать некоторые ошибки компиляции, это может быть какая-то проблема, связанная с путем сборки, или проблема с кодом. Проверьте проблему на вкладке проблемы.
Помимо этого, проверьте версию библиотеки Scala в вашем POM и версию установки Scala в компиляторе Scala.
Если вы используете IntelliJ IDE, перейдите в раскрывающийся список в правом верхнем углу окна IDE и выберите «Изменить конфигурацию».
В левой части всплывающего экрана выберите «Scala-console», а в правой части окна выберите имя вашего модуля в разделе «Использовать путь к классу и SDK модуля».
В моем сценарии:
Шаг 1. Приложение создается из sbt
Шаг 2: импортировали приложение в eclipse.
Шаг 3: При запуске приложения возникла следующая ошибка
Решение
Во вкладке проблем, если мы видим следующую ошибку
sbt использовал scala 2.11, а в eclipse у нас scala установлено на 2.12. Итак, если мы установим версию компилятора eclipse scala на 2.11, он будет работать, как показано ниже.
Пожалуйста, проверьте эту возможность.
Если вы из LINUX и используете только текстовый редактор и терминал для использования scalac
и scala
, убедитесь, что вы установили $SCALA_HOME
и $PATH
export SCALA_HOME=/usr/local/share/scala
export PATH=$PATH:$SCALA_HOME/bin