scala, spark, sbt, mvn плюс тестовый пример
http://repo.eclipse.org/content/repositories/paho-releases/
скомпилировалось, запустилось (sbt compile && sbt run)
там дальше рантаймовая ошибка?
а, да, взял еще скалу 2.11.1 вместо 2.10.4
—
$ tail -n 5 build.sbt
"Sonatype Releases" at "http://oss.sonatype.org/content/repositories/releases/",
"paho-eclipse" at "http://repo.eclipse.org/content/repositories/paho-releases/"
)
$ head -n 5 src/main/scala/com/experiment/Program.scala
package com.experiment
import scala.beans.BeanInfo
import org.apache.spark.{SparkConf, SparkContext}
import org.apache.spark.ml.Pipeline
добавил в sbt repo для paho: скомпилировалось, запустилось (sbt compile && sbt run)
там дальше рантаймовая ошибка?
а, да, взял еще скалу 2.11.1 вместо 2.10.4
—
$ tail -n 5 build.sbt
"Sonatype Releases" at "http://oss.sonatype.org/content/repositories/releases/",
"paho-eclipse" at "http://repo.eclipse.org/content/repositories/paho-releases/"
)
$ head -n 5 src/main/scala/com/experiment/Program.scala
package com.experiment
import scala.beans.BeanInfo
import org.apache.spark.{SparkConf, SparkContext}
import org.apache.spark.ml.Pipeline
а компилироваться оно у меня тоже компилируется .
Добавил phao и package как у тебя - но ничего не изменилось, в плане ошибки.
Но, спасибо! твой пост натолкнул меня на мысль, что видимо дело не в программе. В итоге я полез в папочку спарка и начал ковырять - как же там всё запускается и нормально отрабатывает. Поковырял скрипты и обнаружил, что при запуске в качестве мастера указывается "local[*]", а не "spark://127.0.0.1:7077".
Сделал так же у себя и программа стала работать, слава богам!
Но выходит проблема кроется в окружении в котором запускаются пакеты на воркере - видимо там нет каких-то скаловских либ, буду ботать это дело.
ML на Lua модно писать, хотя хоть убей не пойму почему. Давно не видел настолько убогого языка.
Оставить комментарий
SCIF32
Пробую собрать тестовый пример, как будто это новый проект. SimpleTextClassificationPipeline из./src/main/scala/org/apache/spark/examples/ml/SimpleTextClassificationPipeline.scala
Как это правильно делать?
Пробовал писать конфиг для sbt, пока не могу пройти ошибку java.lang.ClassNotFoundException: LabeledDocument
хотя вроде классы должны прогрузиться
Если длинно, то история такая:
Решил для расширения кругозора попробовать какие-нибудь примерчики машинного обучения на scala.
Поскольку работаю я на ubuntu, то и запускать всё решил на ней.
Вообще я как-то рассчитывал на то, что уж примерчики из интернета я смогу собрать, но как-то жестоко обломался.
Для начала столкнулся с тем, что почти все компоненты требуют 2-х этапной гуглежки чтобы их просто поднять. (сначала гуглим установку, потом выясняем, что установка падает и гуглим как исправлять падение)
В итоге установил:
1. hadoop 2.6.0 (поднял мастер и воркер)
2. scala 2.4.10
3. spark 1.4.1-bin-hadoop2.6
4. java стоит java-7-openjdk-amb64
Далее пытался банально собрать один пример SimpleTextClassificationPipeline (но не так, чтобы он был в составе spark-а а как свой отдельный проект) И с этим ничего не получается.
С mvn пока разбираюсь - там надо какую-то адскую xml-ку писать в качестве конфига, а конфиг для sbt у меня получился такой:
Но конфига видимо недостаточно.
Код программы: