请原谅新手的问题,首先,因为我试图学习星星之火和斯卡拉在intellij。
我为我的build.sbt添加了下面的依赖项,它编译得很好。
name := "learning project"
version := "0.1"
scalaVersion := "2.11.8"
libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "2.1.0"但是,当我去创建scala类时,以及当我尝试导入
import org.apache.spark.SparkConf
import org.apache.spark._它显示了一个错误,说没有找到符号。
我检查我的项目的库和sbt: org.apache.sight:spark_2.11:2.1.0:jar文件。
因此,我不知道自己做错了什么。
发布于 2018-04-02 01:25:59
尝试sbt clean并可能删除.idea文件夹并重新导入项目。
还有,试试这段代码,
import org.apache.spark._
object WordCount {
def main(args: Array[String]) {
val conf = new SparkConf()
.setAppName("Simple Application")
.setMaster("local")
val sc = new SparkContext(conf)
val lines = sc.textFile("src/main/resources/word_count.text").cache()
val wordCounts = lines.flatMap(line => line.split(" "))
.map(word => (word, 1))
.reduceByKey((a, b) => a + b)
for ((word, count) <- wordCounts)
println(word + " : " + count)
sc.stop()
}
}我希望能澄清一些事情:)
https://stackoverflow.com/questions/49604135
复制相似问题