import org.apache.spark.SparkContext._ 这条语句没有被引用

查看数: 36210 | 评论数: 16 | 收藏 0
关灯 | 提示:支持键盘翻页<-左 右->
    组图打开中,请稍候......
发布时间: 2017-3-15 19:21

正文摘要:

Error:scalac: bad symbolic reference. A signature in SparkContext.class refers to term hadoop in package org.apache which is not available. It may be completely missing from the current classpath, o ...

回复

armand 发表于 2017-3-17 12:48:18
是不是类冲突
w517424787 发表于 2017-3-16 14:52:46
scala 2.12.x的版本应该移除试试!
easthome001 发表于 2017-3-16 14:30:02
本帖最后由 easthome001 于 2017-3-16 14:42 编辑

spark1.3以前是这么做,你的这个是spark1.6的尝试下面的

[mw_shl_code=bash,true]import org.apache.spark.SparkContext
import org.apache.spark.SparkConf[/mw_shl_code]
spark.jpg http://spark.apache.org/docs/latest/programming-guide.html
海滩发红 发表于 2017-3-16 14:15:30

Hadoop-env.sh  添入export hadoop classpath=?
langke93 发表于 2017-3-16 14:14:23
海滩发红 发表于 2017-3-16 14:00
export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)   
是这条语句吗?

环境变量
海滩发红 发表于 2017-3-16 14:00:19
langke93 发表于 2017-3-16 13:40
hadoop classpath配置了吗

export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)   
是这条语句吗?

langke93 发表于 2017-3-16 13:40:01

hadoop classpath配置了吗
海滩发红 发表于 2017-3-16 13:37:00
langke93 发表于 2017-3-16 13:36
楼主的包可能坏了。是从官网下载的吗

是官网上下的
关闭

推荐上一条 /2 下一条