分享

import org.apache.spark.SparkContext._ 这条语句没有被引用

海滩发红 发表于 2017-3-16 13:56:56
nextuser 发表于 2017-3-16 13:26
Scala版本2.11和编译器版本应该匹配,spark版本匹配

我用Scala11.4试了一下   出现下面的情况
5_MY[){8T_J%XT[4Q8[L$YA.png
回复

使用道具 举报

海滩发红 发表于 2017-3-16 14:00:19
langke93 发表于 2017-3-16 13:40
hadoop classpath配置了吗

export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)   
是这条语句吗?

回复

使用道具 举报

langke93 发表于 2017-3-16 14:14:23
海滩发红 发表于 2017-3-16 14:00
export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)   
是这条语句吗?

环境变量
回复

使用道具 举报

海滩发红 发表于 2017-3-16 14:15:30

Hadoop-env.sh  添入export hadoop classpath=?
回复

使用道具 举报

easthome001 发表于 2017-3-16 14:30:02
本帖最后由 easthome001 于 2017-3-16 14:42 编辑

spark1.3以前是这么做,你的这个是spark1.6的尝试下面的

[mw_shl_code=bash,true]import org.apache.spark.SparkContext
import org.apache.spark.SparkConf[/mw_shl_code]
spark.jpg http://spark.apache.org/docs/latest/programming-guide.html
回复

使用道具 举报

w517424787 发表于 2017-3-16 14:52:46
scala 2.12.x的版本应该移除试试!
回复

使用道具 举报

armand 发表于 2017-3-17 12:48:18
是不是类冲突
回复

使用道具 举报

12
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条