感谢分享 |
哥哥呀,你少了个.toDF,否则注册不到表 。这是1.6版本,在2.0版本后不建议注册成表,应该搞成视图。// Create an RDD of Person objects and register it as a table. val people = sc.textFile("examples/src/main/resources/people.txt").map(_.split(",")).map(p => Person(p(0), p(1).trim.toInt)).toDF() people.registerTempTable("people") |
Dataset and DataFrame API registerTempTable has been deprecated and replaced by createOrReplaceTempView,第一个反射模式的SparkSQL不建议注册成表,官网说的 |
有问题,反射推断模式部分是引入import sqlContext.implicits._ |
整理的比较全面,谢谢thanks a lot ,thanks for your share... |
学习了,多谢分享! |
楼主,怎么使用spark sql 读取hbase, |
xbings 发表于 2015-3-21 01:22 使用Spark Python接口读写JDBC,我使用的是Spark 1.6测试:读取:df.load(url, source) 写入:df.write.jdbc(url, table, mode='append') 具体使用方法可以参看帮助文档,地址: http://spark.apache.org/docs/1.6 ... #module-pyspark.sql |
好好学习,天天向上,哇哈哈 |