好啊。我现在有2个问题:
1. 我的dataframe是直接从sqlserver去拉 不用自己构造数据 这样就可以
val jdbcDF = spark.read.format("jdbc").option("url","jdbc:sqlserver://192.168.1.21;username=sa;password=yishidb;database=CDRDB16").option("driver","com.microsoft.sqlserver.jdbc.SQLServerDriver").option("dbtable","DC_PATIENT").load()
这的话 我是不是构造一个catalog之后就可以直接写 :jdbcDF.write.options(Map(HBaseTableCatalog.tableCatalog -> catalog, HBaseTableCatalog.newTable -> "5")).format("org.apache.hadoop.hbase.spark ").save()
2. 如果1成立,我是不是可以自己定义某个字段为rowkey?
|