分享

Eclipse调用hadoop2运作MR程序

问题导读:
1.hadoop2没有jobtracker,如何配置提交作业
2.exitCode: 1 due to: Exception from container-launch出现错误该如何解决?







hadoop:hadoop2.2 ,windows myeclipse环境;


Eclipse调用hadoop运行MR程序其实就是普通的java程序可以提交MR任务到集群执行而已。在Hadoop1中,只需指定jt(jobtracker)和fs(namenode)即可,一般如下:

  1. Configuration conf = new Configuration();
  2. conf.set("mapred.job.tracker", "192.168.128.138:9001");
  3. conf.set("fs.default.name","192.168.128.138:9000");
复制代码

上面的代码在hadoop1中运行是ok的,完全可以使用java提交任务到集群运行。但是,hadoop2却是没有了jt,新增了yarn。这个要如何使用呢?最简单的想法,同样指定其配置,试试。

  1. Configuration conf = new YarnConfiguration();
  2. conf.set("fs.defaultFS", "hdfs://node31:9000");
  3. conf.set("mapreduce.framework.name", "yarn");
  4. conf.set("yarn.resourcemanager.address", "node31:8032");
复制代码

恩,这样配置后,可以运行,首先是下面的错误:

2014-04-03 21:20:21,568 ERROR [main] util.Shell (Shell.java:getWinUtilsPath(303)) - Failed to locate the winutils binary in the hadoop binary path
java.io.IOException: Could not locate executable null\bin\winutils.exe in the Hadoop binaries.
        at org.apache.hadoop.util.Shell.getQualifiedBinPath(Shell.java:278)
        at org.apache.hadoop.util.Shell.getWinUtilsPath(Shell.java:300)
        at org.apache.hadoop.util.Shell.<clinit>(Shell.java:293)
        at org.apache.hadoop.util.StringUtils.<clinit>(StringUtils.java:76)
        at org.apache.hadoop.yarn.conf.YarnConfiguration.<clinit>(YarnConfiguration.java:345)
        at org.fansy.hadoop.mr.WordCount.getConf(WordCount.java:104)
        at org.fansy.hadoop.mr.WordCount.runJob(WordCount.java:84)
        at org.fansy.hadoop.mr.WordCount.main(WordCount.java:47)

这个错误不用管,这个好像是windows调用的时候就会出的错误。
然后是什么权限问题之类的,这个时候就需要去调整下权限,至少我目前是这样做的。调整的权限主要有/tmp 以及运行wordcount的输入、输出目录。命令如下: $HADOOP_HOME/bin/hadoop fs -chmod -R 777 /tmp 。
然后直到你出现了下面的错误,那么,好了,可以说你已经成功了一半了。

2014-04-03 20:32:36,596 ERROR [main] security.UserGroupInformation (UserGroupInformation.java:doAs(1494)) - PriviledgedActionException as:Administrator (auth:SIMPLE) cause:java.io.IOException: Failed to run job : Application application_1396459813671_0001 failed 2 times due to AM Container for appattempt_1396459813671_0001_000002 exited with  exitCode: 1 due to: Exception from container-launch:
org.apache.hadoop.util.Shell$ExitCodeException: /bin/bash: line 0: fg: no job control

        at org.apache.hadoop.util.Shell.runCommand(Shell.java:464)
        at org.apache.hadoop.util.Shell.run(Shell.java:379)
        at org.apache.hadoop.util.Shell$ShellCommandExecutor.execute(Shell.java:589)
        at org.apache.hadoop.yarn.server.nodemanager.DefaultContainerExecutor.launchContainer(DefaultContainerExecutor.java:195)
        at org.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch.call(ContainerLaunch.java:283)
        at org.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch.call(ContainerLaunch.java:79)
        at java.util.concurrent.FutureTask$Sync.innerRun(FutureTask.java:334)
        at java.util.concurrent.FutureTask.run(FutureTask.java:166)
        at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145)
        at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615)
        at java.lang.Thread.run(Thread.java:724)


.Failing this attempt.. Failing the application.


用上面出现的错误去google,可以得到这个网页:https://issues.apache.org/jira/browse/MAPREDUCE-5655 。 恩,对的。这个网页就是我们的solution。
我们分为1、2、3步骤吧。

1. 修改MRapps.java 、YARNRunner.java的源码,然后打包替换原来的jar包中的相应class文件,这两个jar我已经打包,可以在这里下载http://download.csdn.net/detail/fansy1990/7143547 。然后替换集群中相应的jar吧,同时需要注意替换Myeclipse中导入的包。额,说起Myeclipse中的jar包,这里还是先上幅jar包的图吧:
1.jpg
2.jpg
2. 修改mapred-default.xml ,添加:(这个只需在eclipse中导入的jar包修改即可,修改后的jar包不用上传到集群)

  1. <property>
  2.         <name>mapred.remote.os</name>
  3.         <value>Linux</value>
  4.         <description>
  5.                 Remote MapReduce framework's OS, can be either Linux or Windows
  6.         </description>
  7. </property>
复制代码


(题外话,添加了这个属性后,按说我new一个Configuration后,我使用conf.get("mapred.remote.os")的时候应该是可以得到Linux的,但是我得到的却是null,这个就不清楚是怎么了。)
其文件在:
3.jpg

这时,你再运行程序,额好吧程序基本可以提交了,但是还是报错,查看log,可以看到下面的错误:

  1. Error: Could not find or load main class org.apache.hadoop.mapreduce.v2.app.MRAppMaster
复制代码

额,说了这么久,还是把我的wordcount程序贴出来吧:

  1. package org.fansy.hadoop.mr;
  2. import java.io.IOException;
  3. import org.apache.hadoop.conf.Configuration;
  4. import org.apache.hadoop.fs.FileSystem;
  5. import org.apache.hadoop.fs.LocatedFileStatus;
  6. import org.apache.hadoop.fs.Path;
  7. import org.apache.hadoop.fs.RemoteIterator;
  8. import org.apache.hadoop.io.LongWritable;
  9. import org.apache.hadoop.io.Text;
  10. import org.apache.hadoop.mapred.ClusterStatus;
  11. import org.apache.hadoop.mapred.JobClient;
  12. import org.apache.hadoop.mapreduce.Job;
  13. import org.apache.hadoop.mapreduce.Mapper;
  14. import org.apache.hadoop.mapreduce.Reducer;
  15. import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
  16. import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
  17. import org.apache.hadoop.yarn.conf.YarnConfiguration;
  18. import org.slf4j.Logger;
  19. import org.slf4j.LoggerFactory;
  20. public class WordCount {
  21.                 private static Logger log = LoggerFactory.getLogger(WordCount.class);
  22.            public static class WCMapper extends  Mapper<LongWritable, Text, LongWritable, Text> {
  23.                   
  24.               public void map(LongWritable key, Text value, Context cxt) throws IOException,InterruptedException {
  25.               // String[] values= value.toString().split("[,| ]");
  26.                cxt.write(key, value);
  27.               }
  28.            }
  29.                
  30.             public static class WCReducer extends  Reducer<LongWritable, Text, LongWritable,Text> {
  31.                     public void reduce(LongWritable key, Iterable<Text> values, Context cxt) throws IOException,InterruptedException {
  32.                         StringBuffer buff = new StringBuffer();
  33.                             for (Text v:values) {
  34.                                     buff.append(v.toString()+"\t");
  35.                        }
  36.                             cxt.write(key, new Text(buff.toString()));
  37.                     }
  38.             }
  39.                 public static void main(String[] args) throws Exception {
  40.         //          checkFS();
  41.                   String input ="hdfs://node31:9000/input/test.dat";
  42.                   String output="hdfs://node31:9000/output/wc003";
  43.                         runJob(input,output);
  44.                 //        runJob(args[0],args[1]);
  45.                 //  upload();
  46.                 }
  47.                
  48.                 /**
  49.                  * test operate the hdfs
  50.                  * @throws IOException
  51.                  */
  52.                 public static void checkFS() throws IOException{
  53.                         Configuration conf=getConf();
  54.                         Path f= new Path("/user");
  55.                         FileSystem fs = FileSystem.get(f.toUri(),conf);
  56.                        
  57.                         RemoteIterator<LocatedFileStatus> paths=fs.listFiles(f, true);
  58.                         while(paths.hasNext()){
  59.                                 System.out.println(paths.next());
  60.                         }
  61.                        
  62.                 }
  63.                
  64.                 public static void upload() throws IOException{
  65.                         Configuration conf = getConf();
  66.                         Path f= new Path("d:\\wordcount.jar");
  67.                         FileSystem fs = FileSystem.get(f.toUri(),conf);
  68.                         fs.copyFromLocalFile(true, f, new Path("/input/wordcount.jar"));
  69.                         System.out.println("done ...");
  70.                 }
  71.                
  72.                 /**
  73.                  *  test the job submit
  74.                  * @throws IOException
  75.                  * @throws InterruptedException
  76.                  * @throws ClassNotFoundException
  77.                  */
  78.                 public static void runJob(String input,String output) throws IOException, ClassNotFoundException, InterruptedException{
  79.                        
  80.                           Configuration conf=getConf();
  81.                           Job job = new Job(conf,"word count");
  82.                 //          job.setJar("hdfs://node31:9000/input/wordcount.jar");
  83.                       job.setJobName("wordcount");
  84.                       job.setJarByClass(WordCount.class);
  85.                     //  job.setOutputFormatClass(SequenceFileOutputFormat.class);
  86.                       job.setOutputKeyClass(LongWritable.class);
  87.                       job.setOutputValueClass(Text.class);
  88.        
  89.                       job.setMapperClass(WCMapper.class);
  90.                           job.setCombinerClass(WCReducer.class);
  91.                       job.setReducerClass(WCReducer.class);
  92.        
  93.                       FileInputFormat.addInputPath(job, new Path(input));
  94.                         //  SequenceFileOutputFormat.setOutputPath(job, new Path(args[1]));
  95.                       FileOutputFormat.setOutputPath(job, new Path(output));
  96.                           System.exit(job.waitForCompletion(true)?0:1);
  97.                 }
  98.                
  99.                 private static Configuration getConf() throws IOException{
  100.                         Configuration conf = new YarnConfiguration();
  101.                           conf.set("fs.defaultFS", "hdfs://node31:9000");
  102.                           conf.set("mapreduce.framework.name", "yarn");
  103.                           conf.set("yarn.resourcemanager.address", "node31:8032");
  104.                 //          conf.set("mapred.remote.os", "Linux");
  105.                           System.out.println(conf.get("mapred.remote.os"));
  106.                 //          JobClient client = new JobClient(conf);
  107.                 //          ClusterStatus cluster = client.getClusterStatus();
  108.                           return conf;
  109.                 }
  110. }
复制代码

3. 如何修复上面的报错?按照那个链接的solution,需要修改mapred-default.xml 和yarn-default.xml ,其中mapred-default.xml刚才已经修改过了,这次再次修改,添加:

  1. <property>
  2.         <name>mapreduce.application.classpath</name>
  3.         <value>
  4.                 $HADOOP_CONF_DIR,
  5.                 $HADOOP_COMMON_HOME/share/hadoop/common/*,
  6.                 $HADOOP_COMMON_HOME/share/hadoop/common/lib/*,
  7.                 $HADOOP_HDFS_HOME/share/hadoop/hdfs/*,
  8.                 $HADOOP_HDFS_HOME/share/hadoop/hdfs/lib/*,
  9.                 $HADOOP_MAPRED_HOME/share/hadoop/mapreduce/*,
  10.                 $HADOOP_MAPRED_HOME/share/hadoop/mapreduce/lib/*,
  11.                 $HADOOP_YARN_HOME/share/hadoop/yarn/*,
  12.                 $HADOOP_YARN_HOME/share/hadoop/yarn/lib/*
  13.         </value>
  14. </property>
复制代码


对于yarn-default.xml也是同样的修改,其在hadoop-yarn-common-2.2.0.jar包中,修改内容如下:

  1. <property>
  2.         <name>mapreduce.application.classpath</name>
  3.         <value>
  4.                 $HADOOP_CONF_DIR,
  5.                 $HADOOP_COMMON_HOME/share/hadoop/common/*,
  6.                 $HADOOP_COMMON_HOME/share/hadoop/common/lib/*,
  7.                 $HADOOP_HDFS_HOME/share/hadoop/hdfs/*,
  8.                 $HADOOP_HDFS_HOME/share/hadoop/hdfs/lib/*,
  9.                 $HADOOP_MAPRED_HOME/share/hadoop/mapreduce/*,
  10.                 $HADOOP_MAPRED_HOME/share/hadoop/mapreduce/lib/*,
  11.                 $HADOOP_YARN_HOME/share/hadoop/yarn/*,
  12.                 $HADOOP_YARN_HOME/share/hadoop/yarn/lib/*
  13.         </value>
  14.   </property>
复制代码



同样的,上面两个jar包只用替换myeclipse中的jar包即可,不需要替换集群中的。
4. 经过上面的替换,然后再次运行,出现下面的错误:

Caused by: java.lang.ClassNotFoundException: Class org.fansy.hadoop.mr.WordCount$WCMapper not found
        at org.apache.hadoop.conf.Configuration.getClassByName(Configuration.java:1626)
        at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:1718)
        ... 8 more


额,好吧,我应该不用多少了,这样的错误,应该已经说明我们的myeclipse可以提交任务到hadoop2了,并且可以运行了。好吧最后一步,上传我们打包的wordcount程序的jar文件到$HADOOP_HOME/share/hadoop/mapreduce/lib下面,然后再次运行。(这里上传后不用重启集群)呵呵,最后得到下面的结果:

  1. 2014-04-03 21:17:34,289 ERROR [main] util.Shell (Shell.java:getWinUtilsPath(303)) - Failed to locate the winutils binary in the hadoop binary path
  2. java.io.IOException: Could not locate executable null\bin\winutils.exe in the Hadoop binaries.
  3.         at org.apache.hadoop.util.Shell.getQualifiedBinPath(Shell.java:278)
  4.         at org.apache.hadoop.util.Shell.getWinUtilsPath(Shell.java:300)
  5.         at org.apache.hadoop.util.Shell.<clinit>(Shell.java:293)
  6.         at org.apache.hadoop.util.StringUtils.<clinit>(StringUtils.java:76)
  7.         at org.apache.hadoop.yarn.conf.YarnConfiguration.<clinit>(YarnConfiguration.java:345)
  8.         at org.fansy.hadoop.mr.WordCount.getConf(WordCount.java:104)
  9.         at org.fansy.hadoop.mr.WordCount.runJob(WordCount.java:84)
  10.         at org.fansy.hadoop.mr.WordCount.main(WordCount.java:47)
  11. Linux
  12. 2014-04-03 21:18:19,853 WARN  [main] util.NativeCodeLoader (NativeCodeLoader.java:<clinit>(62)) - Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
  13. 2014-04-03 21:18:20,499 INFO  [main] client.RMProxy (RMProxy.java:createRMProxy(56)) - Connecting to ResourceManager at node31/192.168.0.31:8032
  14. 2014-04-03 21:18:20,973 WARN  [main] mapreduce.JobSubmitter (JobSubmitter.java:copyAndConfigureFiles(149)) - Hadoop command-line option parsing not performed. Implement the Tool interface and execute your application with ToolRunner to remedy this.
  15. 2014-04-03 21:18:21,020 INFO  [main] input.FileInputFormat (FileInputFormat.java:listStatus(287)) - Total input paths to process : 1
  16. 2014-04-03 21:18:21,313 INFO  [main] mapreduce.JobSubmitter (JobSubmitter.java:submitJobInternal(394)) - number of splits:1
  17. 2014-04-03 21:18:21,336 INFO  [main] Configuration.deprecation (Configuration.java:warnOnceIfDeprecated(840)) - user.name is deprecated. Instead, use mapreduce.job.user.name
  18. 2014-04-03 21:18:21,337 INFO  [main] Configuration.deprecation (Configuration.java:warnOnceIfDeprecated(840)) - mapred.jar is deprecated. Instead, use mapreduce.job.jar
  19. 2014-04-03 21:18:21,337 INFO  [main] Configuration.deprecation (Configuration.java:warnOnceIfDeprecated(840)) - fs.default.name is deprecated. Instead, use fs.defaultFS
  20. 2014-04-03 21:18:21,338 INFO  [main] Configuration.deprecation (Configuration.java:warnOnceIfDeprecated(840)) - mapred.output.value.class is deprecated. Instead, use mapreduce.job.output.value.class
  21. 2014-04-03 21:18:21,338 INFO  [main] Configuration.deprecation (Configuration.java:warnOnceIfDeprecated(840)) - mapreduce.combine.class is deprecated. Instead, use mapreduce.job.combine.class
  22. 2014-04-03 21:18:21,339 INFO  [main] Configuration.deprecation (Configuration.java:warnOnceIfDeprecated(840)) - mapreduce.map.class is deprecated. Instead, use mapreduce.job.map.class
  23. 2014-04-03 21:18:21,339 INFO  [main] Configuration.deprecation (Configuration.java:warnOnceIfDeprecated(840)) - mapred.job.name is deprecated. Instead, use mapreduce.job.name
  24. 2014-04-03 21:18:21,339 INFO  [main] Configuration.deprecation (Configuration.java:warnOnceIfDeprecated(840)) - mapreduce.reduce.class is deprecated. Instead, use mapreduce.job.reduce.class
  25. 2014-04-03 21:18:21,340 INFO  [main] Configuration.deprecation (Configuration.java:warnOnceIfDeprecated(840)) - mapred.input.dir is deprecated. Instead, use mapreduce.input.fileinputformat.inputdir
  26. 2014-04-03 21:18:21,340 INFO  [main] Configuration.deprecation (Configuration.java:warnOnceIfDeprecated(840)) - mapred.output.dir is deprecated. Instead, use mapreduce.output.fileoutputformat.outputdir
  27. 2014-04-03 21:18:21,342 INFO  [main] Configuration.deprecation (Configuration.java:warnOnceIfDeprecated(840)) - mapred.map.tasks is deprecated. Instead, use mapreduce.job.maps
  28. 2014-04-03 21:18:21,343 INFO  [main] Configuration.deprecation (Configuration.java:warnOnceIfDeprecated(840)) - mapred.output.key.class is deprecated. Instead, use mapreduce.job.output.key.class
  29. 2014-04-03 21:18:21,343 INFO  [main] Configuration.deprecation (Configuration.java:warnOnceIfDeprecated(840)) - mapred.working.dir is deprecated. Instead, use mapreduce.job.working.dir
  30. 2014-04-03 21:18:21,513 INFO  [main] mapreduce.JobSubmitter (JobSubmitter.java:printTokens(477)) - Submitting tokens for job: job_1396463733942_0003
  31. 2014-04-03 21:18:21,817 INFO  [main] impl.YarnClientImpl (YarnClientImpl.java:submitApplication(174)) - Submitted application application_1396463733942_0003 to ResourceManager at node31/192.168.0.31:8032
  32. 2014-04-03 21:18:21,859 INFO  [main] mapreduce.Job (Job.java:submit(1272)) - The url to track the job: http://node31:8088/proxy/application_1396463733942_0003/
  33. 2014-04-03 21:18:21,860 INFO  [main] mapreduce.Job (Job.java:monitorAndPrintJob(1317)) - Running job: job_1396463733942_0003
  34. 2014-04-03 21:18:31,307 INFO  [main] mapreduce.Job (Job.java:monitorAndPrintJob(1338)) - Job job_1396463733942_0003 running in uber mode : false
  35. 2014-04-03 21:18:31,311 INFO  [main] mapreduce.Job (Job.java:monitorAndPrintJob(1345)) -  map 0% reduce 0%
  36. 2014-04-03 21:19:02,346 INFO  [main] mapreduce.Job (Job.java:monitorAndPrintJob(1345)) -  map 100% reduce 0%
  37. 2014-04-03 21:19:11,416 INFO  [main] mapreduce.Job (Job.java:monitorAndPrintJob(1345)) -  map 100% reduce 100%
  38. 2014-04-03 21:19:11,425 INFO  [main] mapreduce.Job (Job.java:monitorAndPrintJob(1356)) - Job job_1396463733942_0003 completed successfully
  39. 2014-04-03 21:19:11,552 INFO  [main] mapreduce.Job (Job.java:monitorAndPrintJob(1363)) - Counters: 43
  40.         File System Counters
  41.                 FILE: Number of bytes read=11139
  42.                 FILE: Number of bytes written=182249
  43.                 FILE: Number of read operations=0
  44.                 FILE: Number of large read operations=0
  45.                 FILE: Number of write operations=0
  46.                 HDFS: Number of bytes read=8646
  47.                 HDFS: Number of bytes written=10161
  48.                 HDFS: Number of read operations=6
  49.                 HDFS: Number of large read operations=0
  50.                 HDFS: Number of write operations=2
  51.         Job Counters
  52.                 Launched map tasks=1
  53.                 Launched reduce tasks=1
  54.                 Data-local map tasks=1
  55.                 Total time spent by all maps in occupied slots (ms)=29330
  56.                 Total time spent by all reduces in occupied slots (ms)=5825
  57.         Map-Reduce Framework
  58.                 Map input records=235
  59.                 Map output records=235
  60.                 Map output bytes=10428
  61.                 Map output materialized bytes=11139
  62.                 Input split bytes=98
  63.                 Combine input records=235
  64.                 Combine output records=235
  65.                 Reduce input groups=235
  66.                 Reduce shuffle bytes=11139
  67.                 Reduce input records=235
  68.                 Reduce output records=235
  69.                 Spilled Records=470
  70.                 Shuffled Maps =1
  71.                 Failed Shuffles=0
  72.                 Merged Map outputs=1
  73.                 GC time elapsed (ms)=124
  74.                 CPU time spent (ms)=21920
  75.                 Physical memory (bytes) snapshot=299376640
  76.                 Virtual memory (bytes) snapshot=1671372800
  77.                 Total committed heap usage (bytes)=152834048
  78.         Shuffle Errors
  79.                 BAD_ID=0
  80.                 CONNECTION=0
  81.                 IO_ERROR=0
  82.                 WRONG_LENGTH=0
  83.                 WRONG_MAP=0
  84.                 WRONG_REDUCE=0
  85.         File Input Format Counters
  86.                 Bytes Read=8548
  87.         File Output Format Counters
  88.                 Bytes Written=10161
复制代码



上面你看到Linux,是因为我使用了conf.set("mapred.remote.os", "Linux"); 不过在实际运行的时候却不需要设置。
另外,如果是linux系统部署的tomcat调用hadoop2集群运行MR程序的话,应该不需要替换其jar吧的,这个还有待验证。
哈,总算搞定了。这个问题也算是困扰了我好久了,期间几次想要冲破,结果都是无果而归,甚是郁闷。额,其实这个也不算是原创了,哎,国外在02/Dec/13 18:35这个时间点就搞定了。不过,我搜了好久,都没有中文的相关介绍。(如果有的话,那就是我搜索能力的问题了,居然没有搜到,哎)。

已有(8)人评论

跳转到指定楼层
pangge2007 发表于 2014-5-6 11:10:01
这篇文章很好,帮我解决了难题,但是还有一个问题,不知道楼主是否能解决。在eclipse里面执行的时候不能自动上传Jar到HDFS,需要手工打成Jar,然后上传,不知道有没有啥方法能够解决这个问题?
回复

使用道具 举报

sstutu 发表于 2014-5-6 11:26:32
pangge2007 发表于 2014-5-6 11:10
这篇文章很好,帮我解决了难题,但是还有一个问题,不知道楼主是否能解决。在eclipse里面执行的时候不能自 ...
这个没有好的方法,打成jar包相当于部署,eclipse里面是属于源码开发。
无论是传统开发,还是hadoop开发,这两个都是分离的。
回复

使用道具 举报

pangge2007 发表于 2014-5-6 11:37:50
sstutu 发表于 2014-5-6 11:26
这个没有好的方法,打成jar包相当于部署,eclipse里面是属于源码开发。
无论是传统开发,还是hadoop开发 ...

我的目的是想在Eclipse里面自动上传执行MapReduce,通过jobClient提交执行Job相当于部署吗?
回复

使用道具 举报

sstutu 发表于 2014-5-6 12:10:56
本帖最后由 pig2 于 2014-5-6 16:42 编辑
pangge2007 发表于 2014-5-6 11:37
我的目的是想在Eclipse里面自动上传执行MapReduce,通过jobClient提交执行Job相当于部署吗?

感觉你的思路有点混乱:1.如果你想在eclipse里面运行mapredcue或则hadoop程序是可以的,你只要使用插件链接即可。新手指导:Windows上使用Eclipse远程连接Hadoop进行程序开发

2.你打成jar包上传到集群,这个已经是属于生产环境,是已经编译后的文件。看看你打成jar包后文件格式。
1.png

3.至于你说的运行自动上传不太清楚,你说什么什么意思。
(1)如果说你想运行程序,然后在eclipse里面看控制台输出,你这时候是没有jar包的。
(2)如果你打成jar了,你就可以放到hadoop集群里直接hadoop jar,运行就可以了。
所以说你既有运行,又有jar包,这两个是两码事,你先理一下自己的思路。

至于你说的jobClient,是属于代码级别。一个编译前,一个是编译后,和打包运行,上传都没有关系。
回复

使用道具 举报

pangge2007 发表于 2014-5-6 13:18:33
本帖最后由 pig2 于 2014-5-6 16:40 编辑
file:///C:\Users\Administrator\AppData\Roaming\Tencent\Users\49936534\QQ\WinTemp\RichOle\SL$MGWG{UE@Y2DR5E)N)4BE.jpg
你好,我eclipse执行后,在HDFS的tmp文件夹中有job的相关配置信息,就是没有job.jar

点评

如果使用的hadoop-eclipse-plugin-X.jar这个插件开发的话,倒是可以自动上传,你的程序可以运行成功吗?具体位置你可以在找找。一般是在tmp文件中  发表于 2014-5-6 16:54
回复

使用道具 举报

hebina 发表于 2016-4-11 13:53:23
Error: java.lang.RuntimeException: java.lang.ClassNotFoundException: Class org.hadoop.map.TokenizerMapper not found
        at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:1720)
        at org.apache.hadoop.mapreduce.task.JobContextImpl.getMapperClass(JobContextImpl.java:186)
        at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:721)
        at org.apache.hadoop.mapred.MapTask.run(MapTask.java:339)
        at org.apache.hadoop.mapred.YarnChild$2.run(YarnChild.java:162)
        at java.security.AccessController.doPrivileged(Native Method)
        at javax.security.auth.Subject.doAs(Subject.java:415)
        at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1491)
        at org.apache.hadoop.mapred.YarnChild.main(YarnChild.java:157

按照你这方法还是没有加载到类!!!
回复

使用道具 举报

wscl1213 发表于 2016-4-11 13:55:45
hebina 发表于 2016-4-11 13:53
Error: java.lang.RuntimeException: java.lang.ClassNotFoundException: Class org.hadoop.map.TokenizerM ...

你的包不全,初学建议都加到开发环境中
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条