【新项目源码】【山楂溯源码】【挖矿管理源码】hadoop2.2.0 源码

2024-12-23 00:08:48 来源:当乐源码 分类:百科

1.如何在hadoop-2.6.0上编译运行自己编写的java代码
2.Win7 64位系统安装hadoop2.2.0的源码方法
3.如何编写hadoop java程序
4.如何在win7下的eclipse中调试Hadoop2.2.0的程序

hadoop2.2.0 源码

如何在hadoop-2.6.0上编译运行自己编写的java代码

       åœ¨ä¸ä½¿ç”¨eclipse情况使java程序在hadoop 2.2中运行的完整过程。整个过程中其实分为java程序的编译,生成jar包,运行测试。

       è¿™ä¸‰ä¸ªæ­¥éª¤è¿ç”¨çš„命令都比较简单,主要的还是如何找到hadoop 2.2提供给java程序用来编译的jar包。具体可以查看:

       HADOOP_HOME/share/hadoop/.wan.demo;

       import java.io.IOException;

       import org.apache.hadoop.conf.Configuration;

       import org.apache.hadoop.fs.FileSystem;

       import org.apache.hadoop.fs.Path;

       public class HADemo {

        public static void main(String[] args) {

        // TODO Auto-generated method stub

        mkdir(args[0]);

        }

        public static void mkdir(String dir){

        Configuration configuration=new Configuration();

        FileSystem fs;

        try {

        fs = FileSystem.get(configuration);

        fs.mkdirs(new Path(dir));

        fs.close();

        } catch (IOException e) {

        // TODO Auto-generated catch block

        e.printStackTrace();

        }

        }

       }

       æŠŠHADemo.java文件拷贝到linux环境中

       é…ç½®HADOOP_HOME/bin到环境中,启动集群,进入HADemo.java文件目录中

       æ³¨:下面的lib目录里面的文件由HADOOP_HOME/share/hadoop/mon-2.2.0.jar:lib/hadoop-annotations-2.2.0.jar -d class HADemo.java

       2.生成jar包

       #jar -cvf hademo.jar -C class/ .

       added manifest

       adding: com/(in = 0) (out= 0)(stored 0%)

       adding: com/wan/(in = 0) (out= 0)(stored 0%)

       adding: com/wan/demo/(in = 0) (out= 0)(stored 0%)

       adding: com/wan/demo/HADemo.class(in = ) (out= )(deflated %)

       3.测试运行

       #hadoop jar hademo.jar com.wan.demo.HADemo /test

       æ£€æµ‹ï¼š

       #hadoop fs -ls /

       ç»“束!

Win7 位系统安装hadoop2.2.0的方法

       Hadoop是一个开源框架,它允许在整个集群使用简单编程模型计算机的分布式环境存储并处理大数据,但是源码许多用户并不知道要怎么安装hadoop2.2.0,为了帮助大家更好的源码操作,现在给大家带来Win7 位系统安装hadoop2.2.0的源码新项目源码详细方法供大家参考。

       1、源码配置Cygwin环境变量PATH.把Cygwin安装目录下的源码山楂溯源码,bin目录以入 usrsbin目录,源码都添加到PATH中;

       2、源码启动Cygwin.bat ,源码打开如下命令行;

       3、源码例如hadoop安装包放在分区D:下,源码则解压的源码命令为$ tar -zxvf /cygdrive/d/hadoop-0..2.tar.gz,解压后可使用ls命令查看(默认解压目录为。Cygwin安装目录);

       4、源码挖矿管理源码编辑hadoop-2.6.0/etc/hadoop/hadoop-env.sh,源码将export JAVA_HOME=${ JAVA_HOME}更改为自己电脑上的安装目录;

       5。依次编辑hadoop-2.6.0/etc/hadoop/目录下的源码core-site.xmlhdfs-site.xml文件;

       6、执行ssh-host-config命令,lala插件源码然后按下图上的选择输入:

       当提示Doyouwanttouseadifferentname?  输入yes,这步是配置安装的sshd服务,以哪个用户登录,源码400万默认是cyg_server这个用户,这里就不事先新建cyg_server这个用户,用当  前本机的超管本地用户:chenx,后续根据提示,2次输入这个账户的密码。

如何编写hadoop java程序

       ã€€ã€€1.编译java

       ã€€ã€€# mkdir class

       ã€€ã€€#Javac -classpath .:lib/hadoop-common-2.2.0.jar:lib/hadoop-annotations-2.2.0.jar -d class HADemo.java

       ã€€ã€€2.生成jar包

       ã€€ã€€#jar -cvf hademo.jar -C class/ .

       ã€€ã€€added manifest

       ã€€ã€€adding: com/(in = 0) (out= 0)(stored 0%)

       ã€€ã€€adding: com/wan/(in = 0) (out= 0)(stored 0%)

       ã€€ã€€adding: com/wan/demo/(in = 0) (out= 0)(stored 0%)

       ã€€ã€€adding: com/wan/demo/HADemo.class(in = ) (out= )(deflated %)

       ã€€ã€€3.测试运行

       ã€€ã€€#hadoop jar hademo.jar com.wan.demo.HADemo /test

       ã€€ã€€æ£€æµ‹ï¼š

       ã€€ã€€#hadoop fs -ls /

如何在win7下的eclipse中调试Hadoop2.2.0的程序

       åœ¨ä¸Šä¸€ç¯‡åšæ–‡ä¸­ï¼Œæ•£ä»™å·²ç»è®²äº†Hadoop的单机伪分布的部署,本篇,散仙就说下,如何eclipse中调试hadoop2.2.0,如果你使用的还是hadoop1.x的版本,那么,也没事,散仙在以前的博客里,也写过eclipse调试1.x的hadoop程序,两者最大的不同之处在于使用的eclipse插件不同,hadoop2.x与hadoop1.x的API,不太一致,所以插件也不一样,我们只需要使用分别对应的插件即可. 

       ä¸‹é¢å¼€å§‹è¿›å…¥æ­£é¢˜: 

       åºå·    åç§°    æè¿°    

       1    eclipse    Juno Service Release 4.2的本    

       2    æ“ä½œç³»ç»Ÿ    Windows7    

       3    hadoop的eclipse插件    hadoop-eclipse-plugin-2.2.0.jar    

       4    hadoop的集群环境    è™šæ‹ŸæœºLinux的Centos6.5单机伪分布式    

       5    è°ƒè¯•ç¨‹åº    Hellow World    

       é‡åˆ°çš„几个问题如下: 

       Java代码  

       java.io.IOException: Could not locate executable null\bin\winutils.exe in the Hadoop binaries.    

       è§£å†³åŠžæ³•: 

       åœ¨org.apache.hadoop.util.Shell类的checkHadoopHome()方法的返回值里写固定的 

       æœ¬æœºhadoop的路径,散仙在这里更改如下: 

       Java代码  

       private static String checkHadoopHome() {   

       // first check the Dflag hadoop.home.dir with JVM scope  

       //System.setProperty("hadoop.home.dir", "...");  

       String home = System.getProperty("hadoop.home.dir");  

       // fall back to the system/user-global env variable  

       if (home == null) {   

       home = System.getenv("HADOOP_HOME");  

       }  

       try {   

       // couldn't find either setting for hadoop's home directory  

       if (home == null) {   

       throw new IOException("HADOOP_HOME or hadoop.home.dir are not set.");  

       }  

       if (home.startsWith("\"") && home.endsWith("\"")) {   

       home = home.substring(1, home.length()-1);  

       }  

       // check that the home setting is actually a directory that exists  

       File homedir = new File(home);  

       if (!homedir.isAbsolute() || !homedir.exists() || !homedir.isDirectory()) {   

       throw new IOException("Hadoop home directory " + homedir  

       + " does not exist, is not a directory, or is not an absolute path.");  

       }  

       home = homedir.getCanonicalPath();  

       } catch (IOException ioe) {   

       if (LOG.isDebugEnabled()) {   

       LOG.debug("Failed to detect a valid hadoop home directory", ioe);  

       }  

       home = null;  

       }  

       //固定本机的hadoop地址  

       home="D:\\hadoop-2.2.0";  

       return home;  

       }  

       ç¬¬äºŒä¸ªå¼‚常,Could not locate executable D:\Hadoop\tar\hadoop-2.2.0\hadoop-2.2.0\bin\winutils.exe in the Hadoop binaries.  找不到win上的执行程序,可以去下载bin包,覆盖本机的hadoop跟目录下的bin包即可 

       ç¬¬ä¸‰ä¸ªå¼‚常: 

       Java代码  

       Exception in thread "main" java.lang.IllegalArgumentException: Wrong FS: hdfs://...:/user/hmail/output/part-, expected: file:///   

       at org.apache.hadoop.fs.FileSystem.checkPath(FileSystem.java:)   

       at org.apache.hadoop.fs.RawLocalFileSystem.pathToFile(RawLocalFileSystem.java:)   

       at org.apache.hadoop.fs.RawLocalFileSystem.getFileStatus(RawLocalFileSystem.java:)   

       at org.apache.hadoop.fs.FilterFileSystem.getFileStatus(FilterFileSystem.java:)   

       at org.apache.hadoop.fs.ChecksumFileSystem$ChecksumFSInputChecker.<init>(ChecksumFileSystem.java:)   

       at org.apache.hadoop.fs.ChecksumFileSystem.open(ChecksumFileSystem.java:)   

       at org.apache.hadoop.fs.FileSystem.open(FileSystem.java:)   

       at com.netease.hadoop.HDFSCatWithAPI.main(HDFSCatWithAPI.java:)   

       å‡ºçŽ°è¿™ä¸ªå¼‚常,一般是HDFS的路径写的有问题,解决办法,拷贝集群上的core-site.xml和hdfs-site.xml文件,放在eclipse的src根目录下即可。 

       ç¬¬å››ä¸ªå¼‚常: 

       Java代码  

       Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Ljava/lang/String;I)Z    

       å‡ºçŽ°è¿™ä¸ªå¼‚常,一般是由于HADOOP_HOME的环境变量配置的有问题,在这里散仙特别说明一下,如果想在Win上的eclipse中成功调试Hadoop2.2,就需要在本机的环境变量上,添加如下的环境变量: 

       ï¼ˆ1)在系统变量中,新建HADOOP_HOME变量,属性值为D:\hadoop-2.2.0.也就是本机对应的hadoop目录 

       (2)在系统变量的Path里,追加%HADOOP_HOME%/bin即可 

       ä»¥ä¸Šçš„问题,是散仙在测试遇到的,经过对症下药,我们的eclipse终于可以成功的调试MR程序了,散仙这里的Hellow World源码如下: 

       Java代码  

       package com.qin.wordcount;  

       import java.io.IOException;  

       import org.apache.hadoop.fs.FileSystem;  

       import org.apache.hadoop.fs.Path;  

       import org.apache.hadoop.io.IntWritable;  

       import org.apache.hadoop.io.LongWritable;  

       import org.apache.hadoop.io.Text;  

       import org.apache.hadoop.mapred.JobConf;  

       import org.apache.hadoop.mapreduce.Job;  

       import org.apache.hadoop.mapreduce.Mapper;  

       import org.apache.hadoop.mapreduce.Reducer;  

       import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;  

       import org.apache.hadoop.mapreduce.lib.input.TextInputFormat;  

       import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;  

       import org.apache.hadoop.mapreduce.lib.output.TextOutputFormat;  

       /*** 

       *  

       * Hadoop2.2.0测试 

       * æ”¾WordCount的例子 

       *  

       * @author qindongliang 

       *  

       * hadoop技术交流群:   

       *  

       *  

       * */  

       public class MyWordCount {   

       /** 

       * Mapper 

       *  

       * **/  

       private static class WMapper extends Mapper<LongWritable, Text, Text, IntWritable>{   

       private IntWritable count=new IntWritable(1);  

       private Text text=new Text();  

       @Override  

       protected void map(LongWritable key, Text value,Context context)  

       throws IOException, InterruptedException {   

       String values[]=value.toString().split("#");  

       //System.out.println(values[0]+"========"+values[1]);  

       count.set(Integer.parseInt(values[1]));  

       text.set(values[0]);  

       context.write(text,count);  

       }  

       }  

       /** 

       * Reducer 

       *  

       * **/  

       private static class WReducer extends Reducer<Text, IntWritable, Text, Text>{   

       private Text t=new Text();  

       @Override  

       protected void reduce(Text key, Iterable<IntWritable> value,Context context)  

       throws IOException, InterruptedException {   

       int count=0;  

       for(IntWritable i:value){   

       count+=i.get();  

       }  

       t.set(count+"");  

       context.write(key,t);  

       }  

       }  

       /** 

       * æ”¹åŠ¨ä¸€ 

       * (1)shell源码里添加checkHadoopHome的路径 

       * (2)行,FileUtils里面 

       * **/  

       public static void main(String[] args) throws Exception{   

       //      String path1=System.getenv("HADOOP_HOME");  

       //      System.out.println(path1);  

       //      System.exit(0);  

       JobConf conf=new JobConf(MyWordCount.class);  

       //Configuration conf=new Configuration();  

       //conf.set("mapred.job.tracker","...:");  

       //读取person中的数据字段  

       // conf.setJar("tt.jar");  

       //注意这行代码放在最前面,进行初始化,否则会报  

       /**Job任务**/  

       Job job=new Job(conf, "testwordcount");  

       job.setJarByClass(MyWordCount.class);  

       System.out.println("模式:  "+conf.get("mapred.job.tracker"));;  

       // job.setCombinerClass(PCombine.class);  

       // job.setNumReduceTasks(3);//设置为3  

       job.setMapperClass(WMapper.class);  

       job.setReducerClass(WReducer.class);  

       job.setInputFormatClass(TextInputFormat.class);  

       job.setOutputFormatClass(TextOutputFormat.class);  

       job.setMapOutputKeyClass(Text.class);  

       job.setMapOutputValueClass(IntWritable.class);  

       job.setOutputKeyClass(Text.class);  

       job.setOutputValueClass(Text.class);  

       String path="hdfs://...:/qin/output";  

       FileSystem fs=FileSystem.get(conf);  

       Path p=new Path(path);  

       if(fs.exists(p)){   

       fs.delete(p, true);  

       System.out.println("输出路径存在,已删除!");  

       }  

       FileInputFormat.setInputPaths(job, "hdfs://...:/qin/input");  

       FileOutputFormat.setOutputPath(job,p );  

       System.exit(job.waitForCompletion(true) ? 0 : 1);    

       }  

       }  

       æŽ§åˆ¶å°ï¼Œæ‰“印日志如下: 

       Java代码  

       INFO - Configuration.warnOnceIfDeprecated() | mapred.job.tracker is deprecated. Instead, use mapreduce.jobtracker.address  

       æ¨¡å¼ï¼š  local  

       è¾“出路径存在,已删除!  

       INFO - Configuration.warnOnceIfDeprecated() | session.id is deprecated. Instead, use dfs.metrics.session-id  

       INFO - JvmMetrics.init() | Initializing JVM Metrics with processName=JobTracker, sessionId=  

       WARN - JobSubmitter.copyAndConfigureFiles() | Hadoop command-line option parsing not performed. Implement the Tool interface and execute your application with ToolRunner to remedy this.  

       WARN - JobSubmitter.copyAndConfigureFiles() | No job jar file set.  User classes may not be found. See Job or Job#setJar(String).  

       INFO - FileInputFormat.listStatus() | Total input paths to process : 1  

       INFO - JobSubmitter.submitJobInternal() | number of splits:1  

       INFO - Configuration.warnOnceIfDeprecated() | user.name is deprecated. Instead, use mapreduce.job.user.name  

       INFO - Configuration.warnOnceIfDeprecated() | mapred.output.value.class is deprecated. Instead, use mapreduce.job.output.value.class  

       INFO - Configuration.warnOnceIfDeprecated() | mapred.mapoutput.value.class is deprecated. Instead, use mapreduce.map.output.value.class  

       INFO - Configuration.warnOnceIfDeprecated() | mapreduce.map.class is deprecated. Instead, use mapreduce.job.map.class  

       INFO - C

更多资讯请点击:百科

热门资讯

flink 源码培训

2024-12-22 23:23717人浏览

杭州源码时代_源码时代总部

2024-12-22 22:291256人浏览

vs编程源码_vs源码怎么用

2024-12-22 21:592748人浏览

推荐资讯

大貓熊界最高齡產婦!盈盈「19歲高齡」產龍鳳胎 相當人類57歲

香港海洋公園的大貓熊盈盈,15號產下一對龍鳳胎,大貓熊的生育年齡以20歲為上限,19歲的盈盈換算成人類的年紀是57歲,創下大貓熊高齡產子的紀錄,由於龍鳳胎體重過輕,生命徵象脆弱,海洋公園和四川貓熊保育

源码视频拍摄

1.短视频APP源码有哪些优势?2.制作一款仿抖音的短视频源码多少钱3.怎样编辑代源码显示视频4.短视频app源码有哪些特点?5.短视频APP源码开发有哪些优势呢?6.短视频app源代码的优点短视频A

网络接口源码_网络接口源码是什么

1.C++后端开发——POSIX网络API解析2.Java教程:dubbo源码解析-网络通信3.history 源码分析4.wpa_supplicant-2.10源码分析5.Vert.x 源码解析(4