为了账号安全,请及时绑定邮箱和手机立即绑定

5.Word Count

实验准备

环境:CDH 5.13.0 镜像,虚拟机
VMware版
VirtualBox版

下载对应版本的虚拟机和镜像。如果没有开启VT-d, 需要进入BIOS开启。

导入虚拟机

  1. 解压下载好的镜像, 点击ovf文件

  2. 最低配置为6GB内存,2CPU

  3. 导入镜像,开机。系统的性能此过程可能持续5~30分钟

  4. 开机完成会自动打开Firefox浏览器

启动Eclipse

  1. 打开eclipse,新建Project, 选择Maven Project

  2. 点击Next

  3. Group IdArtifact Id 随意填写,点击Finish,创建项目

  4. 在新建的项目中,修改pom.xml

  5. pom.xml中添加dependency

<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-core</artifactId>
<version>1.2.1</version>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-common</artifactId>
<version>2.7.2</version>
</dependency>
  1. 保存之后Maven将自动引入依赖文件

  2. src中删除自动生成的App.java文件,新建MapReduce程序

代码

在项目目录下新建input/文件夹,在该文件夹下新建data.txt文件。data.txt写入输入样本,如:

I love big data and hadoop and I love data science

src/main/java文件夹下,新建WordCount.java

package  big.data;
import  java.io.IOException;
import  java.util.StringTokenizer;
import  org.apache.hadoop.conf.Configuration;
import  org.apache.hadoop.fs.Path;
import  org.apache.hadoop.io.IntWritable;
import  org.apache.hadoop.io.Text;
import  org.apache.hadoop.mapreduce.Job;
import  org.apache.hadoop.mapreduce.Mapper;
import  org.apache.hadoop.mapreduce.Reducer;
import  org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import  org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public  class WordCount {
	public  static  class TokenizerMapper extends  Mapper<Object, Text, Text, IntWritable> {
		public  void  map(Object key, Text value, Context context)
		throws  IOException, InterruptedException {
		StringTokenizer itr = new  StringTokenizer(value.toString());
			while (itr.hasMoreTokens()) {
				context.write(new  Text(itr.nextToken()), new  IntWritable(1));
			}
		}
	}
public  static  class IntSumReducer extends  Reducer<Text, IntWritable, Text, IntWritable> {
	public  void  reduce(Text key, Iterable<IntWritable> values, Context context) throws  IOException, InterruptedException {
		int sum = 0;
		for (IntWritable val : values) {
			sum += val.get();
		}
		context.write(key, new  IntWritable(sum));
	}
}
	public  static  void  main(String[] args) throws  Exception {
		Configuration conf = new  Configuration();
		Job job = new  Job(conf, "word count");
		job.setJarByClass(WordCount.class);
		job.setMapperClass(TokenizerMapper.class);
		job.setReducerClass(IntSumReducer.class);
		job.setOutputKeyClass(Text.class);
		job.setOutputValueClass(IntWritable.class);
		FileInputFormat.addInputPath(job, new  Path(args[0]));
		FileOutputFormat.setOutputPath(job, new  Path(args[1]));
		System.exit(job.waitForCompletion(true) ?  0  :  1);
	}
}

可序列化对象

为了方便数据在网络中传输,MapReduce提供了对应java基本类型的可序列化对象

可序列化对象类 描述 java 基本类型 / 类
BooleanWritable 布尔型数值 boolean
ByteWritable 单字节数值 byte / char
DoubleWritable 双字节数 double
FloatWritable 浮点数 float
IntWritable 整型数 int
LongWritable 长整型数 long
Text 使用UTF8格式存储的文本 String
NullWritable <key,value>中的keyvalue为空时使用 null

执行

  1. 点击Run按钮,修改Configuration,确保ProjectMain Class正确
  2. 修改Argument, 点击Run
  3. output路径下查看输出
点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
算法工程师
手记
粉丝
5
获赞与收藏
1

关注作者,订阅最新文章

阅读免费教程

  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消