预览加载中,请您耐心等待几秒...
1/7
2/7
3/7
4/7
5/7
6/7
7/7

在线预览结束,喜欢就下载吧,查找使用更方便

如果您无法下载资料,请参考说明:

1、部分资料下载需要金币,请确保您的账户上有足够的金币

2、已购买过的文档,再次下载不重复扣费

3、资料包下载后请先用软件解压,在使用对应软件打开

实验3MapReduce编程初级实践 实验目得 1、通过实验掌握基本得MapReduce编程方法; 2、掌握用MapReduce解决一些常见得数据处理问题,包括数据去重、数据排序与数据挖掘等。 实验平台 已经配置完成得Hadoop伪分布式环境。 实验内容与要求 1、编程实现文件合并与去重操作 对于两个输入文件,即文件A与文件B,请编写MapReduce程序,对两个文件进行合并,并剔除其中重复得内容,得到一个新得输出文件C.下面就是输入文件与输出文件得一个样例供参考。 实验最终结果(合并得文件): 代码如下: package、Merge; importjava、io、IOException; importorg、apache、hadoop、conf、Configuration; importorg、apache、hadoop、fs、Path; importorg、apache、hadoop、io、Text; importorg、apache、hadoop、mapreduce、Job; importorg、apache、hadoop、mapreduce、Mapper; importorg、apache、hadoop、mapreduce、Reducer; importorg、apache、hadoop、mapreduce、lib、input、; importorg、apache、hadoop、mapreduce、lib、output、; publicclassMerge{ publicstaticclassMapextendsMapper<Object,Text,Text,Text>{ privatestaticTexttext=newText(); publicvoidmap(Objectkey,Textvalue,Contextcontext) throwsIOException,InterruptedException{ text=value; context、write(text,newText(””)); } } publicstaticclassReduceextendsReducer<Text,Text,Text,Text>{ publicvoidreduce(Textkey,Iterable〈Text>values,Contextcontext) throwsIOException,InterruptedException{ context、write(key,newText("”)); } } publicstaticvoidmain(String[]args)throwsException{ Configurationconf=newConfiguration(); conf、set(”fs、defaultFS”,”hdfs://localhost:9000"); String[]otherArgs=newString[]{"input",”output"}; if(otherArgs、length!=2){ System、err、println(”Usage:Mergeandduplicateremoval〈in><out>"); System、exit(2); } Jobjob=Job、getInstance(conf,”Mergeandduplicateremoval"); job、setJarByClass(Merge、class); job、setMapperClass(Map、class); job、setReducerClass(Reduce、class); job、setOutputKeyClass(Text、class); job、setOutputValueClass(Text、class); (job,newPath(otherArgs[0])); (job,newPath(otherArgs[1])); System、exit(job、waitForpletion(true)?0:1); } } 2、编写程序实现对输入文件得排序 现在有多个输入文件,每个文件中得每行内容均为一个整数。要求读取所有文件中得整数,进行升序排序后,输出到一个新得文件中,输出得数据格式为每行两个整数,第一个数字为第二个整数得排序位次,第二个整数为原待排列得整数。下面就是输入文件与输出文件得一个样例供参考。 实验结果截图: 代码如下: package、MergeSort; importjava、io、IOException; importorg、apache、hadoop、conf、Configuration; importorg、apache、hadoop、fs、Path; importorg、apache、h