预览加载中,请您耐心等待几秒...
1/4
2/4
3/4
4/4

在线预览结束,喜欢就下载吧,查找使用更方便

如果您无法下载资料,请参考说明:

1、部分资料下载需要金币,请确保您的账户上有足够的金币

2、已购买过的文档,再次下载不重复扣费

3、资料包下载后请先用软件解压,在使用对应软件打开

Windows环境下Hadoop开发环境配置 事先准备 Hadoop集群环境搭建 已经用三台虚拟机(操作系统为ubuntu10.0.4)搭建完成一个hadoop分布式集群,分别是hadoop1:192.168.201.104,hadoop2:192.168.201.54和hadoop3:192.168.201.100,其中hadoop1为namenode,其余为datanode。 windows安装JDK和eclipse 过程从略,需要注意应安装与hadoop集群所用JDK兼容的版本。本例中,hadoop集群安装的是64位的JDK-8.0.20,因此Windows下选择64位的JDK-8.0.65,eclipse版本为支持64位的KeplerServiceRelease2。 hadoop安装包解压 将搭建hadoop集群的安装包拷贝并解压到windows开发机器的某个目录下,本例中的安装包为hadoop-2.6.1.tar.gz,解压到D:\hadoop-2.6.1目录。 hadoopforeclipse插件包下载 下载hadoopforeclipse插件。由于本例中hadoop集群为hadoop2,插件也必须是2.x版本。本例中插件包为:hadoop-eclipse-plugin-2.2.0。 配置eclipse 拷贝插件包 将插件包拷贝至eclipse安装目录的plugin目录下,然后重启eclipse。 配置hadoop安装路径 打开"Window"--"Prefrences",此时左侧会出现"HadoopMap/Reduce"选项,将其配置为hadoop安装包解压后的目录。 配置Map/ReduceLocations 打开"Window"--"Perspectives"--"OpenPerspective"--"Other...",在弹出窗口中选择"Map/Reduce",点击"OK"。 此时在下部中间的框内会有个"Map/ReduceLocations"的图标,点击上部右侧的小象图标,进入Map/ReduceLocations配置窗口: 其中的Locationname可以填写任意名称,而Map/Reduce(V2)Master的Host、Port与hadoop集群的mapred-site.xml配置文件中的mapred.job.tracker一致,而DFSMaster的Host、Port与hadoop集群的core-site.xml配置文件中的fs.defaultFS(或fs.default.name)一致。 点击"Finish"按钮,关闭窗口。此时如果左侧"ProjectExplorer"框中的"DFSLocations"下出现刚才填写的Locationname且其下没有出现"Error...",表示配置成功。 工程配置 设置环境变量 在windows桌面,右键击"我的电脑",再依次"属性"--"高级系统设置"--"环境变量",增加新的环境变量HADOOP-HOME,其值与步骤2.2一致。设置完成后,重启eclipse。 如果忽略此步骤,将来会报“Failedtodetectavalidhadoophomedirectory”错误。 拷贝winutils.exe和hadoop.dll 在网上下载winutils.exe和hadoop.dll,将前者拷贝到hadoop安装目录的bin子目录,将后者拷贝至C:\Windows\System32目录下。注意32位和64位的区别。 如果忽略winutils.exe,将来会报“Couldnotlocateexecutablenull\bin\winutils.exeintheHadoopbinaries”的错误;忽略hadoop.dll,将来会报“java.lang.UnsatisfiedLinkError:org.apache.hadoop.io.nativeio.NativeIO$Windows.access0……”的错误。 新建Hadoop工程 打开"File"--"New"--"Project",选择"Map/ReduceProject",输入工程名。如果是第一次新建"Map/ReduceProject",需要点击"UseDefaultHadoop"--"ConfigureHadoopInstalldirectory"(与步骤2.2一致)或干脆"SpecifyHadooplibrarylocation"。 然后一步步"Next",直至"Finish"。 导入lib包 一般情况下不需要手工执行,创建工程后各jar包已自动加至buildpath。如果需要手工添加,相应jar包有: D:/hadoop-2.6.1/share/hadoop/common下所有jar