预览加载中,请您耐心等待几秒...
1/5
2/5
3/5
4/5
5/5

在线预览结束,喜欢就下载吧,查找使用更方便

如果您无法下载资料,请参考说明:

1、部分资料下载需要金币,请确保您的账户上有足够的金币

2、已购买过的文档,再次下载不重复扣费

3、资料包下载后请先用软件解压,在使用对应软件打开

Hadoop版本:hadoop-1.2.1-bin.tar Jdk版本:jdk-6u30-linux-i586 需要的软件:VMWare9,ubuntu10.04 首先安装vmware9,然后在其中利用ubuntu的镜像安装3个虚拟机 在每个虚拟机中,执行下面操作 (1)创建hadoop用户组:sudoaddgrouphadoop (2)创建hadoo用户:sudoadduser-ingrouphadoophadoop (3)给hadoop用户增加权限:sudogedit/etc/sudoers 在rootALL=(ALL:ALL)ALL下添加hadoopALL=(ALL:ALL)ALL 重启切换到hadoop用户,不然hadoop桌面没有内容 (4)安装JDK,具体过程如下: 1.下载jdk 2.在/usr/local下创建一个java文件夹 3.将jdk文件拷贝到/usr/local/java中 4.切换到root 5.运行jdk-6u30-linux-i586.bin 6.这时候在java文件夹中多了一个jdk1.6.0_30文件 7.修改配置文件,在文件~/.bashrc最后添加 exportJAVA_HOME=/usr/local/java/jdk1.6.0_30 exportPATH=$JAVA_HOME/bin:$PATH exportCLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar 8.测试jdk是不是安装成功:$java,如果能正确的输出其版本就代表其安装成功 (5)修改本机的host文件 sudogedit/etc/hosts 在其中加入: 192.168.15.129master 192.168.15.130son-1 192.168.15.131son-2 (6)修改本机(master)和子节点(son-1...)机器名 sudogedit/etc/hostname 分别改成master,son-1,son-2 (7)为本机(master)和子节点安装ssh服务 sudoapt-getinstallopenssh-server (8)先建立ssh无密码登陆环境 切换到hadoop用户 创建ssh-key,采用rsa的方式:ssh-keygen-trsa-P“” (注:回车后会在~/.ssh/下生成两个文件:id_rsa和id_rsa.pub这两个文件是成对出 现的) 进入~/.ssh/目录下,将id_rsa.pub追加到authorized_keys授权文件中,开始是没 有authorized_keys文件的: cd~/.ssh catid_rsa.pub>>authorized_keys (9)为本机master安装hadoop 1.将hadoop-6u30.tar.gz文件复制到/usr/local下 2.解压文件sudotar-zxfhadoop-6u30.tar.gzhadoop 3.将该hadoop文件夹的属主用户设为hadoop: sudochown-Rhadoop:hadoophadoop 4.打开hadoop/conf/hadoop-env.sh文件 sudogedithadoop/conf/hadoop-env.sh 5.修改JAVA_HOME路径,这里的路径是 exportJAVA_HOME=/usr/local/java/jdk-XXX 6.打开conf/core-site.xml文件,编辑如下 7.打开conf/mapred-site.xml文件,编辑如下 8.打开conf/hdfs-site.xml,编辑如下: (10)打开conf/masters: sudogedithadoop/conf/masters 在其中添加master (11)打开conf/slaves文件,添加作为slave的主机名,一行一个: sudogedithadoop/conf/slaves 在其中添加: son-1 son-2 (12)将master机器上的文件一一复制到datanode机器上(son-1,son-2) 都要复制 1.公钥的复制 先要在son-1和son-2hadoop目录下建立.ssh目录,不然无法复制 scp~/.ssh/id_rsa.pubhadoop!son-1:~/.ssh/ 2.hosts文件的复制 scp/etc/hostshadoop@son-1;/etc/hosts 注意:这里可能会出现权限的问题,可以先将先将文件复制到/home/hadoop下面, 再到son-1和son-2机器上面用root用户将hosts文件写到/etc/hosts下 3.hadoop文件夹的复制 scp-r