Hadoop(一) 之 安装Hadoop,
Hadoop安装步骤如下:
一. 先决条件
支持的平台
支持GNU / Linux作为开发和生产平台。Hadoop已经在具有2000个节点的GNU / Linux集群上得到了演示。
Windows也是一个受支持的平台,但以下步骤仅适用于Linux。要在Windows上设置Hadoop,请参阅wiki页面。
二. 所需软件
所需的Linux软件包括:
1.必须安装Java™。推荐的Java版本在HadoopJavaVersions中描述。
yum -y list java*
yum -y install java-1.8.0-openjdk*
java -version
javac -version
使用yum安装,不需要配置环境变量即可运行java程序
vi hello.java
public class hello{
public static void main(String []args){
System.out.println("hello world!");
}
}
javac hello.java
java hello
2.必须安装ssh,并且如果要使用可选的启动和停止脚本,则sshd必须正在运行才能使用管理远程Hadoop守护程序的Hadoop脚本。
yum -y install gcc gcc-c++ libstdc++-devel
yum -y install openssh-server
三. 安装Hadoop
下载好Hadoop压缩包,解压即可
四.配置Hadoop的相关环境
1.vi /root/.bash.profile
添加如下配置
export HADOOP_HOME=/opt/hadoop-2.5.1
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
2.修改hadoop安装目录下的一个etc / hadoop / core-site.xml文件
#namenode hostname
<property>
<name>fs.defaultFS</name>
<value>hdfs://sn:9000</value>
</property>
#A base for other temporary directories.
<property>
<name>hadoop.tmp.dir</name>
<value>/hadoop</value>
</property>
3.修改hadoop安装目录下的一个etc / hadoop / hdfs-site.xml
<configuration>
#dfs复制数量
<property>
<name> dfs.replication </ name>
<value> 3 </ value>
</ property>
</ configuration>
4.全分布式的需要配置slaves
node1
node2
node3
http://hadoop.apache.org/docs/r2.5.2/hadoop-project-dist/hadoop-common/ClusterSetup.html
本站文章为和通数据库网友分享或者投稿,欢迎任何形式的转载,但请务必注明出处.
同时文章内容如有侵犯了您的权益,请联系QQ:970679559,我们会在尽快处理。