linux环境下,集群中Hadoop版本更换,linuxhadoop
1.下载新版本的hadoop
https://archive.apache.org/dist/hadoop/common/
这里有各种版本的hadoop
wget .....
tar -xzf .....
将新版本的Hadoop解压在/usr/local/hadoop目录下
2.修改配置
vi $HOME/.bashrc
export HADOOP_HOME
source $HOME/.bashrc
vi hadoop-env.sh
vi core-site.xml
vi hdfs-site.xml
vi mapred-site.xml
vi slaves
3.复制到其它节点
scp -r local_folder remote_username@remote_ip:remote_folder
vi $HOME/.bashrc
export HADOOP_HOME
source $HOME/.bashrc
4.启动服务
$ bin/hdfs namenode -format
$ sbin/start-dfs.sh
$ sbin/start-all.sh
JPS
看到和之前一样的结果就是更换成功了
本站文章为和通数据库网友分享或者投稿,欢迎任何形式的转载,但请务必注明出处.
同时文章内容如有侵犯了您的权益,请联系QQ:970679559,我们会在尽快处理。