博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Ambari安装之部署单节点集群
阅读量:4686 次
发布时间:2019-06-09

本文共 8377 字,大约阅读时间需要 27 分钟。

 

 

 

 

 

 

 

 

 

前期博客

 

 

 

 

部署hdp单节点集群

(1)部署Agent

1) 注册并安装agent

 

 

 

2)为集群取个名字,我这里,就直接取为hdpCluster,然后点击next

 

 

 

 

 

 

3)选择HDP2.4的版本并选择高级配置,注意和自己下载安装的版本一致。

 

 

 

   需要改成以下地址

 

 

 

 

 

 

 

 

 

 

 

4)配置本地源地址并点击next

 

 

 

 

 

 

 

  5)添加目标主机的主机名并配置ambari-server的私钥,保证其他节点能够和ambari-server免密码通信,并选择对应的hadoop用户(因为我们是在hadoop用户下配置的SSH免密码登录)然后点击注册。

[hadoop@ambari01 ~]$ pwd/home/hadoop[hadoop@ambari01 ~]$ cd .ssh[hadoop@ambari01 .ssh]$ pwd/home/hadoop/.ssh[hadoop@ambari01 .ssh]$ lltotal 16-rw-------. 1 hadoop hadoop 1588 Mar 30 17:00 authorized_keys-rw-------. 1 hadoop hadoop 1675 Mar 30 16:15 id_rsa-rw-------. 1 hadoop hadoop  397 Mar 30 16:15 id_rsa.pub-rw-r--r--. 1 hadoop hadoop 1620 Mar 30 17:49 known_hosts[hadoop@ambari01 .ssh]$ cat id_rsa

 

 

 

 

 

-----BEGIN RSA PRIVATE KEY-----MIIEogIBAAKCAQEAvLAEPDRhnQUq4+6IRYTF6YKmMfvfGKKbkgEX5RrZ89BQbiOmjqWrcb8yAi6zFY/uHCM6cBG/BzdmHPlTYZwAmt8qI4hs/5NvkjLUmlwFe2+fYofZ6kRfuJh4eEyysiLhZBEkgb4UYtDQgvB12eFBgieHSkl2+nUVorgvbnIbcqoAz/fN4d9iU5oa5pShjQkAL1NKUmLZAh1PcFSq1OGGGEtsWFp7ggt8ufahejyZeqstbWl0vAxohuvYdW5YjIHJhLP7ld7arsv9f40RMNEdPuWOTWegM6p94oFRAIln9Wtcc271jQoF3xjhqUpV17PU3ErZ6+wsVukZ3iMtP/PqPQIBIwKCAQB2moZRuoZ/9J6d5mRI9F8lEEs1XH2adNbQzXy75P4G9/gKt1LAEF0i7TVgdSAcLpWrSVfurBGsw7yHPaIgGOpv+f066An/u8J5J0POvX/J7mQvThPyVt0U8h/Wlpw1dQKz7YSpUug+HNrV9jtzAp40jeACzxeWHbXT/r66c5w5cRciB4eFQ14xO3FZyfCcD5AjAWYNyze7mI5i8396VscwVCd2qUsMQnjR6RXQd/vK3KJ62S0rxKQ0UC5+H5OxVny9m9q+8Qy53iEMtX/nGzDph2OGTGHBrR/+kOjdwx9kXy5FknL5Q1EITeERI0NcFmwN1UlEyaAGkDNf88yehzjDAoGBAO7yyfNTcQpy0ZdAhVDWDb+ohKt83ucrkiW87dXHPPo/QEJOZCl2SsVtbB4p4gEUcpxy5rgkgB0JAuvnAv4JZ49I+NOASOnVpuhty0qGzRmvk1soGQn6TyfKHwybRLXTHUiQfx0UQFTrbNdpubx0CKT0fBKBBviejyfSOE59pM//AoGBAMonCpo6a+TvjNr0TgwbyzhPHdmRBnZDXkctQIo/YE704l+eoywbKGty9MlWJ1lGZTFlnZejXxe2Uhb0UGPo+VyCccBxc4slz1TaoQbRnpLV+s7+Mik/atG9kwB41Bd2/HjRWFAax1LyGN5ee2hocD4u5C/x0vrzulp+5wH0poXDAoGBAIG2/+p9wQWsC2C8oCSRdS2HXfaxgFGbT1ZQnl4bs2NG6F6CU6F6uuA0Fh8AyyUoW3mANBrR/GeIjI6wmzly0dFwwZdi5cDEcIzN42L4uHuodJCSHDid0zLbb/DmkwOefZxrsrgDreT01K9z6Hw+/WDcfd4oyUUi3/+sojk85HDpAoGBALjTPOTHsxp0ngoD75YKyG3/MTvyTw0KZNNckseKZq6WwFdsd+3Pr+015x56p6IUecbDTkF/bOJ6zrXmr+ZRWQQfffHG0AoxMpa5QsRn4XBOnCr3CUpInC16IABueMT/Erea1GZ+4h/zSe/hWuMdqHNeEnT6Wn8KuQJII6oEQHpLAoGAYNNuiUgLrqRq8Klb4Fj0pbwWzrvNkON+j01mIEzPeNNto01GbLXKQwhembWMSnLHarmFWJ7Yamagzx1I/ifRjUUFLchcxLH0VDv0e1ZYaD1FV2IQNJNS4gWEm8Xbq7v4bjOmZvAfVoorH+gnvh0SMNTyFGq+rSB9wCsII3nLGPo=-----END RSA PRIVATE KEY-----

 

 

 

 

 

 

 

 

 

 

 

 

 

 

  经过一段时间后,

 

   那是因为,如下:

 

 

 

 

 

 

6)注册过程中可能会遇到一些问题,比如openssl的版本问题,这个时候我们只需要在对应节点上更新一下openssl的版本即可,然后重新注册。

[hadoop@ambari02 .ssh]$ sudo rpm -qa | grep opensslopenssl-1.0.1e-15.el6.x86_64[hadoop@ambari01 .ssh]$ sudo yum install opensslLoaded plugins: fastestmirror, refresh-packagekit, securitySetting up Install ProcessLoading mirror speeds from cached hostfile * base: mirrors.zju.edu.cn * extras: mirrors.zju.edu.cn * updates: mirrors.zju.edu.cnResolving Dependencies--> Running transaction check---> Package openssl.x86_64 0:1.0.1e-15.el6 will be updated---> Package openssl.x86_64 0:1.0.1e-48.el6_8.4 will be an update--> Finished Dependency ResolutionDependencies Resolved=============================================================================================================================================================================================== Package                                    Arch                                      Version                                                 Repository                                  Size===============================================================================================================================================================================================Updating: openssl                                    x86_64                                    1.0.1e-48.el6_8.4                                       updates                                    1.5 MTransaction Summary===============================================================================================================================================================================================Upgrade       1 Package(s)Total download size: 1.5 MIs this ok [y/N]: yDownloading Packages:openssl-1.0.1e-48.el6_8.4.x86_64.rpm                                                                                                                                    | 1.5 MB     00:01     Running rpm_check_debugRunning Transaction TestTransaction Test SucceededRunning Transaction  Updating   : openssl-1.0.1e-48.el6_8.4.x86_64                                                                                                                                            1/2   Cleanup    : openssl-1.0.1e-15.el6.x86_64                                                                                                                                                2/2   Verifying  : openssl-1.0.1e-48.el6_8.4.x86_64                                                                                                                                            1/2   Verifying  : openssl-1.0.1e-15.el6.x86_64                                                                                                                                                2/2 Updated:  openssl.x86_64 0:1.0.1e-48.el6_8.4                                                                                                                                                           Complete![hadoop@ambari02 .ssh]$

 

 

 

   然后,再来重新注册

 

 

 

 

 

 

 

 

 

 

 

 

7)注册成功之后,我们还要查看一下警告信息,一定要在部署hadoop组件之前把所有的警告信息都消除掉。

 

   由此,可见,需要如下来做。

 

 

 

 

 

 

 

8)比如时钟同步问题,我们可以通过如下方式解决

 

 

 

[hadoop@ambari02 ~]$ sudo service ntpd statusntpd is stopped[hadoop@ambari02 ~]$ sudo service ntpd startStarting ntpd:                                             [  OK  ][hadoop@ambari02 ~]$

 

 

 

 

 

 

 

   9)下面这个问题的解决方法 The following hosts have Transparent Huge Pages (THP) enabled。THP should be disabled to avoid potential Hadoop performance issues.

关闭Transparent HugePages的办法: 在linux的root用户下下执行

echo never > /sys/kernel/mm/redhat_transparent_hugepage/defrag

echo never > /sys/kernel/mm/redhat_transparent_hugepage/enabled

echo never > /sys/kernel/mm/transparent_hugepage/enabled 

echo never > /sys/kernel/mm/transparent_hugepage/defrag

 

[hadoop@ambari02 ~]$ su rootPassword: [root@ambari02 hadoop]# echo never > /sys/kernel/mm/redhat_transparent_hugepage/defrag[root@ambari02 hadoop]# echo never > /sys/kernel/mm/redhat_transparent_hugepage/enabled[root@ambari02 hadoop]# echo never > /sys/kernel/mm/transparent_hugepage/enabled[root@ambari02 hadoop]# echo never > /sys/kernel/mm/transparent_hugepage/defrag[root@ambari02 hadoop]#

 

 

 

 

 

 

 

 

 

 

 

10)然后,重新检测,保证没有警告之后,我们点击next

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(2)部署HDFS

1)选择我们要安装的组件名称,然后点击next

 

 

 

  我这里为了演示给大家后续的如何去新增一个进来。就只选择 HDFS  +  Zookeeper +  Ambari Metrics

 

2)如果没有其他疑问,就一直点击next,ambari就会进入自动的安装部署过程。

 

 

 

 

  带着看看信息

   当然,如果牵扯到高级优化等,或者一些其他自定义的,以后自己在搭建好之后,是可以返回来改的!

 

 

 

 

 

 

 

 

   等待一段时间。

 

 

 

 

 

 

 

3)中间可能会出现一些问题,我们只需要针对性的解决就行,比如下面的问题

 

   这里是,自动就会检测出问题出来。我们直接Next,后面来手动处理它!。即到ambari02机器上去。

 

 

 

Traceback (most recent call last):  File "/var/lib/ambari-agent/cache/common-services/AMBARI_METRICS/0.1.0/package/scripts/service_check.py", line 165, in 
AMSServiceCheck().execute() File "/usr/lib/python2.6/site-packages/resource_management/libraries/script/script.py", line 219, in execute method(env) File "/usr/lib/python2.6/site-packages/ambari_commons/os_family_impl.py", line 89, in thunk return fn(*args, **kwargs) File "/var/lib/ambari-agent/cache/common-services/AMBARI_METRICS/0.1.0/package/scripts/service_check.py", line 160, in service_check raise Fail("Values %s and %s were not found in the response." % (random_value1, current_time))resource_management.core.exceptions.Fail: Values 0.32072445008 and 1490951249000 were not found in the response.

 

   其实,这一步每个人安装时,出现的错误不一样。具体是报什么错误,去百度就好。

 请移步

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

OK,到此为止,我们刚才安装的所有组件就都能够成功启动了.

 

 

 

 

(3)部署Mapreduce和YARN

1)接下来我们就来演示一下如何添加新的服务

 

 

 

2)然后我们选择需要添加的服务,然后按照提示点击next即可,ambari会进入自动安装并启动

 

 

 

 

 

Python script has been killed due to timeout after waiting 300 secs

 

   具体,请移步

Python script has been killed due totimeoutafter waiting 1800 secs

vim /etc/ambari-server/conf/ambari.properties(此错误为ambari-server ssh连接ambari-agent安装超时)

agent.package.install.task.timeout=1800更改为9600(时间可根据网络情况继续调整)

  说白了,就是,跟大家的网速有关。

 

 

 

 

或者

 

这里装着装着就失败了,显示Python script has been killed due to timeout after waiting 1800 secs
解决办法:
vim /etc/yum.conf,把installonly_limit的值设成600 
后来仍然有超时失败,只能retry了,最后终于成功了!
 
 
 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

3)一段时间之后,我们发现所有的服务就都启动起来了

 

 

 

 

 

 

   然后,成功解决了,如下

 

 

 

 

 

 

 

 

 

 

 

 

 

(4)运行MapReduce程序

实际上在mapreduce检测的过程中,系统已经跑过一个mapreduce进行测试了

 

OK,到此为止,我们的单节点集群就部署成功了。

 

 

 

 

转载于:https://www.cnblogs.com/zlslch/p/6629249.html

你可能感兴趣的文章
mysql 基本操作
查看>>
zTree async 动态参数处理
查看>>
Oracle学习之常见错误整理
查看>>
HTC Sensation G14开盒
查看>>
lock_sga引起的ksvcreate :process(m000) creation failed
查看>>
数据库插入数据乱码问题
查看>>
OVER(PARTITION BY)函数用法
查看>>
altium annotate 选项设置 complete existing packages
查看>>
【模式识别与机器学习】——SVM举例
查看>>
【转】IT名企面试:微软笔试题(1)
查看>>
IO流入门-第十章-DataInputStream_DataOutputStream
查看>>
DRF的分页
查看>>
Mysql 模糊匹配(字符串str中是否包含子字符串substr)
查看>>
IIS的ISAPI接口简介
查看>>
python:open/文件操作
查看>>
16 乘法口诀输出
查看>>
mac 常用地址
查看>>
鼠标经过切换图片
查看>>
流程控制 Day06
查看>>
Linux下安装Tomcat
查看>>