Argo安装完成后HDFS服务启动后8020端口绑定到了127.0.0.1这个ip,其它服务无法连接8020端口,怎么解决?

高俊 1年前
517次浏览 0人关注 复制链接 所属标签: 8020 127.0.0.1 HDFS

问题描述:
argo安装之后HDFS启动成功,但YARN等服务启动失败。查看8020端口发现绑定在了127.0.0.1这个ip上,所以导致了其它服务无法连接8020端口,该怎么解决呢?

原因:这个问题是因为安装过程中有些问题导致了hdfs的配置有问题,这个Bug我们会在下个版本中修复,当前可以使用如下方法来解决:

  1. 找到HDFS中值为localhost的配置,并将localhost修改为ark1.analysys.xyz

修改完成之后确认如下参数的值如下图

  1. 检查HDFS的core-site.xml文件中是否有proxy参数,如下

    如果没有proxy参数,请通过如下方式添加下列参数
    参数列表:
    "hadoop.proxyuser.ambari.groups": "*",
    "hadoop.proxyuser.ambari.hosts": "*",
    "hadoop.proxyuser.hive.groups": "*",
    "hadoop.proxyuser.hive.hosts":"*",
    "hadoop.proxyuser.yarn.hosts":"*",
    "hadoop.proxyuser.yarn.groups":"*",
    "hadoop.proxyuser.root.hosts":"*",
    "hadoop.proxyuser.root.groups":"*",
    "hadoop.proxyuser.hcat.hosts":"*",
    "hadoop.proxyuser.hcat.groups":"*",
    "hadoop.proxyuser.hdfs.hosts":"*",
    "hadoop.proxyuser.hdfs.groups":"*"
    
    操作如下:
    1、先找到HDFS的custom core-site

然后通过Add Property …来添加参数,一次可以添加多个key-value对,一个key-value写一行,要添加上述列表,可以输入:

hadoop.proxyuser.ambari.groups= *
hadoop.proxyuser.ambari.hosts= *
hadoop.proxyuser.hive.groups= *
hadoop.proxyuser.hive.hosts=*
hadoop.proxyuser.yarn.hosts=*
hadoop.proxyuser.yarn.groups=*
hadoop.proxyuser.root.hosts=*
hadoop.proxyuser.root.groups=*
hadoop.proxyuser.hcat.hosts=*
hadoop.proxyuser.hcat.groups=*
hadoop.proxyuser.hdfs.hosts=*
hadoop.proxyuser.hdfs.groups=*

完成后点击Add,回到主界面再点击Save
然后重启HDFS,再启动其它服务即可。

1条回答
zhaoy07331 1年前

多谢高老师

有用0 评论0