动态拓展flink集群计算节点
你好,我是本际云服务器推荐网的小编小本本。近期由于flink集群的CPU总核数限制,flink集群已经没有看可用的slot资源,无法继续在集群上新增flink任务,所以需要横向拓展flink集群的计算节点。目前flink的部署模式是flinkonyarn,所以只用动态拓展现有的hadoop集群的数据节点即可。

拓展计算节点步骤
1. 设置主机环境
首先需要修改主机环境和用户环境变量。修改主机名称和用户环境变量后,需要重新加载用户环境配置文件。
2. 安装并配置hadoop
需要将所有主机加入hadoop集群,并修改hadoop配置文件。接下来需要安装并配置hadoop组件,同时修改配置文件,最后启动datanode和nodemanager服务。
拓展计算节点注意事项
启动datanode时,可能会遇到版本不对的问题需要修改VERSION文件。拓展完成后,需要刷新数据节点,将新节点加载到集群中。如果需要平衡节点数据,可以使用start-balancer.sh命令,查看所有节点信息使用hdfs dfsadmin命令即可。
以上就是拓展flink集群计算节点的步骤和注意事项,希望能对大家有所帮助。本文作者:胡京康(上海新炬王翦团队)。
原创文章,作者:小编小本本,如若转载,请注明出处:https://www.benjiyun.com/yunzhujiyunwei/vps-yunwei/6469.html
