0

0

如何在CentOS上配置HDFS高可用

幻夢星雲

幻夢星雲

发布时间:2025-06-04 08:38:30

|

789人浏览过

|

来源于php中文网

原创

centos上配置hdfs(hadoop distributed file system)高可用性,需要遵循以下步骤:

1. 准备工作

  • 硬件准备:确保至少有三台服务器,用于部署NameNode和Secondary NameNode。
  • 软件准备:安装Java和Hadoop。

2. 安装Java

sudo yum install java-1.8.0-openjdk-devel

3. 下载并解压Hadoop

wget https://archive.apache.org/dist/hadoop/common/hadoop-3.3.1/hadoop-3.3.1.tar.gz
tar -xzvf hadoop-3.3.1.tar.gz -C /usr/local/

4. 配置Hadoop

编辑/usr/local/hadoop/etc/hadoop/hadoop-env.sh文件,设置Java路径:

export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk

5. 配置core-site.xml

<<span>configuration></span>
    <<span>property></span>
        <<span>name></span>fs.defaultFS</<span>name></span>
        <<span>value></span>hdfs://mycluster</<span>value></span>
    </<span>property></span>
    <<span>property></span>
        <<span>name></span>hadoop.tmp.dir</<span>name></span>
        <<span>value></span>/usr/local/hadoop/tmp</<span>value></span>
    </<span>property></span>
</<span>configuration></span>

6. 配置hdfs-site.xml

<<span>configuration></span>
    <<span>property></span>
        <<span>name></span>dfs.replication</<span>name></span>
        <<span>value></span>3</<span>value></span>
    </<span>property></span>
    <<span>property></span>
        <<span>name></span>dfs.namenode.name.dir</<span>name></span>
        <<span>value></span>/usr/local/hadoop/data/namenode</<span>value></span>
    </<span>property></span>
    <<span>property></span>
        <<span>name></span>dfs.datanode.data.dir</<span>name></span>
        <<span>value></span>/usr/local/hadoop/data/datanode</<span>value></span>
    </<span>property></span>
    <<span>property></span>
        <<span>name></span>dfs.namenode.secondary.http-address</<span>name></span>
        <<span>value></span>secondarynamenode:50090</<span>value></span>
    </<span>property></span>
    <<span>property></span>
        <<span>name></span>dfs.client.failover.proxy.provider.mycluster</<span>name></span>
        <<span>value></span>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</<span>value></span>
    </<span>property></span>
    <<span>property></span>
        <<span>name></span>dfs.ha.fencing.methods</<span>name></span>
        <<span>value></span>sshfence</<span>value></span>
    </<span>property></span>
    <<span>property></span>
        <<span>name></span>dfs.ha.fencing.ssh.private-key-files</<span>name></span>
        <<span>value></span>/home/hadoop/.ssh/id_rsa</<span>value></span>
    </<span>property></span>
    <<span>property></span>
        <<span>name></span>dfs.namenode.shared.edits.dir</<span>name></span>
        <<span>value></span>qjournal://journalnode1:8485;journalnode2:8485;journalnode3:8485/mycluster</<span>value></span>
    </<span>property></span>
    <<span>property></span>
        <<span>name></span>dfs.journalnode.edits.dir</<span>name></span>
        <<span>value></span>/usr/local/hadoop/data/journalnode</<span>value></span>
    </<span>property></span>
</<span>configuration></span>

7. 配置yarn-site.xml

<<span>configuration></span>
    <<span>property></span>
        <<span>name></span>yarn.resourcemanager.ha.enabled</<span>name></span>
        <<span>value></span>true</<span>value></span>
    </<span>property></span>
    <<span>property></span>
        <<span>name></span>yarn.resourcemanager.cluster-id</<span>name></span>
        <<span>value></span>yarn-cluster</<span>value></span>
    </<span>property></span>
    <<span>property></span>
        <<span>name></span>yarn.resourcemanager.ha.rm-ids</<span>name></span>
        <<span>value></span>rm1,rm2</<span>value></span>
    </<span>property></span>
    <<span>property></span>
        <<span>name></span>yarn.resourcemanager.hostname.rm1</<span>name></span>
        <<span>value></span>resourcemanager1</<span>value></span>
    </<span>property></span>
    <<span>property></span>
        <<span>name></span>yarn.resourcemanager.hostname.rm2</<span>name></span>
        <<span>value></span>resourcemanager2</<span>value></span>
    </<span>property></span>
    <<span>property></span>
        <<span>name></span>yarn.resourcemanager.zk-address</<span>name></span>
        <<span>value></span>zookeeper1:2181,zookeeper2:2181,zookeeper3:2181</<span>value></span>
    </<span>property></span>
</<span>configuration></span>

8. 配置mapred-site.xml

<<span>configuration></span>
    <<span>property></span>
        <<span>name></span>mapreduce.framework.name</<span>name></span>
        <<span>value></span>yarn</<span>value></span>
    </<span>property></span>
</<span>configuration></span>

9. 启动JournalNode

在所有journalnode服务器上执行:

/usr/local/hadoop/sbin/hadoop-daemon.sh start journalnode

10. 格式化NameNode

在其中一个NameNode服务器上执行:

/usr/local/hadoop/bin/hdfs namenode -format

11. 启动Secondary NameNode

在Secondary NameNode服务器上执行:

/usr/local/hadoop/sbin/hadoop-daemon.sh start secondarynamenode

12. 启动NameNode

在第一个NameNode服务器上执行:

/usr/local/hadoop/sbin/hadoop-daemon.sh start namenode

在第二个NameNode服务器上执行:

吐槽大师
吐槽大师

吐槽大师(Roast Master) - 终极 AI 吐槽生成器,适用于 Instagram,Facebook,Twitter,Threads 和 Linkedin

下载
/usr/local/hadoop/sbin/hadoop-daemon.sh start namenode

13. 启动ResourceManager

在ResourceManager1服务器上执行:

/usr/local/hadoop/sbin/yarn-daemon.sh start resourcemanager

在ResourceManager2服务器上执行:

/usr/local/hadoop/sbin/yarn-daemon.sh start resourcemanager

14. 启动DataNode

在所有DataNode服务器上执行:

/usr/local/hadoop/sbin/hadoop-daemon.sh start datanode

15. 验证配置

使用hdfs dfsadmin -report命令检查集群状态。

注意事项

  • 确保所有节点之间的网络通信正常。
  • 确保防火墙允许必要的端口通信。
  • 定期备份配置文件和数据。

通过以上步骤,你可以在CentOS上配置一个高可用的HDFS集群。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
pdf怎么转换成xml格式
pdf怎么转换成xml格式

将 pdf 转换为 xml 的方法:1. 使用在线转换器;2. 使用桌面软件(如 adobe acrobat、itext);3. 使用命令行工具(如 pdftoxml)。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

1949

2024.04.01

xml怎么变成word
xml怎么变成word

步骤:1. 导入 xml 文件;2. 选择 xml 结构;3. 映射 xml 元素到 word 元素;4. 生成 word 文档。提示:确保 xml 文件结构良好,并预览 word 文档以验证转换是否成功。想了解更多xml的相关内容,可以阅读本专题下面的文章。

2119

2024.08.01

xml是什么格式的文件
xml是什么格式的文件

xml是一种纯文本格式的文件。xml指的是可扩展标记语言,标准通用标记语言的子集,是一种用于标记电子文件使其具有结构性的标记语言。想了解更多相关的内容,可阅读本专题下面的相关文章。

1171

2024.11.28

hadoop是什么
hadoop是什么

hadoop是一个由Apache基金会所开发的分布式系统基础架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序。本专题为大家免费提供hadoop相关的文章、下载和课程。

217

2023.06.30

hadoop三大核心组件介绍
hadoop三大核心组件介绍

Hadoop的三大核心组件分别是:Hadoop Distributed File System(HDFS)、MapReduce和Yet Another Resource Negotiator(YARN)。想了解更多hadoop的相关内容,可以阅读本专题下面的文章。

414

2024.03.13

hadoop的核心
hadoop的核心

hadoop的核心由分布式文件系统 (hdfs) 和资源管理框架 (mapreduce) 组成。想了解更多hadoop的相关内容,可以阅读本专题下面的文章。

349

2024.05.16

Java 大数据处理基础(Hadoop 方向)
Java 大数据处理基础(Hadoop 方向)

本专题聚焦 Java 在大数据离线处理场景中的核心应用,系统讲解 Hadoop 生态的基本原理、HDFS 文件系统操作、MapReduce 编程模型、作业优化策略以及常见数据处理流程。通过实际示例(如日志分析、批处理任务),帮助学习者掌握使用 Java 构建高效大数据处理程序的完整方法。

773

2025.12.08

Java 大数据处理基础(Hadoop 方向)
Java 大数据处理基础(Hadoop 方向)

本专题聚焦 Java 在大数据离线处理场景中的核心应用,系统讲解 Hadoop 生态的基本原理、HDFS 文件系统操作、MapReduce 编程模型、作业优化策略以及常见数据处理流程。通过实际示例(如日志分析、批处理任务),帮助学习者掌握使用 Java 构建高效大数据处理程序的完整方法。

773

2025.12.08

TypeScript类型系统进阶与大型前端项目实践
TypeScript类型系统进阶与大型前端项目实践

本专题围绕 TypeScript 在大型前端项目中的应用展开,深入讲解类型系统设计与工程化开发方法。内容包括泛型与高级类型、类型推断机制、声明文件编写、模块化结构设计以及代码规范管理。通过真实项目案例分析,帮助开发者构建类型安全、结构清晰、易维护的前端工程体系,提高团队协作效率与代码质量。

26

2026.03.13

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
RunnerGo从入门到精通
RunnerGo从入门到精通

共22课时 | 1.8万人学习

尚学堂Mahout视频教程
尚学堂Mahout视频教程

共18课时 | 3.3万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号