Apache Hadoop 是一个开源软件框架,可安装在一个商用机器集群中,使机器可彼此通信并协同工作,以高度分布式的方式共同存储和处理大量数据。
最初,Hadoop 包含以下两个主要组件:Hadoop Distributed File System (HDFS) 和一个分布式计算引擎,该引擎支持以 MapReduce 作业的形式实现和运行程序。
Hadoop管理员面试问题与回答
1、解释不同的配置文件以及它们位于何处?配置文件位于conf子目录。Hadoop有3个不同的配置文件,hdfs-site.xml, core-site.xml 和 mapred-site.xml。
2、要求运行Hadoop集群的进程是什么?
Namenode,DataNode,TaskTracker和JobTracker。
3、你将如何重新启动节点?
最简单的做法是运行停止运行命令shell脚本,即点击stop-all.sh。一旦这样做了,重启NameNode点击start-all.sh。
等下次发帖