1. 下载binary包并解压安装

  2. 指定环境变量 JAVA_HOME

  3. 配置 DataNode 节点IP: HADOOP_HOME/etc/hadoop/wokers

  4. hadoop守护进程配置. 修改文件 HADOOP_PREFIX/etc/hadoop/core-site.xml

    <configuration>
    		<property>
    			<name>fs.defaultFS</name>
    			<value>hdfs://localhost:9000</value>
    			<description>主节点hdfs地址</description>
    		</property>
    		<property>
    			<name>hadoop.tmp.dir</name>
    			<value>/tmp/hadoop-manager/hadoop-3.0.0</value>
    			<description>tmp文件夹目录</description>
    		</property>
    </configuration>
    
  5. hdfs配置. 修改文件 HADOOP_PREFIX/etc/hadoop/hdfs-site.xml

    <configuration>
    		<property>
    			<name>dfs.replication</name>
    			<value>2</value>
    			<description>文件副本,在多少个datanode中保存备份</description>
    		</property>
    		<property>
    			<name>dfs.namenode.name.dir</name>
    			<value>/opt/hdfs/name</value>
    		</property>
    		<property>
    			<name>dfs.datanode.data.dir</name>
    			<value>/opt/hdfs/data</value>
    		</property>
    </configuration>
    

    <aside> 💡 备注:在配置的时候,如果遇到访问的域名不为localhost,而为子网ip的时候,可以参照 Hadoop Utils

    </aside>

  6. mapReduce配置. 修改文件 HADOOP_PREFIX/etc/hadoop/mapred-site.xml

    <configuration>
    		<property>
    			<name>mapreduce.framework.name</name>
    			<value>yarn</value>
    		</property>
    		<property>
    			<name>mapreduce.admin.user.env</name>
    				<value>HADOOP_MAPRED_HOME=$HADOOP_COMMON_HOME</value>
    		</property>
    		<property>
    			<name>yarn.app.mapreduce.am.env</name>
    			<value>HADOOP_MAPRED_HOME=$HADOOP_COMMON_HOME</value>
    		</property>
    </configuration>
    
  7. yarn配置. 修改文件 HADOOP_PREFIX/etc/hadoop/yarn-site.xml

    <configuration>
    	
    	<!-- Site specific YARN configuration properties -->
    		<property>
    			<name>yarn.resourcemanager.hostname</name>
    			<value>localhost</value>
    		</property>
    		<property>
    			<name>yarn.nodemanager.aux-services</name>
    			<value>mapreduce_shuffle</value>
    		</property>
    </configuration>
    
  8. 执行hdfs namenode -format 重置namenode节点

  9. 执行 /bin/start-dfs.sh启动

  10. 如果遇到错误可以使用命令来开启日志输出 export HADOOP_ROOT_LOGGER=DEBUG,console

  11. 启动MapReduce 访问master_ip:50030. HADOOP_PREFIX/sbin/start-yarn.sh

  12. jps 查询运行节点

  13. 执行测试用例

    cd share/hadoop/mapreduce
    hadoop jar hadoop-mapreduce-examples-3.0.0.jar pi 2 10
    
  14. 打开 namenode 管理界面 http://localhost:9870

  15. 打开 datanode 管理界面 http://localhost:9864

  16. 打开 yarn 地址 http://localhost:8088

  17. 打开 resourcemanager 管理界面 http://localhost:8042