老师,您好,我按照您的配置进行配置的,我在51机器上使用sbin/start-dfs.sh启动hdfs的时候,52和53机器上什么都没起起来,通过查看日志,发现如下报错:java.io.IOException: Incorrect configuration: namenode address dfs.namenode.servicerpc-address or dfs.namenode.rpc-address is not configured.
我在网上也找了很多资料,但是都没有解决我的问题,下面是我的core-site.xml的配置:
<configuration>
<!-- 默认的文件系统的名称 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://192.1.216.51:8020</value>
</property>
<!-- 缓存目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/home/softwares/hadoop-2.7.1/data/tmp</value>
</property>
<!-- 垃圾回收机制,相当于启动hdfs的回收站,这样我们在删除hdfs文件之后,
hdfs会先把这些文件存储在某个位置,过一段时间(单位:分钟)才会真正
的去删除,可以有效的防止我们误删除。
-->
<property>
<name>fs.trash.interval</name>
<value>10080</value>
</property>
</configuration>