Hadoop 安装,在配置文件书写正常情况下易出现的问题

很多人喜欢一上来就对namenode进行多次初始化,尤其是在对配置文件更改后立刻进行初始化很容造成jps之后datanode无法启动的问题,在其他文章中对此问题已经进行了多次讨论,如

http://www.cnblogs.com/kinglau/archive/2013/08/28/3287096.html

http://www.linuxidc.com/Linux/2015-01/111891.htm

其中都提到了删除dfs/datanode的数据,然而我在mac 和 ubuntn下安装的过程中发现,dfs有时候并不从在,具体参考自己配置文件,其实很多时候初始化信息都保存在/tmp文件下(cd /tmp),只需要将其中所有带有hadoop字样的文件及文件夹删除,重新初始化namenode 再start即可正常运行。有问题的可以联系我 836124576@qq.com

以下提供配置文件 在mac 与ubuntn中都能使用

hdfs-site.xml

<?xml version=”1.0″?>

<?xml-stylesheet type=”text/xsl” href=”configuration.xsl”?>

<!– Put site-specific property overrides in this file. –>

<configuration>

<property>

<name>dfs.namenode.name.dir</name>

<value>/home/hadoop/hadoop_dir/dfs/name</value>

</property>

<property>

<name>dfs.datanode.data.dir</name>

<value>file:///home/hadoop/hadoop_dir/dfs/data</value>

</property>

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

</configuration>

 

marred-site.xml

<?xml version=”1.0″?>

<?xml-stylesheet type=”text/xsl” href=”configuration.xsl”?>

<!– Put site-specific property overrides in this file. –>

<configuration>

<property>

<name>mapred.job.tracker</name>

<value>localhost:9001</value>

</property>

<property>

<name>mapreduce.cluster.local.dir</name>

<value>/home/hadoop/hadoop_dir/mapred/local</value>

</property>

<property>

<name>mapreduce.jobtracker.system.dir</name>

<value>/home/hadoop/hadoop_dir/mapred/system</value>

</property>

</configuration>

 

core-site.xml

<?xml version=”1.0″?>

<?xml-stylesheet type=”text/xsl” href=”configuration.xsl”?>

<!– Put site-specific property overrides in this file. –>

<configuration>

<property>

<name>fs.default.name</name>

<value>hdfs://localhost:9000</value>

</property>

</configuration>

 

 

本人尝试过的hadoop版本有0.20.205 和1.2.0 java版本有1.6 和 1.7均适用

Hadoop 安装,在配置文件书写正常情况下易出现的问题》上有1条评论

  1. Pingback引用通告: HAdoop_hbase_hive联合使用样例试验 – SecKinesis

发表评论