hadoopの設定
さてここからがhadoopの設定になります。
以下の作業はh@hadoop1で行います。基本的に設定ファイルは$HADOOP_
Javaへのパスの設定
$HADOOOP_
master, slaveの設定
master
hadoop1
slave
hadoop2
hadoop3
データディレクトリ, PIDファイルの設定
HDFSでのデータ保存用ディレクトリを設定します。デフォルトでは/tmpになっているため,
事前作業で作成したディレクトリを設定します。$HADOOP_
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hdfs/${user.name}</value>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://hadoop1:9000</value>
</property>
</configuration>
また,
export HADOOP_PID_DIR=/usr/local/hdfs/pids
レプリケーションの設定
HDFSで管理されるデータのレプリケーション数を定義します。設定ファイルは$HADOOP_
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
</configuration>
JobTrackerの設定
MapReduceでのタスク管理サーバの情報を記述します。設定ファイルは$HADOOP_
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>hadoop1:9001</value>
</property>
</configuration>
以上で,
次に,
NFSの設定
ここでは各種設定ファイルの内容を記述しておきます。
hadoop2, 3で以下のディレクトリを作成します。
# mkdir /usr/local/apache_proj
hadoop1の/etc/
/usr/local/apache_proj 192.168.0.0/255.255.0.0(rw,no_root_squash)
hadoop2, hadoop3の/etc/
hadoop1:/usr/local/apache_proj /usr/local/apache_proj nfs defaults 0 0
hadoop1を起動後,
hadoopの起動
それではいよいよhadoopの起動ですが,
$ hadoop namenode -format
画面上にメッセージが流れますが,
10/10/04 08:49:51 INFO namenode.NameNode: SHUTDOWN_MSG: /************************************************************ SHUTDOWN_MSG: Shutting down NameNode at hadoop1/192.168.47.101 ************************************************************/
次にhadoopの起動です。hadoop1でhユーザになって以下のコマンドを実行します。
$ start-all.sh
こちらも画面上にメッセージが流れますが,
RSA key fingerprint is 30:85:64:a1:37:d6:43:25:4c:2e:b4:82:cb:f7:04:76. Are you sure you want to continue connecting (yes/no)? 《中略》 hadoop2: starting tasktracker, logging to /usr/local/apache_proj/hadoop/bin/../logs/hadoop-h-tasktracker-hadoop2.out hadoop3: starting tasktracker, logging to /usr/local/apache_proj/hadoop/bin/../logs/hadoop-h-tasktracker-hadoop3.out
起動の確認
hadoopには管理用のWebページが用意されており,
画面上ではわかりにくいかもしれませんが,
こちらもNodesが2となっており,
次回はMapReduceを実際に動作させてみましょう。