HDP에 익숙해져있다가 self-deployed Hadoop을 사용하다 보면, 답답할때가....
예를들면, HDFS를 확장하는것조차 마우스 클릭 딸각한번으로 해결될 문제가.
메뉴얼로 정리해보면
1.Hadoop.tar.gz 파일을 확장하려는 노드로 배포
데이터 노드에서
./hadoop-daemon.sh start datanode
2.
네임 노드(HA했다면 둘다 설정 복사)에서
hdfs-site.xml에서 설정한 파일을 참고해서
<property>
<name>dfs.hosts</name>
<value>/etc/hadoop/dfs.hosts</value>
</property>
<property>
<name>dfs.hosts.exclude</name>
<value>/etchadoop/dfs.exclude</value>
</property>
dfs.hosts에 호스트 파일에 새로 추가한 데이터 노드 추가
3.
Acitve NameNode에서
./refresh-namenodes.sh
노드 추가 끝
*
반대로 노드를 삭제할때는. 2번절차에서 수행한 dfs.hosts 데이터노드를 지우고 dfs.exclude
하고 Active NameNode에서 ./refresh-namenodes.sh 하면 제외하려는 데이터노드에 대해 decommision 절차가 수행된다음 제거
'Study > Bigdata' 카테고리의 다른 글
Hive Metastore not working - Syntax error 'OPTION SQL_SELECT_LIMIT=DEFAULT' at line 1 (0) | 2018.08.02 |
---|---|
Cassandra 와 Spark (0) | 2017.07.11 |
NodeManager 추가 및 삭제 (0) | 2017.07.11 |
아파치 재플린 코드 자동완성(apache zeppelin code assistant) (0) | 2017.06.06 |
saveAsTable is not a member of org.apache.spark.sql.DataFrame (0) | 2017.06.04 |
Spark 에서 Parquet 저장할때 GZ 말고 Snappy 사용법 (0) | 2017.05.21 |