본문 바로가기
반응형

hadoop41

하둡 HDFS 폴더의 파일 갯수 확인 방법 FileSystem fs = FileSystem.get(conf); Path pt = new Path("/path"); ContentSummary cs = fs.getContentSummary(pt); long fileCount = cs.getFileCount();https://stackoverflow.com/questions/20381422/file-count-in-an-hdfs-directory MapReduce 프로그래밍 중간에, 생성되는 파일의 갯수를 알아야 했는데, 생각보다 쉬운방법이 있네요. 2014. 3. 18.
하둡(hadoop) 한개 노드 태스크 트래커(tasktracker),데이터노드(datanode) 종료 원본 : http://stevemorin.blogspot.kr/2009/07/hadoop-stop-single-tasktracker-node-how.html Here is how to stop a single tasktracker node in a hadoop cluster. /usr/local/hadoop/bin/hadoop-daemon.sh --config /usr/local/hadoop/bin/../conf stop tasktracker 원본 : http://stevemorin.blogspot.kr/2009/07/example-how-to-stop-single-hadoop.html Here is how to stop a single tasktracker node in a hadoop cluster... 2014. 1. 23.
org.apache.flume.EventDeliveryException: Failed to send events Flume에서 agnet -> agent로 연결할때 ,org.apache.flume.EventDeliveryException: Failed to send events 이러한 오류가 난다면.받는 agent 쪽에서 bind-ip를 잘못 설정 하셨습니다. 저같은경우는 bind ip = localhost, 127.0.0.1 하였는데 bind.ip 0.0.0.0으로 하시면 되실것 같습니다. 제가 사용하는 Flume 버전은 Flume-NG 1.4.0 입니다 2013. 11. 21.
org.apache.hadoop.security.AccessControlException: Permission denied: in hdfs-site.xml dfs.permissions false 2013. 11. 1.
맵리듀스 프로그래밍을 할때 log4j로 로그 찍어보기 http://www.jaso.co.kr/265 일딴 김형준님의 블로그 요걸 보시면 편하게 이해하실수 있습니다. 일종의 사전지식이랄까. 일단 이글을 보시는 분들은 아마 저보다는 잘하시는 분들이실겁니다. 전 요즘 이것때문에 죽겠거든요전,, 도저히 저걸 봐도, 하둡 돌아가는게 안보인느것입니다. 일단 제가 필요한 로그은 getsplit 하고 recodereader 이거 맞나요 직접 구현하는 부분이.일단 메인클레스 내부에서는 sysout 찍어버리면 보이는데, 재내들은 그 안에 있으니 보이지도 않고그래서 제가 선택한 방법은 log4j 입니다. http://blog.naver.com/PostView.nhn?blogId=airguy76&logNo=150087115029&categoryNo=3&viewDate=&curr.. 2012. 7. 8.
하둡 hadoop && ext3, ext4 , XFS Underlying File System Options If mount the disks as noatime, then the file access times aren't written back; this speeds up reads. There is also relatime, which stores some access time information, but is not as slow as the classic atime attribute. Remember that any access time information kept by Hadoop is independent of the atime attribute of individual blocks, so Hadoop does not care what yo.. 2012. 1. 26.
반응형