본문 바로가기
반응형

Study/Bigdata66

Hadoop MapReduce 여러개 Map, Reduce 실행하기 [JobControl 이용시 Stop이 안될때] 현재 MapReduce관련 작업을 하고 있습니다. 기본적으로 MapReudce는 Map작업과 Reduce작업으로 이루어져있습니다. 만약 Map 이 1개 , Reduce가 1개 일때는 문제가 안되지만, Map 작업이 2개 이상이 되거나 Reduce작업이 2개 이상되어야 할경우가 문제가 됩니다. 지금 책을 보면서, 여러가지를 공부하고 있는데, 인터넷검색결과 이럴경우, 3가지 해결방법이 제시가 됩니다. 첫번째는 jobconf를 여러개 생성해서, jobclient를 실행해서 하는 방법입니다.두번째는 책에 가장 많이 나와있는 케이스인데, ChainMapper를 사용해서 여러개의 Map과 Reduce 작업을 하는 방법입니다. 지금 현재 MapRedue를 이용해서 만들고 있는데 저한테는 아직 적합한것 같지 않네요. .. 2014. 4. 2.
하둡 HDFS 폴더의 파일 갯수 확인 방법 FileSystem fs = FileSystem.get(conf); Path pt = new Path("/path"); ContentSummary cs = fs.getContentSummary(pt); long fileCount = cs.getFileCount();https://stackoverflow.com/questions/20381422/file-count-in-an-hdfs-directory MapReduce 프로그래밍 중간에, 생성되는 파일의 갯수를 알아야 했는데, 생각보다 쉬운방법이 있네요. 2014. 3. 18.
하둡(hadoop) 한개 노드 태스크 트래커(tasktracker),데이터노드(datanode) 종료 원본 : http://stevemorin.blogspot.kr/2009/07/hadoop-stop-single-tasktracker-node-how.html Here is how to stop a single tasktracker node in a hadoop cluster. /usr/local/hadoop/bin/hadoop-daemon.sh --config /usr/local/hadoop/bin/../conf stop tasktracker 원본 : http://stevemorin.blogspot.kr/2009/07/example-how-to-stop-single-hadoop.html Here is how to stop a single tasktracker node in a hadoop cluster... 2014. 1. 23.
org.apache.flume.EventDeliveryException: Failed to send events Flume에서 agnet -> agent로 연결할때 ,org.apache.flume.EventDeliveryException: Failed to send events 이러한 오류가 난다면.받는 agent 쪽에서 bind-ip를 잘못 설정 하셨습니다. 저같은경우는 bind ip = localhost, 127.0.0.1 하였는데 bind.ip 0.0.0.0으로 하시면 되실것 같습니다. 제가 사용하는 Flume 버전은 Flume-NG 1.4.0 입니다 2013. 11. 21.
맵리듀스 프로그래밍을 할때 log4j로 로그 찍어보기 http://www.jaso.co.kr/265 일딴 김형준님의 블로그 요걸 보시면 편하게 이해하실수 있습니다. 일종의 사전지식이랄까. 일단 이글을 보시는 분들은 아마 저보다는 잘하시는 분들이실겁니다. 전 요즘 이것때문에 죽겠거든요전,, 도저히 저걸 봐도, 하둡 돌아가는게 안보인느것입니다. 일단 제가 필요한 로그은 getsplit 하고 recodereader 이거 맞나요 직접 구현하는 부분이.일단 메인클레스 내부에서는 sysout 찍어버리면 보이는데, 재내들은 그 안에 있으니 보이지도 않고그래서 제가 선택한 방법은 log4j 입니다. http://blog.naver.com/PostView.nhn?blogId=airguy76&logNo=150087115029&categoryNo=3&viewDate=&curr.. 2012. 7. 8.
하둡 hadoop && ext3, ext4 , XFS Underlying File System Options If mount the disks as noatime, then the file access times aren't written back; this speeds up reads. There is also relatime, which stores some access time information, but is not as slow as the classic atime attribute. Remember that any access time information kept by Hadoop is independent of the atime attribute of individual blocks, so Hadoop does not care what yo.. 2012. 1. 26.
반응형