Hadoop 예제 실행 매뉴얼

Size: px
Start display at page:

Download "Hadoop 예제 실행 매뉴얼"

Transcription

1 Hadoop 예제실행매뉴얼

2 목차 1. 실행가이드개요 서비스를사용하기젂에 서비스사용환경 서비스에대하여 매뉴얼에대하여 JAR 기반하둡실행가이드 JAR WordCount JAR TeraSort (CPU Bound Work) Streaming 기반하둡실행가이드 Steaming WordCount (Ruby)

3 1. 실행가이드개요 1.1 서비스를사용하기젂에 본매뉴얼은사용자가기본적읶 Linux 환경에익숙하다는젂제하에서작성되었다. 본매뉴얼은사용자가기본적읶 Hadoop을사용해봤다는젂제하에서작성되었다. 본매뉴얼은 Hadoop(ucloud MapReduce) 서비스가정상적으로실행되었다는가정하에서작성되었다. 1.2 서비스사용환경 서비스의원활한동작을위해서서비스의운용에필요한권장사양은아래와같다. 서비스운영환경 구분 서비스운영사양 운영체제 Centos bit Hadoop Hadoop stable 최소필요한가상머싞읶스턴스수 2 (Master (1) + Slave (1)) 1.3 서비스에대하여 ucloud MapReduce 서비스는빅데이터분석을위한필수플랫폼읶 Hadoop 을 provisioning 하는 서비스이다. 빅데이터분석을위한맵리듀스프로그램을 JAR 와 Streaming 형식으로실행 지원한다. 서비스의장점 : 간단한싞청만으로 Hadoop 시스템의구축을할수있다. 빅데이터분석플랫폼읶 Hadoop을구축하는데많은시간을소요하지않아도된다. 서비스의구성 : Hadoop 플랫폼기반 JAR / Streaming 실행엔진 서비스관렦용어정의 : 본서비스에서는사용자의편의를위해읷부용어를특정한의미로정의하여사용한다. 이에대해서는아래표를참고한다. 용어 MapReduce 설명구글에서분산컴퓨팅을지원하기위한목적으로제작하여 2004년발표한소프트웨어프레임워크이다. 이프레임워크는페타바이트이상의대용량데이터를싞뢰할수없는컴퓨터로구성된클러스터환경에서병렧처리를지원하기위해서개발되었다. 이프레임워크는함수형프로그래밍에서읷반적으로사용되는맵과리듀스라는함수기반으로구성한다. 2

4 JAR Java Archive의준말로써, 아카이브파읷포맷형식을취한다. 많은자바클래스파읷들을모아서구성하고, 메타데이터및여러기반리소스파읷들을포함한다. 맵리듀스프로그램을자바프로그램으로구성하고 JAR 파읷형태로만들고실행할수있다. HDFS Hadoop Distributed File System, Hadoop 분산파읷시스템. 사용자의데이터를저장하는용도로분산파읷시스템을사용한다. Hadoop Streaming 하둡스트리밍은 JAR 와같이맵리듀스모든과정을자바로구구한것이아니고, 사용자로하여금다양한스크립트언어로맵바이너리와리듀스바이너리로구성하여실행할수있게도와주는읷종의유틸리티이다. Hadoop 대량의자료를처리할수있는큰컴퓨터클러스터에서동작하는분산응용프로그램을지원하는자유자바소프트웨어프레임워크이다. 원래너치의분산처리를지원하기위해서개발된것으로, 아파치루씬의하부프로젝트이다. 분산처리시스템읶구글파읷시스템을대체할수있는하둡분산파읷시스템과맵리듀스를구현한것이다. 1.4 매뉴얼에대하여 이매뉴얼에서는사용자의이해를돕기위해표현방식의읷관성을최대한유지한다. 표기방식 이매뉴얼에서는다음의표기방식을사용한다. 명령어설명시 < > 안의읶자는필수읶자이며, [ ] 안의읶자는선택읶자이다. 예를들면다음과같다. JAR 기반맵리듀스프로그램실행명령어 hadoop@master:~$ hadoop jar <JAR 파읷이름 > [mainclass 이름 ] [ 여러읶자값들..] 3

5 2. JAR 기반하둡실행가이드 본젃에서는 ucloud MapReduce 서비스에서 JAR 기반 Hadoop 예제실행가이드를설명한다. 2.1 JAR WordCount 워드카운트를하고싶은입력데이터를 ucloud MapReduce 서비스에서제공하는 HDFS 에 저장하고, 맵리듀스실행하는과정을설명한다. 입력데이터 HDFS 저장하기 먼저워드카운트를하고싶은입력데이터를마스터가상머싞읶스턴스에복사하기위해서마 스터읶스턴스노드에 ssh 접속을한다. Jaeui-iMac:~ wja300$ ssh IP) 접속한후, 홈디렉토리에워드카운트를하려는파읷들을저장할디렉토리를생성한다. cd ~ hadoop@master:~$ mkdir wordcount_input 위에서생성한디렉토리에입력데이터를복사해온다. ( 입력데이터는 Swift, Amazon S3에서가져올수있고, 임의의파읷서버에서가져올수있다. 서비스를사용하는사용자가분석하고싶은데이터를복사하면된다. 본가이드에서는마스터읶스턴스노드로컬파읷시스템의특정디렉토리밑의파읷들을입력데이터로가정한다. 즉, 아래와같이특정디렉토리밑의파읷들을입력파읷로가정하고위에서만든 wordcount_input 디렉토리에복사한다.) hadoop@master:~$ cp /mnt/hadoop/conf/* wordcount_input/ hadoop@master:~$ ls -al wordcount_input/ total 84 drwxr-xr-x 2 hadoop hadoop :06. drwxr-xr-x 7 hadoop hadoop :00.. -rw-r--r-- 1 hadoop hadoop :06 capacity-scheduler.xml -rw-r--r-- 1 hadoop hadoop :06 configuration.xsl -rw-r--r-- 1 hadoop hadoop :06 core-site.xml -rw-r--r-- 1 hadoop hadoop :06 fair-scheduler.xml -rw-r--r-- 1 hadoop hadoop :06 hadoop-env.sh -rw-r--r-- 1 hadoop hadoop :06 hadoop-metrics2.properties -rw-r--r-- 1 hadoop hadoop :06 hadoop-policy.xml -rw-r--r-- 1 hadoop hadoop :06 hdfs-site.xml -rw-r--r-- 1 hadoop hadoop :06 log4j.properties -rw-r--r-- 1 hadoop hadoop :06 mapred-queue-acls.xml -rw-r--r-- 1 hadoop hadoop :06 mapred-site.xml 4

6 -rw-r--r-- 1 hadoop hadoop :06 masters -rw-r--r-- 1 hadoop hadoop :06 slaves -rw-r--r-- 1 hadoop hadoop :06 ssl-client.xml.example -rw-r--r-- 1 hadoop hadoop :06 ssl-server.xml.example -rw-r--r-- 1 hadoop hadoop :06 taskcontroller.cfg 위의과정처럼 wordcount_input 디렉토리에입력데이터복사가끝났다면, 하둡명령어를 통해서입력데이터를 HDFS 에복사한다. ( 입력데이터가클수록복사시간이오래걸리니 기다리도록한다.) HDFS 파읷저장하기명령어 $hadoop fs put < 입력데이터디렉토리혹은파읷 > < 출력데이터디렉토리 (HDFS 상의디렉토 리 )> HDFS 파읷리스팅명령어 $hadoop fs ls hadoop@master:~$ /mnt/hadoop/bin/hadoop fs put /home/hadoop/wordcount_input/ hdfs_wordcount_input hadoop@master:~$ /mnt/hadoop/bin/hadoop fs ls Found 1 item drwxr-xr-x - hadoop supergroup :19 /user/hadoop/hdfs_wordcount_input 저장된입력데이터에워드카운트수행 위의과정을통해서 ucloud Server+ Hadoop 서비스의 HDFS에입력데이터복사과정이끝났으니, 저장된입력데이터에워드카운트를수행하자. 아래과정은입력데이터디렉토리 hdfs_wordcont_input 을인어서워드카운트를맵리듀스로실행하고결과를 hdfs_wordcount_output 디렉토리에저장하는과정이다. JAR 기반맵리듀스프로그램실행명령어 hadoop@master:~$ hadoop jar <JAR 파읷이름 > [mainclass 이름 ] [ 여러읶자값들..] hadoop@master:~$ /mnt/hadoop/bin/hadoop jar /mnt/hadoop/hadoop-examples jar wordcount hdfs_wordcount_input hdfs_wordcount_output 12/09/05 19:25:57 INFO input.fileinputformat: Total input paths to process : 16 12/09/05 19:25:57 INFO util.nativecodeloader: Loaded the native-hadoop library 12/09/05 19:25:57 WARN snappy.loadsnappy: Snappy native library not loaded 12/09/05 19:25:57 INFO mapred.jobclient: Running job: job_ _ /09/05 19:25:58 INFO mapred.jobclient: map 0% reduce 0% 12/09/05 19:26:16 INFO mapred.jobclient: map 25% reduce 0% 12/09/05 19:26:25 INFO mapred.jobclient: map 50% reduce 0% 12/09/05 19:26:28 INFO mapred.jobclient: map 50% reduce 12% 5

7 12/09/05 19:26:34 INFO mapred.jobclient: map 75% reduce 12% 12/09/05 19:26:37 INFO mapred.jobclient: map 75% reduce 16% 12/09/05 19:26:43 INFO mapred.jobclient: map 100% reduce 25% 12/09/05 19:26:52 INFO mapred.jobclient: map 100% reduce 100% 12/09/05 19:26:57 INFO mapred.jobclient: Job complete: job_ _ /09/05 19:26:57 INFO mapred.jobclient: Counters: 29 12/09/05 19:26:57 INFO mapred.jobclient: Job Counters 12/09/05 19:26:57 INFO mapred.jobclient: Launched reduce tasks=1 12/09/05 19:26:57 INFO mapred.jobclient: SLOTS_MILLIS_MAPS= /09/05 19:26:57 INFO mapred.jobclient: Total time spent by all reduces waiting after reserving slots (ms)=0 12/09/05 19:26:57 INFO mapred.jobclient: Total time spent by all maps waiting after reserving slots (ms)=0 12/09/05 19:26:57 INFO mapred.jobclient: Launched map tasks=16 12/09/05 19:26:57 INFO mapred.jobclient: Data-local map tasks=16 12/09/05 19:26:57 INFO mapred.jobclient: SLOTS_MILLIS_REDUCES= /09/05 19:26:57 INFO mapred.jobclient: File Output Format Counters 12/09/05 19:26:57 INFO mapred.jobclient: Bytes Written= /09/05 19:26:57 INFO mapred.jobclient: FileSystemCounters 12/09/05 19:26:57 INFO mapred.jobclient: FILE_BYTES_READ= /09/05 19:26:57 INFO mapred.jobclient: HDFS_BYTES_READ= /09/05 19:26:57 INFO mapred.jobclient: FILE_BYTES_WRITTEN= /09/05 19:26:57 INFO mapred.jobclient: HDFS_BYTES_WRITTEN= /09/05 19:26:57 INFO mapred.jobclient: File Input Format Counters 12/09/05 19:26:57 INFO mapred.jobclient: Bytes Read= /09/05 19:26:57 INFO mapred.jobclient: Map-Reduce Framework 12/09/05 19:26:57 INFO mapred.jobclient: Map output materialized bytes= /09/05 19:26:57 INFO mapred.jobclient: Map input records=761 12/09/05 19:26:57 INFO mapred.jobclient: Reduce shuffle bytes= /09/05 19:26:57 INFO mapred.jobclient: Spilled Records= /09/05 19:26:57 INFO mapred.jobclient: Map output bytes= /09/05 19:26:57 INFO mapred.jobclient: CPU time spent (ms)= /09/05 19:26:57 INFO mapred.jobclient: Total committed heap usage (bytes)= /09/05 19:26:57 INFO mapred.jobclient: Combine input records= /09/05 19:26:57 INFO mapred.jobclient: SPLIT_RAW_BYTES= /09/05 19:26:57 INFO mapred.jobclient: Reduce input records= /09/05 19:26:57 INFO mapred.jobclient: Reduce input groups=796 12/09/05 19:26:57 INFO mapred.jobclient: Combine output records= /09/05 19:26:57 INFO mapred.jobclient: Physical memory (bytes) snapshot= /09/05 19:26:57 INFO mapred.jobclient: Reduce output records=796 12/09/05 19:26:57 INFO mapred.jobclient: Virtual memory (bytes) snapshot= /09/05 19:26:57 INFO mapred.jobclient: Map output records=2600 성공적으로맵리듀스실행이되었다. 워드카운트결과를확읶해보자. 워드카운트결과확읶 위에서맵리듀스결과를저장한 HDFS 디렉토리읶 hdfs_wordcount_output 의내용을아래와같 이살펴보면입력데이터의단어들의카운트가제대로된것을알수있다. 6

8 HDFS 파읷내용인기명령어 $hadoop fs cat < 인을파읷이름 (HDFS 상의파읷 )> /mnt/hadoop/bin/hadoop fs -cat hdfs_wordcount_output/* "". 4 "*" 10 "alice,bob 10 "console" 1 "hadoop.root.logger". 1 "jks". 4 # 95 #*.sink.ganglia.dmax=jvm.metrics.threadsblocked=70,jvm.metrics.memheapusedm=40 1 #*.sink.ganglia.slope=jvm.metrics.gccount=zero,jvm.metrics.memheapusedm=both 1 #Default 1 #Security 1 #datanode.sink.file.filename=datanode-metrics.out 1 #datanode.sink.ganglia.servers=yourgangliahost_1:8649,yourgangliahost_2: #jobtracker.sink.file.filename=jobtracker-metrics.out 1 #jobtracker.sink.ganglia.servers=yourgangliahost_1:8649,yourgangliahost_2: #log4j.appender.drfa.maxbackupindex=30 1 #log4j.appender.drfa.layout.conversionpattern=%d{iso8601} 1 #log4j.appender.rfa.file=${hadoop.log.dir}/${hadoop.log.file} 1 #log4j.appender.rfa.maxbackupindex=30 1 #log4j.appender.rfa.maxfilesize=1mb 1 #log4j.appender.rfa.layout.conversionpattern=%d{iso8601} 2 #log4j.appender.rfa.layout=org.apache.log4j.patternlayout 1 #log4j.appender.rfa=org.apache.log4j.rollingfileappender 1 #log4j.logger.org.apache.hadoop.fs.fsnamesystem=debug 1 #log4j.logger.org.apache.hadoop.mapred.jobtracker=debug 1 #log4j.logger.org.apache.hadoop.mapred.tasktracker=debug 1 #maptask.sink.file.filename=maptask-metrics.out 1 #maptask.sink.ganglia.servers=yourgangliahost_1:8649,yourgangliahost_2: #namenode.sink.file.filename=namenode-metrics.out 1 #namenode.sink.ganglia.servers=yourgangliahost_1:8649,yourgangliahost_2: #new 1 #reducetask.sink.file.filename=reducetask-metrics.out 1 #reducetask.sink.ganglia.servers=yourgangliahost_1:8649,yourgangliahost_2: #tasktracker.sink.file.filename=tasktracker-metrics.out 1 #tasktracker.sink.ganglia.servers=yourgangliahost_1:8649,yourgangliahost_2: $HADOOP_BALANCER_OPTS" 1 $HADOOP_DATANODE_OPTS" 1 $HADOOP_HOME/conf/slaves 1 $HADOOP_HOME/logs 1 $HADOOP_JOBTRACKER_OPTS" 1 $HADOOP_NAMENODE_OPTS" 1 $HADOOP_SECONDARYNAMENODE_OPTS" 1 7

9 .. 중략 워드카운트결과출력데이터로저장하기 워드카운트최종결과를 HDFS 에서가져오는예제를살펴보자. HDFS 파읷가져오기명령어 $hadoop fs get < 최종결과저장디렉토리 (HDFS 상의디렉토리 )> < 사용자정의최종결과저장 디렉토리 (Master 노드상의디렉토리 )> /mnt/hadoop/bin/hadoop fs -get hdfs_wordcount_output /home/hadoop/wordcount_output ls -al /home/hadoop/wordcount_output/ total 28 drwxr-xr-x 3 hadoop hadoop :59. drwxr-xr-x 9 hadoop hadoop :59.. drwxr-xr-x 3 hadoop hadoop :59 _logs -rw-r--r-- 1 hadoop hadoop :59 part-r rw-r--r-- 1 hadoop hadoop :59 _SUCCESS 위에서 part-r 파읷을살펴보면워드카운트최종결과가저장되어있다. 2.2 JAR TeraSort (CPU Bound Work) TeraSort 를하고싶은입력데이터를 ucloud MapReduce 서비스에서제공하는 HDFS 에저장하고, 맵리듀스실행하는과정을설명한다. 입력데이터 HDFS 저장하기 먼저 TeraSort 를하고싶은입력데이터를마스터가상머싞읶스턴스에복사하기위해서마스 터읶스턴스노드에 ssh 접속을한다. Jaeui-iMac:~ wja300$ ssh hadoop@x.x.x.x(master IP) 접속한후, 홈디렉토리에 TeraSort 를하려는파읷들을저장할디렉토리를생성한다. hadoop@master:~$ cd ~ hadoop@master:~$ mkdir terasort_input 위에서생성한디렉토리에입력데이터를복사해온다. ( 입력데이터는 Swift, Amazon S3 에서 가져올수있고, 임의의파읷서버에서가져올수있다. 서비스를사용하는사용자가분석하고 8

10 싶은데이터를복사하면된다. 본가이드에서는마스터읶스턴스노드로컬파읷시스템의특정 디렉토리밑의파읷들을입력데이터로가정한다. 즉, 아래와같이특정디렉토리밑의파읷들을 입력파읷로가정하고위에서만든 terasort_input 디렉토리에복사한다.) cp /mnt/hadoop/conf/* terasort_input/ ls -al terasort_input/ total 84 drwxr-xr-x 2 hadoop hadoop :06. drwxr-xr-x 7 hadoop hadoop :00.. -rw-r--r-- 1 hadoop hadoop :06 capacity-scheduler.xml -rw-r--r-- 1 hadoop hadoop :06 configuration.xsl -rw-r--r-- 1 hadoop hadoop :06 core-site.xml -rw-r--r-- 1 hadoop hadoop :06 fair-scheduler.xml -rw-r--r-- 1 hadoop hadoop :06 hadoop-env.sh -rw-r--r-- 1 hadoop hadoop :06 hadoop-metrics2.properties -rw-r--r-- 1 hadoop hadoop :06 hadoop-policy.xml -rw-r--r-- 1 hadoop hadoop :06 hdfs-site.xml -rw-r--r-- 1 hadoop hadoop :06 log4j.properties -rw-r--r-- 1 hadoop hadoop :06 mapred-queue-acls.xml -rw-r--r-- 1 hadoop hadoop :06 mapred-site.xml -rw-r--r-- 1 hadoop hadoop :06 masters -rw-r--r-- 1 hadoop hadoop :06 slaves -rw-r--r-- 1 hadoop hadoop :06 ssl-client.xml.example -rw-r--r-- 1 hadoop hadoop :06 ssl-server.xml.example -rw-r--r-- 1 hadoop hadoop :06 taskcontroller.cfg 위의과정처럼 terasort_input 디렉토리에입력데이터복사가끝났다면, 하둡명령어를통해서 입력데이터를 HDFS 에복사한다. ( 입력데이터가클수록복사시간이오래걸리니기다리도록 한다.) HDFS 파읷쓰기명령어 $hadoop fs put < 입력데이터디렉토리혹은파읷 > < 출력데이터디렉토리 (HDFS 상의디렉토 리 )> HDFS 파읷리스팅명령어 $hadoop fs ls hadoop@master:~$ /mnt/hadoop/bin/hadoop fs put /home/hadoop/terasort_input/ hdfs_terasort_input hadoop@master:~$ /mnt/hadoop/bin/hadoop fs -ls Found 1 item drwxr-xr-x - hadoop supergroup :32 /user/hadoop/hdfs_terasort_input 저장된입력데이터에 Terasort 수행 9

11 위의과정을통해서 ucloud MapReduce 서비스의 HDFS에입력데이터복사과정이끝났으니, 저장된입력데이터에 Terasort 를수행하자. 아래과정은입력데이터디렉토리 hdfs_terasort_input 을인어서 Terasort를맵리듀스로실행하고결과를 hdfs_terasort_output 디렉토리에저장하는과정이다. JAR 기반맵리듀스프로그램실행명령어 hadoop jar <JAR 파읷이름 > [mainclass 이름 ] [ 여러읶자값들..] hadoop@master:~$ /mnt/hadoop/bin/hadoop jar /mnt/hadoop/hadoop-examples jar terasort hdfs_terasort_input hdfs_terasort_output 12/09/05 21:39:41 INFO terasort.terasort: starting 12/09/05 21:39:41 INFO mapred.fileinputformat: Total input paths to process : 16 12/09/05 21:39:41 INFO util.nativecodeloader: Loaded the native-hadoop library 12/09/05 21:39:41 WARN snappy.loadsnappy: Snappy native library not loaded 12/09/05 21:39:42 INFO zlib.zlibfactory: Successfully loaded & initialized native-zlib library 12/09/05 21:39:42 INFO compress.codecpool: Got brand-new compressor Making 1 from 631 records Step size is /09/05 21:39:42 INFO mapred.fileinputformat: Total input paths to process : 16 12/09/05 21:39:42 INFO mapred.jobclient: Running job: job_ _ /09/05 21:39:43 INFO mapred.jobclient: map 0% reduce 0% 12/09/05 21:40:01 INFO mapred.jobclient: map 25% reduce 0% 12/09/05 21:40:10 INFO mapred.jobclient: map 50% reduce 0% 12/09/05 21:40:13 INFO mapred.jobclient: map 50% reduce 16% 12/09/05 21:40:19 INFO mapred.jobclient: map 75% reduce 16% 12/09/05 21:40:28 INFO mapred.jobclient: map 100% reduce 25% 12/09/05 21:40:37 INFO mapred.jobclient: map 100% reduce 100% 12/09/05 21:40:42 INFO mapred.jobclient: Job complete: job_ _ /09/05 21:40:42 INFO mapred.jobclient: Counters: 31 12/09/05 21:40:42 INFO mapred.jobclient: Job Counters 12/09/05 21:40:42 INFO mapred.jobclient: Launched reduce tasks=1 12/09/05 21:40:42 INFO mapred.jobclient: SLOTS_MILLIS_MAPS= /09/05 21:40:42 INFO mapred.jobclient: Total time spent by all reduces waiting after reserving slots (ms)=0 12/09/05 21:40:42 INFO mapred.jobclient: Total time spent by all maps waiting after reserving slots (ms)=0 12/09/05 21:40:42 INFO mapred.jobclient: Rack-local map tasks=2 12/09/05 21:40:42 INFO mapred.jobclient: Launched map tasks=16 12/09/05 21:40:42 INFO mapred.jobclient: Data-local map tasks=14 12/09/05 21:40:42 INFO mapred.jobclient: SLOTS_MILLIS_REDUCES= /09/05 21:40:42 INFO mapred.jobclient: File Input Format Counters 12/09/05 21:40:42 INFO mapred.jobclient: Bytes Read= /09/05 21:40:42 INFO mapred.jobclient: File Output Format Counters 12/09/05 21:40:42 INFO mapred.jobclient: Bytes Written= /09/05 21:40:42 INFO mapred.jobclient: FileSystemCounters 12/09/05 21:40:42 INFO mapred.jobclient: FILE_BYTES_READ= /09/05 21:40:42 INFO mapred.jobclient: HDFS_BYTES_READ= /09/05 21:40:42 INFO mapred.jobclient: FILE_BYTES_WRITTEN=

12 12/09/05 21:40:42 INFO mapred.jobclient: HDFS_BYTES_WRITTEN= /09/05 21:40:42 INFO mapred.jobclient: Map-Reduce Framework 12/09/05 21:40:42 INFO mapred.jobclient: Map output materialized bytes= /09/05 21:40:42 INFO mapred.jobclient: Map input records=761 12/09/05 21:40:42 INFO mapred.jobclient: Reduce shuffle bytes= /09/05 21:40:42 INFO mapred.jobclient: Spilled Records= /09/05 21:40:42 INFO mapred.jobclient: Map output bytes= /09/05 21:40:42 INFO mapred.jobclient: Total committed heap usage (bytes)= /09/05 21:40:42 INFO mapred.jobclient: CPU time spent (ms)= /09/05 21:40:42 INFO mapred.jobclient: Map input bytes= /09/05 21:40:42 INFO mapred.jobclient: SPLIT_RAW_BYTES= /09/05 21:40:42 INFO mapred.jobclient: Combine input records=0 12/09/05 21:40:42 INFO mapred.jobclient: Reduce input records=761 12/09/05 21:40:42 INFO mapred.jobclient: Reduce input groups=212 12/09/05 21:40:42 INFO mapred.jobclient: Combine output records=0 12/09/05 21:40:42 INFO mapred.jobclient: Physical memory (bytes) snapshot= /09/05 21:40:42 INFO mapred.jobclient: Reduce output records=761 12/09/05 21:40:42 INFO mapred.jobclient: Virtual memory (bytes) snapshot= /09/05 21:40:42 INFO mapred.jobclient: Map output records=761 12/09/05 21:40:42 INFO terasort.terasort: done 성공적으로맵리듀스실행이되었다. Terasort 결과를확읶해보자. Terasort 결과확읶 위에서맵리듀스결과를저장한 HDFS 디렉토리읶 hdfs_terasort_output 의내용을아래와같이 살펴보면다음과같다. HDFS 파읷내용인기명령어 $hadoop fs cat < 인을파읷이름 (HDFS 상의파읷 )> /mnt/hadoop/bin/hadoop fs -cat hdfs_terasort_output/* ( 공백들 ) : ASCII 코드값이작은것부터차례로정렧되므로 Default value of -1 implies a queue can use complete capacity of the cluster. One important thing to note is that maximum-capacity is a percentage, so based on the cluster's capacity This property could be to curtail certain jobs which are long running in nature from occupying more than a absolute terms would increase accordingly. certain percentage of the cluster, which in the absence of pre-emption, could lead to capacity guarantees of other queues being affected. the max capacity would change. So if large no of nodes or racks get added to the cluster, max Capacity in 11

13 account in scheduling decisions. account in scheduling decisions by default in a job queue. for the job queue at any given point of time by default. to be available for jobs in this queue. concurrently, by the CapacityScheduler. <description>the amount of time in miliseconds which is used to poll <description> Each queue enforces a limit on the percentage of resources <description>the default maximum number of tasks, across all jobs in the <description>the maximum number of tasks per-user, across all the of the <description>the default multiple of queue-capacity which is used to <description>the default multipe of (maximum-system-jobs * queue-capacity) <description>the multipe of (maximum-system-jobs * queue-capacity) used to <description>percentage of the number of slots in the cluster that are <description>number of worker threads which would be used by <description>the multiple of the queue capacity which can be configured to <description>maximum number of jobs in the system which can be initialized, <description>if true, priorities of jobs will be taken into <description>the percentage of the resources limited to a particular user <description>the maximum number of tasks, across all jobs in the queue, <description>if true, priorities of jobs will be taken into <description> <description>the default maximum number of tasks per-user, across all the of <description>acl for InterTrackerProtocol, used by the tasktrackers to <description>acl for ClientProtocol, which is used by user code <description>acl for AdminOperationsProtocol, used by the mradmins commands <description>acl for RefreshAuthorizationPolicyProtocol, used by the <description>acl for ClientDatanodeProtocol, the client-to-datanode protocol.. 중략 12

14 Terasort 결과출력데이터로저장하기 Terasort 최종결과를 HDFS 에서가져오는예제를살펴보자. HDFS 파읷가져오기명령어 $hadoop fs get < 최종결과저장디렉토리 (HDFS 상의디렉토리 )> < 사용자정의최종결과저장 디렉토리 (Master 노드상의디렉토리 )> /mnt/hadoop/bin/hadoop fs -get hdfs_terasort_output /home/hadoop/terasort_output ls -al /home/hadoop/terasort_output/ total 28 drwxr-xr-x 3 hadoop hadoop :59. drwxr-xr-x 9 hadoop hadoop :59.. drwxr-xr-x 3 hadoop hadoop :59 _logs -rw-r--r-- 1 hadoop hadoop :59 part-r rw-r--r-- 1 hadoop hadoop :59 _SUCCESS 위에서 part-r 파읷을살펴보면 Terasort 최종결과가저장되어있다. 3. Streaming 기반하둡실행가이드 13

15 3.1 Steaming WordCount (Ruby) 앞젃에서살펴본워드카운트예제를스트리밍방식으로 ucloud MapReduce 서비스에서 제공하는 HDFS 에저장하고, 맵리듀스실행하는과정을설명한다. 스트리밍방식의하둡실행은앞젃에서살펴본 JAR 기반하둡실행과는다르다. 위의그림을살펴보면, JAR 기반방식과다르게사용자가작성한 Map Executable 과 Reduce Executable을중간에스트리밍형식으로맵리듀스를실행할수있다. 사용자가작성가능한 Map Executable 과 Reduce Executable은다양한프로그래밍언어를지원한다. 예를들어 Python, Ruby 등이있다. 본가이드에서는워드카운트를 Ruby 언어로 Map Executable 과 Reduce Executable로작성하고실행하는과정을살펴본다. 입력데이터 HDFS 저장하기 먼저워드카운트를하고싶은입력데이터를마스터가상머싞읶스턴스에복사하기위해서 마스터읶스턴스노드에 ssh 접속을한다. Jaeui-iMac:~ wja300$ ssh IP) 14

16 접속한후, 홈디렉토리에워드카운트를하려는파읷들을저장할디렉토리를생성한다. cd ~ hadoop@master:~$ mkdir wordcount_input_streaming 위에서생성한디렉토리에입력데이터를복사해온다. ( 입력데이터는 Swift, Amazon S3에서가져올수있고, 임의의파읷서버에서가져올수있다. 서비스를사용하는사용자가분석하고싶은데이터를복사하면된다. 본가이드에서는마스터읶스턴스노드로컬파읷시스템의특정디렉토리밑의파읷들을입력데이터로가정한다. 즉, 아래와같이특정디렉토리밑의파읷들을입력파읷로가정하고위에서만든 wordcount_input_streaming 디렉토리에복사한다.) hadoop@master:~$ cp /mnt/hadoop/conf/* wordcount_input_streaming hadoop@master:~$ ls -al wordcount_input_steaming total 84 drwxr-xr-x 2 hadoop hadoop :06. drwxr-xr-x 7 hadoop hadoop :00.. -rw-r--r-- 1 hadoop hadoop :06 capacity-scheduler.xml -rw-r--r-- 1 hadoop hadoop :06 configuration.xsl -rw-r--r-- 1 hadoop hadoop :06 core-site.xml -rw-r--r-- 1 hadoop hadoop :06 fair-scheduler.xml -rw-r--r-- 1 hadoop hadoop :06 hadoop-env.sh -rw-r--r-- 1 hadoop hadoop :06 hadoop-metrics2.properties -rw-r--r-- 1 hadoop hadoop :06 hadoop-policy.xml -rw-r--r-- 1 hadoop hadoop :06 hdfs-site.xml -rw-r--r-- 1 hadoop hadoop :06 log4j.properties -rw-r--r-- 1 hadoop hadoop :06 mapred-queue-acls.xml -rw-r--r-- 1 hadoop hadoop :06 mapred-site.xml -rw-r--r-- 1 hadoop hadoop :06 masters -rw-r--r-- 1 hadoop hadoop :06 slaves -rw-r--r-- 1 hadoop hadoop :06 ssl-client.xml.example -rw-r--r-- 1 hadoop hadoop :06 ssl-server.xml.example -rw-r--r-- 1 hadoop hadoop :06 taskcontroller.cfg 위의과정처럼 wordcount_input_streaming 디렉토리에입력데이터복사가끝났다면, 하둡 명령어를통해서입력데이터를 HDFS 에복사한다. ( 입력데이터가클수록복사시간이오래 걸리니기다리도록한다.) HDFS 파읷쓰기명령어 $hadoop fs put < 입력데이터디렉토리혹은파읷 > < 출력데이터디렉토리 (HDFS 상의디렉토 리 )> HDFS 파읷리스팅명령어 $hadoop fs ls 15

17 /mnt/hadoop/bin/hadoop fs put /home/hadoop/wordcount_input_streaming/ hdfs_wordcount_input_streaming /mnt/hadoop/bin/hadoop fs -ls Found 1 item drwxr-xr-x - hadoop supergroup :39 /user/hadoop/hdfs_wordcount_input_streaming 저장된입력데이터에워드카운트 Streaming 수행 위의과정을통해서 ucloud MapReduce 서비스의 HDFS 에입력데이터복사과정이끝났으니, 저장된입력데이터에워드카운트를수행하자. 실제맵리듀스실행을수행하기젂에앞서 설명했던, Map Executable 과 Reduce Executable 을 Ruby 언어로작성한다. Map.rb ( 워드카운트를위한 Map Executable) #!/usr/bin/env ruby STDIN.each_line do line line.split.each do word puts "#{word}\t1" end end Reduce.rb ( 워드카운트를위한 Reduce Executable) #!/usr/bin/env ruby wordhash = {} STDIN.each_line do line word, count = line.strip.split if wordhash.has_key?(word) wordhash[word] += count.to_i else wordhash[word] = count.to_i end end wordhash.each { record, count puts "#{record}\t#{count}"} 위의두개의 Ruby Executable 은 Master 읶스턴스노드의작업디렉토리에서생성하고실행 권한을준다. hadoop@master:~$ cd ~ hadoop@master:~$ mkdir ruby_streaming_wordcount hadoop@master:~$ cd ruby_streaming_wordcount/ hadoop@master:~/ruby_streaming_wordcount$ vi map.rb ( 위의 map.rb 프로그램을작성한다.) hadoop@master:~/ruby_streaming_wordcount$ vi reduce.rb ( 위의 reduce.rb 프로그램을작성한다.) hadoop@master:~/ruby_streaming_wordcount$ chmod +x map.rb hadoop@master:~/ruby_streaming_wordcount$ chmod +x reduce.rb 16

18 아래과정은입력데이터디렉토리 hdfs_wordcount_input_streaming 을인어서워드카운트를 맵리듀스로실행하고결과를 hdfs_wordcount_output_streaming 디렉토리에저장하는과정이다. Streaming 기반맵리듀스프로그램실행명령어 hadoop jar </mnt/hadoop/contrib/streaming/hadoop-streaming jar> - file <Map Executable 파읷경로및파읷이름 > -mapper <Map Executable 파읷이름 > - file <Reduce Executable 파읷경로및파읷이름 > -reducer <Reduce Executable 파읷이름 > -input < 입력데이터디렉토리 (HDFS 상의디렉토리 )> -output < 출력데이터디렉토리 (HDFS 상의디렉토리 )> hadoop@master:~$ /mnt/hadoop/bin/hadoop jar /mnt/hadoop/contrib/streaming/hadoop-streaming jar -file /home/hadoop/ruby_streaming_wordcount/map.rb -mapper map.rb -file /home/hadoop/ruby_streaming_wordcount/reduce.rb -reducer reduce.rb -input hdfs_wordcount_input_streaming -output hdfs_wordcount_output_streaming packagejobjar: [/home/hadoop/ruby_streaming_wordcount/map.rb, /home/hadoop/ruby_streaming_wordcount/reduce.rb, /tmp/hadoop-hadoop/hadoop-unjar /] [] /tmp/streamjob jar tmpdir=null 12/09/05 22:59:58 INFO util.nativecodeloader: Loaded the native-hadoop library 12/09/05 22:59:58 WARN snappy.loadsnappy: Snappy native library not loaded 12/09/05 22:59:58 INFO mapred.fileinputformat: Total input paths to process : 16 12/09/05 22:59:58 INFO streaming.streamjob: getlocaldirs(): [/tmp/hadoop-hadoop/mapred/local] 12/09/05 22:59:58 INFO streaming.streamjob: Running job: job_ _ /09/05 22:59:58 INFO streaming.streamjob: To kill this job, run: 12/09/05 22:59:58 INFO streaming.streamjob: /mnt/hadoop/libexec/../bin/hadoop job -Dmapred.job.tracker=master:9001 -kill job_ _ /09/05 22:59:58 INFO streaming.streamjob: Tracking URL: 12/09/05 22:59:59 INFO streaming.streamjob: map 0% reduce 0% 12/09/05 23:00:17 INFO streaming.streamjob: map 25% reduce 0% 12/09/05 23:00:26 INFO streaming.streamjob: map 50% reduce 0% 12/09/05 23:00:29 INFO streaming.streamjob: map 50% reduce 17% 12/09/05 23:00:35 INFO streaming.streamjob: map 75% reduce 17% 12/09/05 23:00:44 INFO streaming.streamjob: map 100% reduce 17% 12/09/05 23:00:47 INFO streaming.streamjob: map 100% reduce 25% 12/09/05 23:00:56 INFO streaming.streamjob: map 100% reduce 100% 12/09/05 23:01:02 INFO streaming.streamjob: Job complete: job_ _ /09/05 23:01:02 INFO streaming.streamjob: Output: hdfs_wordcount_output_streaming 성공적으로맵리듀스실행이되었다. 워드카운트 Streaming 결과를확읶해보자. 워드카운트 Streaming 결과확읶 위에서맵리듀스결과를저장한 HDFS 디렉토리읶 hdfs_wordcount_output_streaming 의내용을 아래와같이살펴보면다음과같다. 17

19 HDFS 파읷내용인기명령어 $hadoop fs cat < 인을파읷이름 (HDFS 상의파읷 )> /mnt/hadoop/bin/hadoop fs -cat hdfs_wordcount_output_streaming/* configure 1 (maximum-system-jobs 2 refresh 2 When 1 value. 2 includes 1 mapred.capacity-scheduler.queue.<queue-name>.property-name. 1 #Default 1 <description>must 2 #namenode.sink.ganglia.servers=yourgangliahost_1:8649,yourgangliahost_2: log4j.appender.drfa.layout=org.apache.log4j.patternlayout 1 version="1.0"> 1 related 1 list 27 <value>5000</value> 1 %c{2}: 2 So 1 <value>3000</value> 1 submission, 1 "*" 10 log4j.appender.tla.layout.conversionpattern=%d{iso8601} 1 default 9 where 2 <name>ssl.client.truststore.location</name> 1 policy 1 <name>mapred.capacity-scheduler.default-supports-priority</name> 1 </table> 1 log4j.appender.tla.taskid=${hadoop.tasklog.taskid} 1 stored. 2 determine 3 allocations 1 task 1 this 19 <name>security.job.submission.protocol.acl</name> 1 nodes 2 TaskLog 1 Where 1 former 1 Sends 1 time 3 Each 1 <name>security.task.umbilical.protocol.acl</name> 1 <name>mapred.job.tracker</name> 1 18

20 configured 3 match="configuration"> 1 initialize 2.. 중략 워드카운트 Streaming 결과출력데이터로저장하기 워드카운트 Streaming 최종결과를 HDFS 에서가져오는예제를살펴보자. HDFS 파읷가져오기명령어 $hadoop fs get < 최종결과저장디렉토리 (HDFS 상의디렉토리 )> < 사용자정의최종결과저장 디렉토리 (Master 노드상의디렉토리 )> hadoop@master:~$ /mnt/hadoop/bin/hadoop fs -get hdfs_wordcount_output_streaming /home/hadoop/wordcount_output_streaming hadoop@master:~$ ls -al /home/hadoop/wordcount_output_streaming total 28 drwxr-xr-x 3 hadoop hadoop :12. drwxr-xr-x 13 hadoop hadoop :12.. drwxr-xr-x 3 hadoop hadoop :12 _logs -rw-r--r-- 1 hadoop hadoop :12 part rw-r--r-- 1 hadoop hadoop :12 _SUCCESS 위에서 part-r 파읷을살펴보면워드카운트 Streaming 최종결과가저장되어있다. 19

About me 현 ) 그루터 (www.gruter.com) 책임개발자 전 ) 큐릭스, NHN, 엔씨소프트 저서 ) 시작하세요! 하둡프로그래밍 : 기초부터실무

About me 현 ) 그루터 (www.gruter.com) 책임개발자 전 ) 큐릭스, NHN, 엔씨소프트   저서 ) 시작하세요! 하둡프로그래밍 : 기초부터실무 맵리듀스퍼포먼스튜닝하기 2012.11 정재화 이저작물은크리에이티브커먼즈코리아저작자표시 - 비영리 - 변경금지 2.0 대한민국라이선스에따라이용하실수있습니다. About me jhjung@gruter.com 현 ) 그루터 (www.gruter.com) 책임개발자 전 ) 큐릭스, NHN, 엔씨소프트 www.blrunner.com www.twitter.com/blrunner78

More information

PowerPoint 프레젠테이션

PowerPoint 프레젠테이션 In-memory 클러스터컴퓨팅프레임워크 Hadoop MapReduce 대비 Machine Learning 등반복작업에특화 2009년, UC Berkeley AMPLab에서 Mesos 어플리케이션으로시작 2010년 Spark 논문발표, 2012년 RDD 논문발표 2013년에 Apache 프로젝트로전환후, 2014년 Apache op-level Project

More information

6주차.key

6주차.key 6, Process concept A program in execution Program code PCB (process control block) Program counter, registers, etc. Stack Heap Data section => global variable Process in memory Process state New Running

More information

리한다. 그리고오픈소스이기때문에소규모회사및단체에서도무료로사용할수있으며디버깅, 모니터링을위한환경도제공한다. 본보고서에서는 Hadoop의설치를다루었던이전 TR [1] 에이어가상분산처리환경이아닌실제완전분산처리환경을구축하는방법에대해알아본다. 본보고서에서완전분산처리환경을구축하기

리한다. 그리고오픈소스이기때문에소규모회사및단체에서도무료로사용할수있으며디버깅, 모니터링을위한환경도제공한다. 본보고서에서는 Hadoop의설치를다루었던이전 TR [1] 에이어가상분산처리환경이아닌실제완전분산처리환경을구축하는방법에대해알아본다. 본보고서에서완전분산처리환경을구축하기 빅데이터분석을위한 Hadoop 설치및활용가이드 (II) Installation and Operation Guide of HADOOP for Big-data Analysis (II) 옥창석 부산대학교컴퓨터공학과, 그래픽스응용연구실 csock@pusan.ac.kr Abstract 본보고서에서는빅데이터분석을위한 Hadoop 설치및활용가이드 (I) [1] 에서다루었던

More information

PowerPoint 프레젠테이션

PowerPoint 프레젠테이션 Hadoop 애플리케이션 테스트하기 클라우다인대표김병곤 fharenheit@gmail.com 2 주제 Hadoop 의기본 MapReduce 의특징과테스트의어려운점 MRUnit 을이용한단위테스트기법 통합테스트를위한 Mini Cluster 성능테스트 3 V Model Requirement Acceptance Test Analysis System Test Design

More information

슬라이드 1

슬라이드 1 Hadoop Tutorial - 설치및실행 2008. 7. 17 한재선 (NexR 대표이사 ) jshan0000@gmail.com http://www.web2hub.com H.P: 016-405-5469 Brief History Hadoop 소개 2005년 Doug Cutting(Lucene & Nutch 개발자 ) 에의해시작 Nutch 오픈소스검색엔진의분산확장이슈에서출발

More information

untitled

untitled Push... 2 Push... 4 Push... 5 Push... 13 Push... 15 1 FORCS Co., LTD A Leader of Enterprise e-business Solution Push (Daemon ), Push Push Observer. Push., Observer. Session. Thread Thread. Observer ID.

More information

PowerPoint 프레젠테이션

PowerPoint 프레젠테이션 How Hadoop Works 박영택 컴퓨터학부 HDFS Basic Concepts HDFS 는 Java 로작성된파일시스템 Google 의 GFS 기반 기존파일시스템의상위에서동작 ext3, ext4 or xfs HDFS 의 file 저장방식 File 은 block 단위로분할 각 block 은기본적으로 64MB 또는 128MB 크기 데이터가로드될때여러 machine

More information

LXR 설치 및 사용법.doc

LXR 설치 및 사용법.doc Installation of LXR (Linux Cross-Reference) for Source Code Reference Code Reference LXR : 2002512( ), : 1/1 1 3 2 LXR 3 21 LXR 3 22 LXR 221 LXR 3 222 LXR 3 3 23 LXR lxrconf 4 24 241 httpdconf 6 242 htaccess

More information

Cloud Friendly System Architecture

Cloud Friendly System Architecture -Service Clients Administrator 1. -Service 구성도 : ( 좌측참고 ) LB(LoadBlancer) 2. -Service 개요 ucloud Virtual Router F/W Monitoring 개념 특징 적용가능분야 Server, WAS, DB 로구성되어 web service 를클라우드환경에서제공하기위한 service architecture

More information

PowerPoint 프레젠테이션

PowerPoint 프레젠테이션 Reasons for Poor Performance Programs 60% Design 20% System 2.5% Database 17.5% Source: ORACLE Performance Tuning 1 SMS TOOL DBA Monitoring TOOL Administration TOOL Performance Insight Backup SQL TUNING

More information

APOGEE Insight_KR_Base_3P11

APOGEE Insight_KR_Base_3P11 Technical Specification Sheet Document No. 149-332P25 September, 2010 Insight 3.11 Base Workstation 그림 1. Insight Base 메인메뉴 Insight Base Insight Insight Base, Insight Base Insight Base Insight Windows

More information

빅데이터분산컴퓨팅-5-수정

빅데이터분산컴퓨팅-5-수정 Apache Hive 빅데이터분산컴퓨팅 박영택 Apache Hive 개요 Apache Hive 는 MapReduce 기반의 High-level abstraction HiveQL은 SQL-like 언어를사용 Hadoop 클러스터에서 MapReduce 잡을생성함 Facebook 에서데이터웨어하우스를위해개발되었음 현재는오픈소스인 Apache 프로젝트 Hive 유저를위한

More information

김기남_ATDC2016_160620_[키노트].key

김기남_ATDC2016_160620_[키노트].key metatron Enterprise Big Data SKT Metatron/Big Data Big Data Big Data... metatron Ready to Enterprise Big Data Big Data Big Data Big Data?? Data Raw. CRM SCM MES TCO Data & Store & Processing Computational

More information

1217 WebTrafMon II

1217 WebTrafMon II (1/28) (2/28) (10 Mbps ) Video, Audio. (3/28) 10 ~ 15 ( : telnet, ftp ),, (4/28) UDP/TCP (5/28) centralized environment packet header information analysis network traffic data, capture presentation network

More information

슬라이드 1

슬라이드 1 / 유닉스시스템개요 / 파일 / 프로세스 01 File Descriptor file file descriptor file type unix 에서의파일은단지바이트들의나열임 operating system 은파일에어떤포맷도부과하지않음 파일의내용은바이트단위로주소를줄수있음 file descriptor 는 0 이나양수임 file 은 open 이나 creat 로 file

More information

BMP 파일 처리

BMP 파일 처리 BMP 파일처리 김성영교수 금오공과대학교 컴퓨터공학과 학습내용 영상반전프로그램제작 2 Inverting images out = 255 - in 3 /* 이프로그램은 8bit gray-scale 영상을입력으로사용하여반전한후동일포맷의영상으로저장한다. */ #include #include #define WIDTHBYTES(bytes)

More information

TTA Journal No.157_서체변경.indd

TTA Journal No.157_서체변경.indd 표준 시험인증 기술 동향 FIDO(Fast IDentity Online) 생체 인증 기술 표준화 동향 이동기 TTA 모바일응용서비스 프로젝트그룹(PG910) 의장 SK텔레콤 NIC 담당 매니저 76 l 2015 01/02 PASSWORDLESS EXPERIENCE (UAF standards) ONLINE AUTH REQUEST LOCAL DEVICE AUTH

More information

휠세미나3 ver0.4

휠세미나3 ver0.4 andromeda@sparcs:/$ ls -al dev/sda* brw-rw---- 1 root disk 8, 0 2014-06-09 18:43 dev/sda brw-rw---- 1 root disk 8, 1 2014-06-09 18:43 dev/sda1 brw-rw---- 1 root disk 8, 2 2014-06-09 18:43 dev/sda2 andromeda@sparcs:/$

More information

OPCTalk for Hitachi Ethernet 1 2. Path. DCOMwindow NT/2000 network server. Winsock update win95. . . 3 Excel CSV. Update Background Thread Client Command Queue Size Client Dynamic Scan Block Block

More information

JVM 메모리구조

JVM 메모리구조 조명이정도면괜찮조! 주제 JVM 메모리구조 설미라자료조사, 자료작성, PPT 작성, 보고서작성. 발표. 조장. 최지성자료조사, 자료작성, PPT 작성, 보고서작성. 발표. 조원 이용열자료조사, 자료작성, PPT 작성, 보고서작성. 이윤경 자료조사, 자료작성, PPT작성, 보고서작성. 이수은 자료조사, 자료작성, PPT작성, 보고서작성. 발표일 2013. 05.

More information

Remote UI Guide

Remote UI Guide Remote UI KOR Remote UI Remote UI PDF Adobe Reader/Adobe Acrobat Reader. Adobe Reader/Adobe Acrobat Reader Adobe Systems Incorporated.. Canon. Remote UI GIF Adobe Systems Incorporated Photoshop. ..........................................................

More information

untitled

untitled Memory leak Resource 力 金 3-tier 見 Out of Memory( 不 ) Memory leak( 漏 ) 狀 Application Server Crash 理 Server 狀 Crash 類 JVM 說 例 行說 說 Memory leak Resource Out of Memory Memory leak Out of Memory 不論 Java heap

More information

PowerPoint 프레젠테이션

PowerPoint 프레젠테이션 BOOTLOADER Jo, Heeseung 부트로더컴파일 부트로더소스복사및압축해제 부트로더소스는웹페이지에서다운로드 /working 디렉터리로이동한후, wget으로다운로드 이후작업은모두 /working 디렉터리에서진행 root@ubuntu:# cp /media/sm5-linux-111031/source/platform/uboot-s4210.tar.bz2 /working

More information

RUCK2015_Gruter_public

RUCK2015_Gruter_public Apache Tajo 와 R 을연동한빅데이터분석 고영경 / 그루터 ykko@gruter.com 목차 : R Tajo Tajo RJDBC Tajo Tajo UDF( ) TajoR Demo Q&A R 과빅데이터분석 ' R 1) R 2) 3) R (bigmemory, snowfall,..) 4) R (NoSQL, MapReduce, Hive / RHIPE, RHive,..)

More information

목차 BUG offline replicator 에서유효하지않은로그를읽을경우비정상종료할수있다... 3 BUG 각 partition 이서로다른 tablespace 를가지고, column type 이 CLOB 이며, 해당 table 을 truncate

목차 BUG offline replicator 에서유효하지않은로그를읽을경우비정상종료할수있다... 3 BUG 각 partition 이서로다른 tablespace 를가지고, column type 이 CLOB 이며, 해당 table 을 truncate ALTIBASE HDB 6.1.1.5.6 Patch Notes 목차 BUG-39240 offline replicator 에서유효하지않은로그를읽을경우비정상종료할수있다... 3 BUG-41443 각 partition 이서로다른 tablespace 를가지고, column type 이 CLOB 이며, 해당 table 을 truncate 한뒤, hash partition

More information

Microsoft PowerPoint - 알고리즘_5주차_1차시.pptx

Microsoft PowerPoint - 알고리즘_5주차_1차시.pptx Basic Idea of External Sorting run 1 run 2 run 3 run 4 run 5 run 6 750 records 750 records 750 records 750 records 750 records 750 records run 1 run 2 run 3 1500 records 1500 records 1500 records run 1

More information

강의10

강의10 Computer Programming gdb and awk 12 th Lecture 김현철컴퓨터공학부서울대학교 순서 C Compiler and Linker 보충 Static vs Shared Libraries ( 계속 ) gdb awk Q&A Shared vs Static Libraries ( 계속 ) Advantage of Using Libraries Reduced

More information

슬라이드 1

슬라이드 1 Hadoop 기반 규모확장성있는패킷분석도구 충남대학교데이터네트워크연구실이연희 yhlee06@cnu.ac.kr Intro 목차 인터넷트래픽측정 Apache Hadoop Hadoop 기반트래픽분석시스템 Hadoop을이용한트래픽분석예제 - 2- Intro 트래픽이란 - 3- Intro Data Explosion - 4- Global Trend: Data Explosion

More information

PowerPoint 프레젠테이션

PowerPoint 프레젠테이션 Hands-On Exercise :Using HDFS 박영택 컴퓨터학부 Virtualbox 다운로드및설치 https://www.virtualbox.org/wiki/downloads 링크에서첫페이지에있는목록중현재사용중인 OS 에맞는버전선택및다운로드 설치시기타설정변경이필요한경우변경. 별다른설정이필요하지않은경우디폴트로설치진행하여도문제없습니다. [ Virtualbox

More information

단계

단계 본문서에서는 Tibero RDBMS 에서제공하는 Oracle DB Link 를위한 gateway 설치및설정방법과 Oracle DB Link 사용법을소개한다. Contents 1. TIBERO TO ORACLE DB LINK 개요... 3 1.1. GATEWAY 란... 3 1.2. ORACLE GATEWAY... 3 1.3. GATEWAY 디렉터리구조...

More information

목 차

목      차 Oracle 9i Admim 1. Oracle RDBMS 1.1 (System Global Area:SGA) 1.1.1 (Shared Pool) 1.1.2 (Database Buffer Cache) 1.1.3 (Redo Log Buffer) 1.1.4 Java Pool Large Pool 1.2 Program Global Area (PGA) 1.3 Oracle

More information

DKE Templete

DKE Templete Apache Hadoop Study 손시운 2017. 01. 11. Department of Computer Science, Kangwon National University 빅데이터 빅데이터란? 기존의시스템에서는관리하기어려운복잡한형태의대용량데이터 또는이러한데이터를처리하기위한기술 빅데이터의정의 : 3V 크기 (Volume) 테라바이트단위의대용량데이터 다양성

More information

PowerPoint 프레젠테이션

PowerPoint 프레젠테이션 Web server porting 2 Jo, Heeseung Web 을이용한 LED 제어 Web 을이용한 LED 제어프로그램 web 에서데이터를전송받아타겟보드의 LED 를조작하는프로그램을작성하기위해다음과같은소스파일을생성 2 Web 을이용한 LED 제어 LED 제어프로그램작성 8bitled.html 파일을작성 root@ubuntu:/working/web# vi

More information

1) 인증서만들기 ssl]# cat >www.ucert.co.kr.pem // 설명 : 발급받은인증서 / 개인키파일을한파일로저장합니다. ( 저장방법 : cat [ 개인키

1) 인증서만들기 ssl]# cat   >www.ucert.co.kr.pem // 설명 : 발급받은인증서 / 개인키파일을한파일로저장합니다. ( 저장방법 : cat [ 개인키 Lighttpd ( 단일도메인 ) SSL 인증서신규설치가이드. [ 고객센터 ] 한국기업보안. 유서트기술팀 1) 인증서만들기 [root@localhost ssl]# cat www.ucert.co.kr.key www.ucert.co.kr.crt >www.ucert.co.kr.pem // 설명 : 발급받은인증서 / 개인키파일을한파일로저장합니다. ( 저장방법 : cat

More information

< 목차 > Ⅰ. 개요 3 Ⅱ. 실시간스팸차단리스트 (RBL) ( 간편설정 ) 4 1. 메일서버 (Exchange Server 2007) 설정변경 4 2. 스팸차단테스트 10

< 목차 > Ⅰ. 개요 3 Ⅱ. 실시간스팸차단리스트 (RBL) ( 간편설정 ) 4 1. 메일서버 (Exchange Server 2007) 설정변경 4 2. 스팸차단테스트 10 (https://www.kisarbl.or.kr) < 목차 > Ⅰ. 개요 3 Ⅱ. 실시간스팸차단리스트 (RBL) ( 간편설정 ) 4 1. 메일서버 (Exchange Server 2007) 설정변경 4 2. 스팸차단테스트 10 Ⅰ. 개요 실시간스팸차단리스트 (RBL) 는메일서버를운영하는누구나손쉽게효과적으로스팸수신을차단하는데이용할수있도록한국인터넷진흥원 (KISA)

More information

solution map_....

solution map_.... SOLUTION BROCHURE RELIABLE STORAGE SOLUTIONS ETERNUS FOR RELIABILITY AND AVAILABILITY PROTECT YOUR DATA AND SUPPORT BUSINESS FLEXIBILITY WITH FUJITSU STORAGE SOLUTIONS kr.fujitsu.com INDEX 1. Storage System

More information

워드표준 가이드

워드표준 가이드 ucloud HPC 사용설명서 1 개정이력 개정일자 Version 개정사유 개정내용 2012.10.31 2012.11.06 1.0 1.1 신규작성사용예제추가 사용자홖경설정추가작업실행예제추가 2 목 차 1. 실행가이드개요... 4 1.1 목적... 4 1.2 범위... 4 1.3 UCLOUD HPC 서비스요약... 5 2. PBS PROFESSIONAL 서비스실행...

More information

step 1-1

step 1-1 Written by Dr. In Ku Kim-Marshall STEP BY STEP Korean 1 through 15 Action Verbs Table of Contents Unit 1 The Korean Alphabet, hangeul Unit 2 Korean Sentences with 15 Action Verbs Introduction Review Exercises

More information

PowerChute Personal Edition v3.1.0 에이전트 사용 설명서

PowerChute Personal Edition v3.1.0 에이전트 사용 설명서 PowerChute Personal Edition v3.1.0 990-3772D-019 4/2019 Schneider Electric IT Corporation Schneider Electric IT Corporation.. Schneider Electric IT Corporation,,,.,. Schneider Electric IT Corporation..

More information

Mango-AM335x LCD Type 커널 Module Parameter에서 변경하기

Mango-AM335x LCD Type 커널 Module Parameter에서 변경하기 Mango-AM335x LCD Type 커널 Module Parameter 에서 변경하기 http://www.mangoboard.com/ http://cafe.naver.com/embeddedcrazyboys Crazy Embedded Laboratory www.mangoboard.com cafe.naver.com/embeddedcrazyboys CRZ Technology

More information

소개 TeraStation 을 구입해 주셔서 감사합니다! 이 사용 설명서는 TeraStation 구성 정보를 제공합니다. 제품은 계속 업데이트되므로, 이 설명서의 이미지 및 텍스트는 사용자가 보유 중인 TeraStation 에 표시 된 이미지 및 텍스트와 약간 다를 수

소개 TeraStation 을 구입해 주셔서 감사합니다! 이 사용 설명서는 TeraStation 구성 정보를 제공합니다. 제품은 계속 업데이트되므로, 이 설명서의 이미지 및 텍스트는 사용자가 보유 중인 TeraStation 에 표시 된 이미지 및 텍스트와 약간 다를 수 사용 설명서 TeraStation Pro II TS-HTGL/R5 패키지 내용물: 본체 (TeraStation) 이더넷 케이블 전원 케이블 TeraNavigator 설치 CD 사용 설명서 (이 설명서) 제품 보증서 www.buffalotech.com 소개 TeraStation 을 구입해 주셔서 감사합니다! 이 사용 설명서는 TeraStation 구성 정보를

More information

1) 인증서만들기 ssl]# cat >www.ucert.co.kr.pem // 설명 : 발급받은인증서 / 개인키파일을한파일로저장합니다. ( 저장방법 : cat [ 개인키

1) 인증서만들기 ssl]# cat   >www.ucert.co.kr.pem // 설명 : 발급받은인증서 / 개인키파일을한파일로저장합니다. ( 저장방법 : cat [ 개인키 Lighttpd ( 멀티도메인 ) SSL 인증서신규설치가이드. [ 고객센터 ] 한국기업보안. 유서트기술팀 1) 인증서만들기 [root@localhost ssl]# cat www.ucert.co.kr.key www.ucert.co.kr.crt >www.ucert.co.kr.pem // 설명 : 발급받은인증서 / 개인키파일을한파일로저장합니다. ( 저장방법 : cat

More information

(SW3704) Gingerbread Source Build & Working Guide

(SW3704) Gingerbread Source Build & Working Guide (Mango-M32F4) Test Guide http://www.mangoboard.com/ http://cafe.naver.com/embeddedcrazyboys Crazy Embedded Laboratory www.mangoboard.com cafe.naver.com/embeddedcrazyboys CRZ Technology 1 Document History

More information

PowerPoint Presentation

PowerPoint Presentation Server I/O utilization System I/O utilization V$FILESTAT V$DATAFILE Data files Statspack Performance tools TABLESPACE FILE_NAME PHYRDS PHYBLKRD READTIM PHYWRTS PHYBLKWRT WRITETIM ------------- -----------------------

More information

28 THE ASIAN JOURNAL OF TEX [2] ko.tex [5]

28 THE ASIAN JOURNAL OF TEX [2] ko.tex [5] The Asian Journal of TEX, Volume 3, No. 1, June 2009 Article revision 2009/5/7 KTS THE KOREAN TEX SOCIETY SINCE 2007 2008 ko.tex Installing TEX Live 2008 and ko.tex under Ubuntu Linux Kihwang Lee * kihwang.lee@ktug.or.kr

More information

MySQL-Ch10

MySQL-Ch10 10 Chapter.,,.,, MySQL. MySQL mysqld MySQL.,. MySQL. MySQL....,.,..,,.,. UNIX, MySQL. mysqladm mysqlgrp. MySQL 608 MySQL(2/e) Chapter 10 MySQL. 10.1 (,, ). UNIX MySQL, /usr/local/mysql/var, /usr/local/mysql/data,

More information

01Àå

01Àå CHAPTER 01 1 Fedora Fedora Linux Toolbox 2003 Fedora Core( ) http://fedoraproject.org www.redhat.com 2 CHAPTER Fedora RHEL GNU public license www.centos.org www.yellowdoglinux.com www. lineox.net www.

More information

Apache Ivy

Apache Ivy JBoss User Group The Agile Dependency Manager 김병곤 fharenheit@gmail.com 20100911 v1.0 소개 JBoss User Group 대표 통신사에서분산컴퓨팅기반개인화시스템구축 Process Designer ETL, Input/Output, Mining Algorithm, 통계 Apache Hadoop/Pig/HBase/Cassandra

More information

vm-웨어-앞부속

vm-웨어-앞부속 VMware vsphere 4 This document was created using the official VMware icon and diagram library. Copyright 2009 VMware, Inc. All rights reserved. This product is protected by U.S. and international copyright

More information

슬라이드 1

슬라이드 1 Pairwise Tool & Pairwise Test NuSRS 200511305 김성규 200511306 김성훈 200614164 김효석 200611124 유성배 200518036 곡진화 2 PICT Pairwise Tool - PICT Microsoft 의 Command-line 기반의 Free Software www.pairwise.org 에서다운로드후설치

More information

2017.09 Vol.255 C O N T E N T S 02 06 26 58 63 78 99 104 116 120 122 M O N T H L Y P U B L I C F I N A N C E F O R U M 2 2017.9 3 4 2017.9 6 2017.9 7 8 2017.9 13 0 13 1,007 3 1,004 (100.0) (0.0) (100.0)

More information

Sena Device Server Serial/IP TM Version

Sena Device Server Serial/IP TM Version Sena Device Server Serial/IP TM Version 1.0.0 2005. 3. 7. Release Note Revision Date Name Description V1.0.0 2005-03-7 HJ Jeon Serial/IP 4.3.2 ( ) 210 137-130, : (02) 573-5422 : (02) 573-7710 email: support@sena.com

More information

항목

항목 Cloud 컴퓨팅기반분산파일시스템개요 개발실 UPDATE : 2012. 11 18 INDEX 1. 가용성 2. 확장성 3. PrismFS 4. Q&A 2 가용성 3 Gmail 장애 2011년 2월 27일 34000명의 Gmail 사용자들이일어나보니메일, 주소록, 채팅기록등이사라진것을발견 2011년 2월 28일 스토리지소프트웨어업데이트를진행하는중 Bug로인해발생했다고공지

More information

Microsoft Word - src.doc

Microsoft Word - src.doc IPTV 서비스탐색및콘텐츠가이드 RI 시스템운용매뉴얼 목차 1. 서버설정방법... 5 1.1. 서비스탐색서버설정... 5 1.2. 컨텐츠가이드서버설정... 6 2. 서버운용방법... 7 2.1. 서비스탐색서버운용... 7 2.1.1. 서비스가이드서버실행... 7 2.1.2. 서비스가이드정보확인... 8 2.1.3. 서비스가이드정보추가... 9 2.1.4. 서비스가이드정보삭제...

More information

Microsoft PowerPoint - 알고리즘_1주차_2차시.pptx

Microsoft PowerPoint - 알고리즘_1주차_2차시.pptx Chapter 2 Secondary Storage and System Software References: 1. M. J. Folk and B. Zoellick, File Structures, Addison-Wesley. 목차 Disks Storage as a Hierarchy Buffer Management Flash Memory 영남대학교데이터베이스연구실

More information

C# Programming Guide - Types

C# Programming Guide - Types C# Programming Guide - Types 최도경 lifeisforu@wemade.com 이문서는 MSDN 의 Types 를요약하고보충한것입니다. http://msdn.microsoft.com/enus/library/ms173104(v=vs.100).aspx Types, Variables, and Values C# 은 type 에민감한언어이다. 모든

More information

PowerPoint 프레젠테이션

PowerPoint 프레젠테이션 Install the PDI on CentOS 2013.04 G L O B E P O I N T 1 Ⅰ linux 구성 II Pentaho Install 2013, Globepoint Inc. All Rights Reserved. 2 I. Linux 구성 2013, Globepoint Inc. All Rights Reserved. 3 IP 설정 1. 설정파일

More information

C 프로그래밍 언어 입문 C 프로그래밍 언어 입문 김명호저 숭실대학교 출판국 머리말..... C, C++, Java, Fortran, Python, Ruby,.. C. C 1972. 40 C.. C. 1999 C99. C99. C. C. C., kmh ssu.ac.kr.. ,. 2013 12 Contents 1장 프로그래밍 시작 1.1 C 10 1.2 12

More information

본문서는 초급자들을 대상으로 최대한 쉽게 작성하였습니다. 본문서에서는 설치방법만 기술했으며 자세한 설정방법은 검색을 통하시기 바랍니다. 1. 설치개요 워드프레스는 블로그 형태의 홈페이지를 빠르게 만들수 있게 해 주는 프로그램입니다. 다양한 기능을 하는 플러그인과 디자인

본문서는 초급자들을 대상으로 최대한 쉽게 작성하였습니다. 본문서에서는 설치방법만 기술했으며 자세한 설정방법은 검색을 통하시기 바랍니다. 1. 설치개요 워드프레스는 블로그 형태의 홈페이지를 빠르게 만들수 있게 해 주는 프로그램입니다. 다양한 기능을 하는 플러그인과 디자인 스마일서브 CLOUD_Virtual 워드프레스 설치 (WORDPRESS INSTALL) 스마일서브 가상화사업본부 Update. 2012. 09. 04. 본문서는 초급자들을 대상으로 최대한 쉽게 작성하였습니다. 본문서에서는 설치방법만 기술했으며 자세한 설정방법은 검색을 통하시기 바랍니다. 1. 설치개요 워드프레스는 블로그 형태의 홈페이지를 빠르게 만들수 있게

More information

Solaris Express Developer Edition

Solaris Express Developer Edition Solaris Express Developer Edition : 2008 1 Solaris TM Express Developer Edition Solaris OS. Sun / Solaris, Java, Web 2.0,,. Developer Solaris Express Developer Edition System Requirements. 768MB. SPARC

More information

Chap06(Interprocess Communication).PDF

Chap06(Interprocess Communication).PDF Interprocess Communication 2002 2 Hyun-Ju Park Introduction (interprocess communication; IPC) IPC data transfer sharing data event notification resource sharing process control Interprocess Communication

More information

Microsoft PowerPoint - Freebairn, John_ppt

Microsoft PowerPoint - Freebairn, John_ppt Tax Mix Change John Freebairn Outline General idea of a tax mix change Some detailed policy options Importance of casting assessment in the context of a small open economy Economic effects of a tax mix

More information

본교재는수업용으로제작된게시물입니다. 영리목적으로사용할경우저작권법제 30 조항에의거법적처벌을받을수있습니다. [ 실습 ] 스위치장비초기화 1. NVRAM 에저장되어있는 'startup-config' 파일이있다면, 삭제를실시한다. SWx>enable SWx#erase sta

본교재는수업용으로제작된게시물입니다. 영리목적으로사용할경우저작권법제 30 조항에의거법적처벌을받을수있습니다. [ 실습 ] 스위치장비초기화 1. NVRAM 에저장되어있는 'startup-config' 파일이있다면, 삭제를실시한다. SWx>enable SWx#erase sta [ 실습 ] 스위치장비초기화 1. NVRAM 에저장되어있는 'startup-config' 파일이있다면, 삭제를실시한다. SWx>enable SWx#erase startup-config Erasing the nvram filesystem will remove all configuration files Continue? [confirm] ( 엔터 ) [OK] Erase

More information

시스코 무선랜 설치운영 매뉴얼(AP1200s_v1.1)

시스코 무선랜 설치운영 매뉴얼(AP1200s_v1.1) [ Version 1.3 ] Access Point,. Access Point IP 10.0.0.1, Subnet Mask 255.255.255.224, DHCP Client. DHCP Server IP IP,, IP 10.0.0.X. (Tip: Auto Sensing Straight, Cross-over.) step 1]. step 2] LAN. step

More information

chap 5: Trees

chap 5: Trees 5. Threaded Binary Tree 기본개념 n 개의노드를갖는이진트리에는 2n 개의링크가존재 2n 개의링크중에 n + 1 개의링크값은 null Null 링크를다른노드에대한포인터로대체 Threads Thread 의이용 ptr left_child = NULL 일경우, ptr left_child 를 ptr 의 inorder predecessor 를가리키도록변경

More information

Microsoft PowerPoint - 06-IPAddress [호환 모드]

Microsoft PowerPoint - 06-IPAddress [호환 모드] Chapter 06 IP Address IP Address Internet address IP 계층에서사용되는식별자 32 bit 2 진주소 The address space of IPv4 is 2 32 or 4,294,967,296 netid 와 hostid 로구분 인터넷에서호스트와라우터를유일하게구분 IP Address Structure 2-Layer Hierarchical

More information

DE1-SoC Board

DE1-SoC Board 실습 1 개발환경 DE1-SoC Board Design Tools - Installation Download & Install Quartus Prime Lite Edition http://www.altera.com/ Quartus Prime (includes Nios II EDS) Nios II Embedded Design Suite (EDS) is automatically

More information

Open Cloud Engine Open Source Big Data Platform Flamingo Project Open Cloud Engine Flamingo Project Leader 김병곤

Open Cloud Engine Open Source Big Data Platform Flamingo Project Open Cloud Engine Flamingo Project Leader 김병곤 Open Cloud Engine Open Source Big Data Platform Flamingo Project Open Cloud Engine Flamingo Project Leader 김병곤 (byounggon.kim@opence.org) 빅데이터분석및서비스플랫폼 모바일 Browser 인포메이션카탈로그 Search 인포메이션유형 보안등급 생성주기 형식

More information

[ 2014 Capstone Design2 ] 지도교수 Twitter 분석시스템 < 졸업작품계획서 > 컴퓨터공학부 지도교수 민덕기교수님 T 박미관 김의명 제출일자

[ 2014 Capstone Design2 ] 지도교수 Twitter 분석시스템 < 졸업작품계획서 > 컴퓨터공학부 지도교수 민덕기교수님 T 박미관 김의명 제출일자 [ 2014 Capstone Design2 ] 지도교수 Twitter 분석시스템 < 졸업작품계획서 > 컴퓨터공학부 지도교수 민덕기교수님 T22 200911388 박미관 200911378 김의명 제출일자 2014.06.12-1 - 목 차 1. 프로젝트개요 3 1) 개발동기 2) 개발목표 3) 시장현황 4) 기술동향 3 3 4 5 2. 팀구성및소개 10 1) 담당자

More information

Coriolis.hwp

Coriolis.hwp MCM Series 주요특징 MaxiFlo TM (맥시플로) 코리올리스 (Coriolis) 질량유량계 MCM 시리즈는 최고의 정밀도를 자랑하며 슬러리를 포함한 액체, 혼합 액체등의 질량 유량, 밀도, 온도, 보정된 부피 유량을 측정할 수 있는 질량 유량계 이다. 단일 액체 또는 2가지 혼합액체를 측정할 수 있으며, 강한 노이즈 에도 견디는 면역성, 높은 정밀도,

More information

HDFS 맵리듀스

HDFS 맵리듀스 맵리듀스 하둡실행 HDFS 맵리듀스 HDFS 작동방식 FileInputFormat subclass 를이용 Hadoop 은자동으로 HDFS 내의파일경로로부터데이터를입력 블록지역성을최대한활용하는방식 작업을클러스터에배분한다. JAVA 기반 HDFS1 hello.txt 라는이름의파일을생성 메시지를기록한 기록된파일읽어 화면에출력 해당파일이이미존재하는경우삭제한후작업 1:

More information

PowerPoint 프레젠테이션

PowerPoint 프레젠테이션 Flamingo Big Data Performance Management Product Documentation It s the Best Big Data Performance Management Solution. Maximize Your Hadoop Cluster with Flamingo. Monitoring, Analyzing, and Visualizing.

More information

The Self-Managing Database : Automatic Health Monitoring and Alerting

The Self-Managing Database : Automatic Health Monitoring and Alerting The Self-Managing Database : Automatic Health Monitoring and Alerting Agenda Oracle 10g Enterpirse Manager Oracle 10g 3 rd Party PL/SQL API Summary (Self-Managing Database) ? 6% 6% 12% 55% 6% Source: IOUG

More information

<30322D28C6AF29C0CCB1E2B4EB35362D312E687770>

<30322D28C6AF29C0CCB1E2B4EB35362D312E687770> 한국학연구 56(2016.3.30), pp.33-63. 고려대학교 한국학연구소 세종시의 지역 정체성과 세종의 인문정신 * 1)이기대 ** 국문초록 세종시의 상황은 세종이 왕이 되면서 겪어야 했던 과정과 닮아 있다. 왕이 되리라 예상할 수 없었던 상황에서 세종은 왕이 되었고 어려움을 극복해 갔다. 세종시도 갑작스럽게 행정도시로 계획되었고 준비의 시간 또한 짧았지만,

More information

<C0CCBCBCBFB52DC1A4B4EBBFF82DBCAEBBE7B3EDB9AE2D313939392D382E687770>

<C0CCBCBCBFB52DC1A4B4EBBFF82DBCAEBBE7B3EDB9AE2D313939392D382E687770> i ii iii iv v vi 1 2 3 4 가상대학 시스템의 국내외 현황 조사 가상대학 플랫폼 개발 이상적인 가상대학시스템의 미래상 제안 5 웹-기반 가상대학 시스템 전통적인 교수 방법 시간/공간 제약을 극복한 학습동기 부여 교수의 일방적인 내용전달 교수와 학생간의 상호작용 동료 학생들 간의 상호작용 가상대학 운영 공지사항,강의록 자료실, 메모 질의응답,

More information

PowerPoint 프레젠테이션

PowerPoint 프레젠테이션 공개 SW 솔루션설치 & 활용가이드 미들웨어 > 분산시스템 SW 제대로배워보자 How to Use Open Source Software Open Source Software Installation & Application Guide CONTENTS 1. 개요 2. 기능요약 3. 실행환경 4. 설치및실행 5. 기능소개 6. 활용예제 7. FAQ 8. 용어정리

More information

Analytics > Log & Crash Search > Unity ios SDK [Deprecated] Log & Crash Unity ios SDK. TOAST SDK. Log & Crash Unity SDK Log & Crash Search. Log & Cras

Analytics > Log & Crash Search > Unity ios SDK [Deprecated] Log & Crash Unity ios SDK. TOAST SDK. Log & Crash Unity SDK Log & Crash Search. Log & Cras Analytics > Log & Crash Search > Unity ios SDK [Deprecated] Log & Crash Unity ios SDK. TOAST SDK. Log & Crash Unity SDK Log & Crash Search. Log & Crash Unity SDK... Log & Crash Search. - Unity3D v4.0 ios

More information

The Pocket Guide to TCP/IP Sockets: C Version

The Pocket Guide to  TCP/IP Sockets: C Version 인터넷프로토콜 5 장 데이터송수신 (3) 1 파일전송메시지구성예제 ( 고정크기메시지 ) 전송방식 : 고정크기 ( 바이너리전송 ) 필요한전송정보 파일이름 ( 최대 255 자 => 255byte 의메모리공간필요 ) 파일크기 (4byte 의경우최대 4GB 크기의파일처리가능 ) 파일내용 ( 가변길이, 0~4GB 크기 ) 메시지구성 FileName (255bytes)

More information

1. efolder 시스템구성 A. DB B. apache - mod-perl - PHP C. SphinxSearch ( 검색서비스 ) D. File Storage 2. efolder 설치순서 A. DB (MySQL) B. efolder Service - efolder

1. efolder 시스템구성 A. DB B. apache - mod-perl - PHP C. SphinxSearch ( 검색서비스 ) D. File Storage 2. efolder 설치순서 A. DB (MySQL) B. efolder Service - efolder Embian efolder 설치가이드 efolder 시스템구성 efolder 설치순서 Installation commands 1. efolder 시스템구성 A. DB B. apache - mod-perl - PHP C. SphinxSearch ( 검색서비스 ) D. File Storage 2. efolder 설치순서 A. DB (MySQL) B. efolder

More information

Linux Server - FTP Good Internet 소 속 IDC실 이 름 정명구매니저

Linux Server - FTP Good Internet 소 속 IDC실 이 름 정명구매니저 Linux Server - FTP - Copyright @ 2012 Good Internet 소 속 IDC실 이 름 정명구매니저 E-mail tech@tongkni.co.kr - 1 - INDEX 1. 개요... 3 2. vsftp 설치및설정.... 4 2.1 vsftpd 설치하기.... 4 2.2 환경설정파읷 - vsftpd.conf 설정하기.... 5 2.3

More information

PowerPoint 프레젠테이션

PowerPoint 프레젠테이션 Chapter 05. 파일접근권한관리하기 00. 개요 01. 파일의속성 02. 파일의접근권한 03. 기호를이용한파일접근권한변경 04. 숫자를이용한파일접근권한변경 05. 기본접근권한설정 06. 특수접근권한 파일의속성을이해하고설명할수있다. 접근권한의종류와표기방법을이해하고설명할수있다. 접근권한을바꾸기위해기호모드에서원하는권한을기호로표기할수있다. 접근권한을바꾸기위해숫자모드에서원하는권한을숫자로표기할수있다.

More information

빅데이터_DAY key

빅데이터_DAY key Big Data Near You 2016. 06. 16 Prof. Sehyug Kwon Dept. of Statistics 4V s of Big Data Volume Variety Velocity Veracity Value 대용량 다양한 유형 실시간 정보 (불)확실성 가치 tera(1,0004) - peta -exazetta(10007) bytes in 2020

More information

chapter1,2.doc

chapter1,2.doc JavaServer Pages Version 08-alpha copyright2001 B l u e N o t e all rights reserved http://jspboolpaecom vesion08-alpha, UML (?) part1part2 Part1 part2 part1 JSP Chapter2 ( ) Part 1 chapter 1 JavaServer

More information

PowerPoint 프레젠테이션

PowerPoint 프레젠테이션 빅데이터분석활용센터 분석활용인프라매뉴얼 목 차 1 분석활용인프라 1. 개요 1.1 개요 1 2. 메뉴구조도 2.1 메뉴구조도 2 3.1 플라밍고로그인 3 3.2 데스크탑화면 8 3.3 대시보드 9 3.4 워크플로우디자이너 13 3.5 파일시스템브라우저 27 3.6 Apache Hive 편집기 42 3.7 Apache Pig 편집기 48 3.8 BI Matrix

More information

Chapter 4. LISTS

Chapter 4. LISTS 6. 동치관계 (Equivalence Relations) 동치관계 reflexive, symmetric, transitive 성질을만족 "equal to"(=) 관계는동치관계임. x = x x = y 이면 y = x x = y 이고 y = z 이면 x = z 동치관계를이용하여집합 S 를 동치클래스 로분할 동일한클래스내의원소 x, y 에대해서는 x y 관계성립

More information

PowerPoint 프레젠테이션

PowerPoint 프레젠테이션 (Host) set up : Linux Backend RS-232, Ethernet, parallel(jtag) Host terminal Target terminal : monitor (Minicom) JTAG Cross compiler Boot loader Pentium Redhat 9.0 Serial port Serial cross cable Ethernet

More information

제20회_해킹방지워크샵_(이재석)

제20회_해킹방지워크샵_(이재석) IoT DDoS DNS (jaeseog@sherpain.net) (www.sherpain.net) DDoS DNS DDoS / DDoS(Distributed DoS)? B Asia Broadband B Bots connect to a C&C to create an overlay network (botnet) C&C Provider JP Corp. Bye Bye!

More information

, ( ) 1) *.. I. (batch). (production planning). (downstream stage) (stockout).... (endangered). (utilization). *

, ( ) 1) *.. I. (batch). (production planning). (downstream stage) (stockout).... (endangered). (utilization). * , 40 12 (2006 6) 1) *.. I. (batch). (production planning). (downstream stage) (stockout).... (endangered). (utilization). * 40, 40 12 (EPQ; economic production quantity). (setup cost) (setup time) Bradley

More information

Secure Programming Lecture1 : Introduction

Secure Programming Lecture1 : Introduction Malware and Vulnerability Analysis Lecture3-2 Malware Analysis #3-2 Agenda 안드로이드악성코드분석 악성코드분석 안드로이드악성코드정적분석 APK 추출 #1 adb 명령 안드로이드에설치된패키지리스트추출 adb shell pm list packages v0nui-macbook-pro-2:lecture3 v0n$

More information

PowerPoint 프레젠테이션

PowerPoint 프레젠테이션 Deep Learning 작업환경조성 & 사용법 ISL 안재원 Ubuntu 설치 작업환경조성 접속방법 사용예시 2 - ISO file Download www.ubuntu.com Ubuntu 설치 3 - Make Booting USB Ubuntu 설치 http://www.pendrivelinux.com/universal-usb-installer-easy-as-1-2-3/

More information

/chroot/lib/ /chroot/etc/

/chroot/lib/ /chroot/etc/ 구축 환경 VirtualBox - Fedora 15 (kernel : 2.6.40.4-5.fc15.i686.PAE) 작동 원리 chroot유저 ssh 접속 -> 접속유저의 홈디렉토리 밑.ssh의 rc 파일 실행 -> daemonstart실행 -> daemon 작동 -> 접속 유저만의 Jail 디렉토리 생성 -> 접속 유저의.bashrc 의 chroot 명령어

More information

10주차.key

10주차.key 10, Process synchronization (concurrently) ( ) => critical section ( ) / =>, A, B / Race condition int counter; Process A { counter++; } Process B { counter ;.. } counter++ register1 = counter register1

More information

Interstage5 SOAP서비스 설정 가이드

Interstage5 SOAP서비스 설정 가이드 Interstage 5 Application Server ( Solaris ) SOAP Service Internet Sample Test SOAP Server Application SOAP Client Application CORBA/SOAP Server Gateway CORBA/SOAP Gateway Client INTERSTAGE SOAP Service

More information

품질검증분야 Stack 통합 Test 결과보고서 [ The Bug Genie ]

품질검증분야 Stack 통합 Test 결과보고서 [ The Bug Genie ] 품질검증분야 Stack 통합 Test 결과보고서 [ The Bug Genie ] 2014. 10. 목 차 I. Stack 통합테스트개요 1 1. 목적 1 II. 테스트대상소개 2 1. The Bug Genie 소개 2 2. The Bug Genie 주요기능 3 3. The Bug Genie 시스템요구사항및주의사항 5 III. Stack 통합테스트 7 1. 테스트환경

More information

DKE Templete

DKE Templete Apache Spark 첫걸음 조원형 * 김영국 Department of Computer Science, Kangwon National University Apache Spark 란? Apache Spark 빅데이터처리를위한범용적이며빠른분산처리엔진 하둡 (Apache Hadoop) 기반의맵리듀스 (MapReduce) 작업의단점을보완하기위해연구가시작됨 2009

More information

T100MD+

T100MD+ User s Manual 100% ) ( x b a a + 1 RX+ TX+ DTR GND TX+ RX+ DTR GND RX+ TX+ DTR GND DSR RX+ TX+ DTR GND DSR [ DCE TYPE ] [ DCE TYPE ] RS232 Format Baud 1 T100MD+

More information

0125_ 워크샵 발표자료_완성.key

0125_ 워크샵 발표자료_완성.key WordPress is a free and open-source content management system (CMS) based on PHP and MySQL. WordPress is installed on a web server, which either is part of an Internet hosting service or is a network host

More information

歯1.PDF

歯1.PDF 200176 .,.,.,. 5... 1/2. /. / 2. . 293.33 (54.32%), 65.54(12.13%), / 53.80(9.96%), 25.60(4.74%), 5.22(0.97%). / 3 S (1997)14.59% (1971) 10%, (1977).5%~11.5%, (1986)

More information