Overview Decision Tree Director of TEAMLAB Sungchul Choi
|
|
- 창훈 낭
- 5 years ago
- Views:
Transcription
1 Overview Decision Tree Director of TEAMLAB Sungchul Choi
2 머신러닝의학습방법들 - Gradient descent based learning - Probability theory based learning - Information theory based learning - Distance similarity based learning
3 Overview - Akinator 스무고개로유명인, 캐릭터를맞추는게임
4 Overview
5 Decision Tree Classifier - Data 를가장잘구분할수있는 Tree 를구성함
6 Guess who 남자긴머리안경이름 예아니오예브라이언 예아니오아니오존 아니오예아니오에이프라 아니오아니오아니오아이오페
7 Guess who 안경을쓰고있는가? 남자인가 브라이언 남자인가 안경을쓰고있는가? 머리가긴가 존 머리가긴가 존브라이언에이프라아오이페 에이프라 아오이페
8
9
10 Decision Tree 만들기 - 어떤질문이가장많은해답을줄것인가? - 결국어떤질문은답의모호성을줄여줄것인가? - 문제를통해서 splitting point을설정 è 남은정보로 splitting point를설정하는식
11 Guess who 안경을쓰고있는가? 남자긴머리안경이름 예아니오예브라이언 예아니오아니오존 브라이언 남자인가 아니오예아니오에이프라 아니오아니오아니오아이오페 존 머리가긴가 에이프라 아오이페
12 Human knowledge belongs to the world.
13 Information theory - Entropy Decision Tree Director of TEAMLAB Sungchul Choi
14 Entropy - Entropy는목적달성을위한경우의수를정량적으로표현하는수치 è 작을수록경우의수가적음 - Higher Entropy à Higher uncertainty - Lower Entropy à Lower uncertainty Entropy 가작으면얻을수있는정보가많다.
15 Entropy h(d) = m P i=1 p i log 2 (p i ) where ( D p i Data set Probability of label i log 2 p(i) log 2 p(i) p(i) p(i)
16 Entropy h(d) = m P i=1 p i log 2 (p i ) where ( D p i Data set Probability of label i - 확률이 1 이면 Entropy 0 log 2 p(i) - 확률이작을수록커짐 p(i)
17 Entropy - Example
18 h(d) = mx i=1 h(d) = 9 14 log 2 =0.940bits p i log 2 (p i ) log
19 Human knowledge belongs to the world.
20 Algorithms of Decision Tree Decision Tree Director of TEAMLAB Sungchul Choi
21 Growing a Decision Tree - Decision Tree 를성장 ( 만드는 ) 시키는알고리즘이필요 - 어떻게하면가장잘분기 (branch) 를만들수있는가? - Data의 attribute 를기준으로분기를생성 - 어떤 attribute 를기준이면가장 entropy 가작은가? - 하나를자른후에그다음은어떻게할것인가?
22 Growing a Decision Tree
23 Growing a Decision Tree youth Age senior Middle_aged
24 Growing a Decision Tree youth Student Age Middle_aged buy senior yes no
25 Growing a Decision Tree youth Student Age Middle_aged buy senior Credit yes no fair excellent buy NOT
26 Growing a Decision Tree youth Student Age Middle_aged buy senior Credit yes no fair excellent buy NOT buy NOT
27 Growing a Decision Tree - Decision Tree 는재귀적으로생김 - 대상라벨에대해어떤 Attribute 가더확실한정보를제공하고있는가? 로 branch attribute를선택 - 확실한정보의선택기준은알고리즘별로차이가남 - Tree 생성후 pruning 을통해 Tree generalization 시행 - 일반적으로효율을위해 Binary Tree 를사용
28 Decision Tree 의특징 - 비교적간단하고직관적으로결과를표현 - 훈련시간이길고, 메모리공간을많이사용함 - Top-down, Recursive, Divide and Conquer 기법 - Greedy 알고리즘 -> 부분최적화
29 Decision Tree 의장점 - 트리의상단부분 attribute들이가장중요한예측변수 è attribute 선택기법으로도활용할수있음 - Attribute 의 scaling이필요없음 - 관측치의절대값이아닌순서가중요 à Outlier 에이점 - 자동적변수부분선택 ç Tree pruning
30 Algorithms of Decision Tree - 크게두가지형태의 decision tree 알고리즘존재 - 알고리즘별 attribute branch 방법이다름 - ID3 à C4.5(Ross Quinlan), CART - 연속형변수를위한 regression tree도존재
31 Human knowledge belongs to the world.
32 ID3 & Information Gain Decision Tree Director of TEAMLAB Sungchul Choi
33 Information Gain - Entropy 함수를도입하여 branch splitting - Information Gain: Entropy를사용하여속성별분류시 Impurity 를측정하는지표 - ( 전체 Entropy 속성별 Entropy ) 로속성별 Information Gain을계산함
34 Info(D) = nx i=1 Information Gain p i log 2 (p i ) 전체데이터 D 의정보량 Info A (D) = vx j=1 D j D Info(D j) 속성 A 로분류시정보량 Gain(A) =Info(D) Info A (D) A 속성의정보소득
35 ID3 Process
36 Growing a Decision Tree
37 Growing a Decision Tree Age Gain(age) =Info(D) Info a ge(d) Credit Gain(credit) =Info(D) Info credit (D) Income Gain(Income)=Info(D) Info Income (D) Student Gain(Studnet)=Info(D) Info Student (D)
38 Growing a Decision Tree Age Gain(age) =Info(D) Info a ge(d) Info age (D) = vx j=1 D j D Info(D j) j 3 {youth, moddle age, senior}
39 Growing a Decision Tree Age Gain(age) =Info(D) Info a ge(d) Info age (D) = vx j=1 Info age (D) = log log log 2 D j D Info(D j) log log 2 2 5
40 Growing a Decision Tree Age Gain(age) =Info(D) Info a ge(d) Info(D) = 9 14 log log Gain(age) =Info(D) Info a ge(d)
41 Growing a Decision Tree Age Gain(age) =Info(D) Info a ge(d) Info(D) = log log 2 14
42 Growing a Decision Tree Age Gain(age) =Info(D) Info a ge(d) j 3 {youth, moddle age, senior} Info age (D) = vx j=1 D j D Info(D j)
43 Growing a Decision Tree Age Gain(age) =Info(D) Info a ge(d)
44 Growing a Decision Tree Age Credit Gain(age) =Info(D) Info a ge(d) Income Gain(credit) =Info(D) Info credit (D) Student Gain(Income)=Info(D) Info Income (D) Gain(Studnet)=Info(D) Info Student (D)
45 Growing a Decision Tree youth Age Middle_aged buy senior
46 Growing a Decision Tree Income Student Gain(Income)=Info(D youth ) Info Income (D youth ) Gain(Student)=Info(D youth ) Info Student (D youth ) Credit Gain(credit) =Info(D youth ) Info credit (D youth )
47 Growing a Decision Tree youth Student Age Middle_aged buy senior Credit yes no fair excellent buy NOT
48 Human knowledge belongs to the world.
49 C4.5 & Gini Index Decision Tree Director of TEAMLAB Sungchul Choi
50 Information Gain 의문제점 - Attribute 에포함된값이다양할수록선택하고자함 Gain(A) =Info(D) Info A (D) Info A (D) = vx j=1 D j D Info(D j) Info(D) = nx i=1 p i log 2 (p i ) - 한 Attribute 가모두다른값을가질때? 보완을해줄다른 Measure 가필요
51 Gain Ratio - ID3 의발전형인 C4.5 알고리즘에서사용되는 measure - Info(D) 의값을평준화시켜분할정보값을대신사용 SplitInfo A (D) = GainRatio(A) = vx j=1 D j D D j log 2 D log 2 p(i) Gain(A) SplitInfo A (D) = Info(D) Info a(d) SplitInfo A (D) p(i)
52 Gini Index - CART 알고리즘의 split measure - 훈련튜플세트를파티션으로나누었때불순한정도측정 Gini(D) =1 mx i=1 p 2 i =1 mx i=1 C i,d D where C i is a class - 데이터의대상속성을얼마나잘못분류할지를계산
53 Gini Index - 실제 Gini Index 는 Entropy 와비슷한그래프가그려짐 일때 Impurity 의최대화, 약극점에서 0 Gini(D) = mx p i (1 p i )=1 mx p 2 i i=1 i=1
54 Binary Split - CART 알고리즘은 Binary Split 을전제로분석함 - k 가속성내데이터분류의개수일때 2 k$1 1 개만큼의 Split 생성 k = =3 Gini A (D) = D 1 D Gini(D 1)+ D 2 D Gini(D 2) - 가장 Gini 값이적은분류를선택
55 Growing a Decision Tree
56 Growing a CART Decision Tree Age Gini age (D) Credit Gini credit (D) Income Gini income (D) Student Gini student (D)
57 Growing a CART Decision Tree Age Gini age (D) age 2 {youth, middle age, senior} age 1 2 {youth} = {middle age, senior} age 2 2 {middle age} = {youth, senior} age 3 2 {senior} = {youth, middle age} 세가지경우의모든 Gini Index 산출
58 Growing a CART Decision Tree Age Gini age (D) age 2 {youth, middle age, senior} Gini A (D) = D 1 D Gini(D 1)+ D 2 D Gini(D 2) Gini age1 (D) = 5 14 Gini(D 1) Gini(D 2) Gini(D 1 )=1 Gini(D 2 )=
59 Growing a CART Decision Tree Age Gini age (D) age 2 {youth, middle age, senior} age 1 2 {youth} = {middle age, senior} age 2 2 {middle age} = {youth, senior} age 3 2 {senior} = {youth, middle age} Min(Gini agei )=0.357
60 Growing a CART Decision Tree Min(Gini agei )=0.357 Min(Gini incomei )=0.443 Min(Gini credit )=0.429 Min(Gini student )=0.367
61 CODE Gini(D) =1 mx i=1 p 2 i =1 mx i=1 C i,d D
62 CODE
63 CODE Gini A (D) = D 1 D Gini(D 1)+ D 2 D Gini(D 2)
64 Human knowledge belongs to the world.
65 Tree prunning Decision Tree Director of TEAMLAB Sungchul Choi
66 Decision Tree 를만들다생기는문제점 - class의 leaf node 의결정 - 너무많을경우 à Overfitting - impurity 또는 variance 는낮은데, 노드에데이터가 1개 - 어떤시점에서트리가지치기해야할지결정이중요
67 Pre-pruning - Tree 를생성할때, 일정기준이하면노드생성 X è 하위노드개수, 하위노드의 label 비율 ( 한쪽이 95?) - Threshold를잡아줘야하는어려움, CHAID 등사용 - 계산효율이좋고, 작은데이터셋에서잘작동 - 속성을놓칠수있음, underfitting 가능성이높음
68 Post-pruning - Tree 를생성한후, 트리의오차율최소화를위해실행 - 오분류율최소화, cost complexity 최소화등을사용 - 검증을위한 validation set 을따로생성함
69 오분류율최소화 - 아래와같은검증데이터가있을경우
70 오분류율최소화
71 오분류율최소화
72 Human knowledge belongs to the world.
Probability Overview Naive Bayes Classifier Director of TEAMLAB Sungchul Choi
Probability Overview Naive Bayes Classifier Director of TEAMLAB Sungchul Choi 머신러닝의학습방법들 - Gradient descent based learning - Probability theory based learning - Information theory based learning - Distance
More informationadfasdfasfdasfasfadf
C 4.5 Source code Pt.3 ISL / 강한솔 2019-04-10 Index Tree structure Build.h Tree.h St-thresh.h 2 Tree structure *Concpets : Node, Branch, Leaf, Subtree, Attribute, Attribute Value, Class Play, Don't Play.
More informationOverview Ensemble Model Director of TEAMLAB Sungchul Choi
Overview Ensemble Model Director of TEAMLAB Sungchul Choi Ensemble Model - 하나의모델이아니라여러개모델의투표로 Y값예측 - Regression 문제에서는평균값을예측함 - meta-classifier - stacking (meta-ensemble) 등으로발전 - 학습은오래걸리나성능이매우좋음 - Kaggle
More information강의록
Analytic CRM 2006. 5. 11 tsshin@yonsei.ac.kr Analytic CRM Analytic CRM Data Mining Analytical CRM in CRM Ecosystem Operational CRM Business Operations Mgmt. Analytical CRM Business Performance Mgmt. Back
More information2002년 2학기 자료구조
자료구조 (Data Structures) Chapter 1 Basic Concepts Overview : Data (1) Data vs Information (2) Data Linear list( 선형리스트 ) - Sequential list : - Linked list : Nonlinear list( 비선형리스트 ) - Tree : - Graph : (3)
More information슬라이드 1
빅데이터분석을위한데이터마이닝방법론 SAS Enterprise Miner 활용사례를중심으로 9 주차 예측모형에대한평가 Assessment of Predictive Model 최종후, 강현철 차례 6. 모형평가의기본개념 6.2 모델비교 (Model Comparison) 노드 6.3 임계치 (Cutoff) 노드 6.4 의사결정 (Decisions) 노드 6.5 기타모형화노드들
More informationChapter 7 – Classification and Regression Trees
비선형분류모델링 의사결정나무 Decision Tree 교사학습패러다임 Plant 관측 계측 FDC + 계측치 교사학습패러다임 Plant 관측 계측 FDC + 계측치 학습 모델 ƒ Data (x, y) 교사학습패러다임 Plant 관측 계측 FDC χ FDC + 계측치 학습 모델 ƒ Data (x, y) 계측치 ; ˆy 예측 교사학습패러다임 Plant Data
More informationTree 기반의 방법
Tree 기반의방법 박창이 서울시립대학교통계학과 박창이 ( 서울시립대학교통계학과 ) Tree 기반의방법 1 / 25 학습내용 의사결정나무 (decision tree) 회귀나무 (regresion tree) 분류나무 (classification tree) 비교앙상블알고리즘 (ensemble algorithm) 배깅 (bagging) 랜덤포레스트 (random
More informationSteven F. Ashby Center for Applied Scientific Computing Month DD, 1997
Data Mining Classification: Basic Concepts, Decision Trees, and Model Evaluation Lecture Notes for Chapter 4 1 Classification: Definition Given a collection of records (training set ) Each record contains
More informationSequences with Low Correlation
레일리페이딩채널에서의 DPC 부호의성능분석 * 김준성, * 신민호, * 송홍엽 00 년 7 월 1 일 * 연세대학교전기전자공학과부호및정보이론연구실 발표순서 서론 복호화방법 R-BP 알고리즘 UMP-BP 알고리즘 Normalied-BP 알고리즘 무상관레일리페이딩채널에서의표준화인수 모의실험결과및고찰 결론 Codig ad Iformatio Theory ab /15
More informationMicrosoft PowerPoint - ch10 - 이진트리, AVL 트리, 트리 응용 pm0600
균형이진탐색트리 -VL Tree delson, Velskii, Landis에의해 1962년에제안됨 VL trees are balanced n VL Tree is a binary search tree such that for every internal node v of T, the heights of the children of v can differ by at
More informationPowerPoint 프레젠테이션
I. 문서표준 1. 문서일반 (HY중고딕 11pt) 1-1. 파일명명체계 1-2. 문서등록정보 2. 표지표준 3. 개정이력표준 4. 목차표준 4-1. 목차슬라이드구성 4-2. 간지슬라이드구성 5. 일반표준 5-1. 번호매기기구성 5-2. 텍스트박스구성 5-3. 테이블구성 5-4. 칼라테이블구성 6. 적용예제 Machine Learning Credit Scoring
More information11강-힙정렬.ppt
11 (Heap ort) leejaku@shinbiro.com Topics? Heap Heap Opeations UpHeap/Insert, DownHeap/Extract Binary Tree / Index Heap ort Heap ort 11.1 (Priority Queue) Operations ? Priority Queue? Priority Queue tack
More information<BFACB1B831382D31365FBAF2B5A5C0CCC5CD20BAD0BCAEBFA120C0C7C7D120BFE4C0B2BBEAC1A420B9E6B9FD20BAF1B1B35F33C2F7BCF6C1A E687770>
Ⅳ. 의사결정나무와 MARS 1. 실손의료보험자료를활용한 CART 분석 가. CART(Classification and Regression Tree) CART는데이터를가장잘분류해주는도구라고할수있는데데이터를잘분류해주는분리변수를선택하고분리지점을정해준다. 그리고가지치기를통해서분류의정도를결정할수있다. 데이터마이닝방법론들중가장널리쓰이는방법론으로반응변수가범주형또는연속형일때가능한의사결정나무의한알고리즘이다.
More information지능정보연구제 16 권제 1 호 2010 년 3 월 (pp.71~92),.,.,., Support Vector Machines,,., KOSPI200.,. * 지능정보연구제 16 권제 1 호 2010 년 3 월
지능정보연구제 16 권제 1 호 2010 년 3 월 (pp.71~92),.,.,., Support Vector Machines,,., 2004 5 2009 12 KOSPI200.,. * 2009. 지능정보연구제 16 권제 1 호 2010 년 3 월 김선웅 안현철 社 1), 28 1, 2009, 4. 1. 지능정보연구제 16 권제 1 호 2010 년 3 월 Support
More informationKD2002-27-02.hwp
개인의 지식창출시스템 구축을 위한 개념화 모델 16) 요 약 정보의 홍수를 이루고 있는 지식 정보사회에서 자신에게 가장 적합한 정보를 신속하게 받아들이 고, 이를 유의미한 지식으로 변형하여 적절한 상황에 활용할 수 있는 지식창출 능력은 매우 중요하 다. 현재까지 지식의 속성이나 인지활동은 여러 학자들에 의해 다양한 접근방법으로 연구되어 왔으 나, 이러한 연구들을
More informationPowerPoint Presentation
http://pdd4.webnode.kr/ e-business ch. 9. Big data & IoT Ph.D. Young-Min, Kyoung contents 데이터마이닝 의개요 개요 기계학습 데이터마이닝기법 데이터마이닝 기법기초 개요 C4.5 알고리즘 엔트로피 결정나무규칙생성 Part. 데이터마이닝 Part. 의사결정나무 (Decision Tree)
More information하반기_표지
LEG WORKING PAPER SERIES 2012_ 05 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 Á ö 37 38 39 40 41 42 43 44 45 Discussion Paper 49 50 51 LEG WORKING PAPER
More information(, sta*s*cal disclosure control) - (Risk) and (U*lity) (Synthe*c Data) 4. 5.
1 (, ), ( ) 2 1. 2. (, sta*s*cal disclosure control) - (Risk) and (U*lity) - - 3. (Synthe*c Data) 4. 5. 3 1. + 4 1. 2.,. 3. K + [ ] 5 ' ', " ", " ". (SNS), '. K KT,, KG (PG), 'CSS'(Credit Scoring System)....,,,.
More informationuntitled
Math. Statistics: Statistics? 1 What is Statistics? 1. (collection), (summarization), (analyzing), (presentation) (information) (statistics).., Survey, :, : : QC, 6-sigma, Data Mining(CRM) (Econometrics)
More informationexample code are examined in this stage The low pressure pressurizer reactor trip module of the Plant Protection System was programmed as subject for
2003 Development of the Software Generation Method using Model Driven Software Engineering Tool,,,,, Hoon-Seon Chang, Jae-Cheon Jung, Jae-Hack Kim Hee-Hwan Han, Do-Yeon Kim, Young-Woo Chang Wang Sik, Moon
More information딥러닝 첫걸음
딥러닝첫걸음 4. 신경망과분류 (MultiClass) 다범주분류신경망 Categorization( 분류 ): 예측대상 = 범주 이진분류 : 예측대상범주가 2 가지인경우 출력층 node 1 개다층신경망분석 (3 장의내용 ) 다범주분류 : 예측대상범주가 3 가지이상인경우 출력층 node 2 개이상다층신경망분석 비용함수 : Softmax 함수사용 다범주분류신경망
More informationchap x: G입력
재귀알고리즘 (Recursive Algorithms) 재귀알고리즘의특징 문제자체가재귀적일경우적합 ( 예 : 피보나치수열 ) 이해하기가용이하나, 비효율적일수있음 재귀알고리즘을작성하는방법 재귀호출을종료하는경계조건을설정 각단계마다경계조건에접근하도록알고리즘의재귀호출 재귀알고리즘의두가지예 이진검색 순열 (Permutations) 1 장. 기본개념 (Page 19) 이진검색의재귀알고리즘
More information3 Gas Champion : MBB : IBM BCS PO : 2 BBc : : /45
3 Gas Champion : MBB : IBM BCS PO : 2 BBc : : 20049 0/45 Define ~ Analyze Define VOB KBI R 250 O 2 2.2% CBR Gas Dome 1290 CTQ KCI VOC Measure Process Data USL Target LSL Mean Sample N StDev (Within) StDev
More information2월1일자.hwp
제 26 권 2호 통권 570호 국가별 디지털 네이티브(digital natives) 현황과 IDI(ICT Development Index) 7) 고 흥 석 * 1. 개 요 2001년 마크 프렌스키(Marc Prensky)는 오늘날 학생들을 일컬어 컴퓨터와 비디오 게임, 각종 인터넷 등의 디지털 언어에 대해 네이티브 스피커(native speaker)와 같다
More informationJournal of Educational Innovation Research 2018, Vol. 28, No. 1, pp DOI: * A Study on the Pe
Journal of Educational Innovation Research 2018, Vol. 28, No. 1, pp.405-425 DOI: http://dx.doi.org/10.21024/pnuedi.28.1.201803.405 * A Study on the Perceptions and Factors of Immigrant Background Youth
More information04 Çмú_±â¼ú±â»ç
42 s p x f p (x) f (x) VOL. 46 NO. 12 2013. 12 43 p j (x) r j n c f max f min v max, j j c j (x) j f (x) v j (x) f (x) v(x) f d (x) f (x) f (x) v(x) v(x) r f 44 r f X(x) Y (x) (x, y) (x, y) f (x, y) VOL.
More information1 : HEVC (Jeonghwan Heo et al.: Fast Partition Decision Using Rotation Forest for Intra-Frame Coding in HEVC Screen Content Coding Extension) (Regular
(Regular Paper) 23 1, 2018 1 (JBE Vol. 23, No. 1, January 2018) https://doi.org/10.5909/jbe.2018.23.1.115 ISSN 2287-9137 (Online) ISSN 1226-7953 (Print) HEVC a), a) Fast Partition Decision Using Rotation
More informationuntitled
통계청 통계분석연구 제 4 권제 1 호 (99. 봄 ) 61-83 데이터마이닝의사결정나무의응용 최종후 * 서두성 ** 본논문의목적은최근국내에서활발하게논의되고있는데이터마이닝의주요한도구인의사결정나무를정리, 소개하는데에있다. 본논문에서는 1997에실시된체 15대대통령선거예측조사자료를이용한무응답의분류및예측문제와개인휴대통신의해지자분석에이를적용한결과를보인다. 끝으로효율적통계조사를위한전략수립에의사결정나무활용가능성을검토한다.
More informationOracle Apps Day_SEM
Senior Consultant Application Sales Consulting Oracle Korea - 1. S = (P + R) x E S= P= R= E= Source : Strategy Execution, By Daniel M. Beall 2001 1. Strategy Formulation Sound Flawed Missed Opportunity
More informationR을 이용한 텍스트 감정분석
R Data Analyst / ( ) / kim@mindscale.kr (kim@mindscale.kr) / ( ) ( ) Analytic Director R ( ) / / 3/45 4/45 R? 1. : / 2. : ggplot2 / Web 3. : slidify 4. : 5. Matlab / Python -> R Interactive Plots. 5/45
More information01.여경총(앞부분)
KOREA BUSINESS WOMEN S FEDERATION 2 Middle & High School Job Training Program Korea Business Women s Federation 3 2 3 778 778 779 10 711 11 714 715 718 727 735 744 751 754 757 760 767 4 Middle & High School
More information*지급결제제도 01_차례
THE BANK OF KOREA 5 6 THE BANK OF KOREA 7 8 THE BANK OF KOREA 9 10 THE BANK OF KOREA 11 12 THE BANK OF KOREA 13 14 THE BANK OF KOREA 15 16 THE BANK OF KOREA 17 18 THE BANK OF KOREA 19 THE BANK OF KOREA
More information슬라이드 1
한국산업기술대학교 제 5 강스케일링및회전 이대현교수 학습안내 학습목표 3D 오브젝트의확대, 축소및회전방법을이해한다. 학습내용 3D 오브젝트의확대및축소 (Scaling) 3D 오브젝트의회전 (Rotation) 변홖공갂 (Transform Space) SceneNode 의크기변홖 (Scale) void setscale ( Real x, Real y, Real z)
More information<31342EBCBAC7FDBFB52E687770>
일본 기혼여성의 취업 및 취업형태 결정요인 성 혜 영 (국민연금연구원) 본 연구의 목적은 일본 기혼여성의 취업실태를 고찰하고 취업 여부에 영향을 미치는 요인과 상시 또는 파트타임과 같은 취업형태를 결정하는 요인을 일본 내 전국 수준의 조사 데이터를 활용해 실증적으로 검토해 보는데 있다. 일본 기혼여성취업의 특징은 파트타임 취업 비율이 특히 높다는 것이며 이에
More information정보기술응용학회 발표
, hsh@bhknuackr, trademark21@koreacom 1370, +82-53-950-5440 - 476 - :,, VOC,, CBML - Abstract -,, VOC VOC VOC - 477 - - 478 - Cost- Center [2] VOC VOC, ( ) VOC - 479 - IT [7] Knowledge / Information Management
More informationBSC Discussion 1
Copyright 2006 by Human Consulting Group INC. All Rights Reserved. No Part of This Publication May Be Reproduced, Stored in a Retrieval System, or Transmitted in Any Form or by Any Means Electronic, Mechanical,
More informationsna-node-ties
Node Centrality in Social Networks Nov. 2015 Youn-Hee Han http://link.koreatech.ac.kr Importance of Nodes ² Question: which nodes are important among a large number of connected nodes? Centrality analysis
More information<C7D1B1B9B1B3C0B0B0B3B9DFBFF85FC7D1B1B9B1B3C0B05F3430B1C733C8A35FC5EBC7D5BABB28C3D6C1BE292DC7A5C1F6C6F7C7D42E687770>
기혼 여성이 사이버대학에서 상담을 전공하면서 겪는 경험 방기연 (고려사이버대학교 상담심리학과 부교수) * 요 약 본 연구는 기혼 여성의 사이버대학 상담전공 학과 입학에서 졸업까지의 경험을 이해하는 것을 목적으로 한 다. 이를 위해 연구참여자 10명을 대상으로 심층면접을 하고, 합의적 질적 분석 방법으로 분석하였다. 입학 전 에 연구참여자들은 고등교육의 기회를
More information?
Annual Report National Museum of Modern and Contemporary Art, Korea CONTENTS Annual Report National Museum of Modern and Contemporary Art, Korea Annual Report National Museum of Modern and Contemporary
More information<322EBCF8C8AF28BFACBDC0B9AEC1A6292E687770>
연습문제해답 5 4 3 2 1 0 함수의반환값 =15 5 4 3 2 1 0 함수의반환값 =95 10 7 4 1-2 함수의반환값 =3 1 2 3 4 5 연습문제해답 1. C 언어에서의배열에대하여다음중맞는것은? (1) 3차원이상의배열은불가능하다. (2) 배열의이름은포인터와같은역할을한다. (3) 배열의인덱스는 1에서부터시작한다. (4) 선언한다음, 실행도중에배열의크기를변경하는것이가능하다.
More informationLecture12_Bayesian_Decision_Thoery
Bayesian Decision Theory Jeonghun Yoon Terms Random variable Bayes rule Classification Decision Theory Bayes classifier Conditional independence Naive Bayes Classifier Laplacian smoothing MLE / Likehood
More informationchap 5: Trees
5. Threaded Binary Tree 기본개념 n 개의노드를갖는이진트리에는 2n 개의링크가존재 2n 개의링크중에 n + 1 개의링크값은 null Null 링크를다른노드에대한포인터로대체 Threads Thread 의이용 ptr left_child = NULL 일경우, ptr left_child 를 ptr 의 inorder predecessor 를가리키도록변경
More informationMicrosoft PowerPoint - 30.ppt [호환 모드]
이중포트메모리의실제적인고장을고려한 Programmable Memory BIST 2010. 06. 29. 연세대학교전기전자공학과박영규, 박재석, 한태우, 강성호 hipyk@soc.yonsei.ac.kr Contents Introduction Proposed Programmable Memory BIST(PMBIST) Algorithm Instruction PMBIST
More informationGetting Started
b Compaq Notebook Series Ñ è Ý : 266551-AD1 2002 4,, Compaq.. 2002 Compaq Information Technologies Group, L.P. Compaq, Compaq, Evo Presario Compaq Information Technologies Group, L.P.. Microsoft Windows
More informationPowerPoint 프레젠테이션
Verilog: Finite State Machines CSED311 Lab03 Joonsung Kim, joonsung90@postech.ac.kr Finite State Machines Digital system design 시간에배운것과같습니다. Moore / Mealy machines Verilog 를이용해서어떻게구현할까? 2 Finite State
More informationKBI......_.........hwp
06-01(통권01호) 2006. 2. 3 요약 Ⅰ. 서론 Ⅱ. 2005년 지상파 및 케이블TV 시청특성 III. 최근 5년간 지상파 및 케이블TV 시장동향 IV. 낮방송 개시 이후의 지상파TV 및 케이블TV 지형변화 V. 결론 및 시사점 부록 : 2005년 성별 연령별 시청률 TOP 20 작성 : 박웅진 연구원(3219-5479) wpark@kbi.re.kr
More information제 출 문 한국산업안전공단 이사장 귀하 본 보고서를 2002 년도 공단 연구사업계획에 따라 수행한 산 업안전보건연구수요조사- 산업안전보건연구의 우선순위설정 과제의 최종보고서로 제출합니다. 2003년 5월 연구기관 : 산업안전보건연구원 안전경영정책연구실 정책조사연구팀 연
산업안전보건분야 연구수요조사분석 2003. 5 한국산업안전공단 산업안전보건연구원 제 출 문 한국산업안전공단 이사장 귀하 본 보고서를 2002 년도 공단 연구사업계획에 따라 수행한 산 업안전보건연구수요조사- 산업안전보건연구의 우선순위설정 과제의 최종보고서로 제출합니다. 2003년 5월 연구기관 : 산업안전보건연구원 안전경영정책연구실 정책조사연구팀 연구책임자 :
More informationKAKAO AI REPORT Vol.01
KAKAO AI REPORT Vol.01 2017.03 import kakao.ai.dataset.daisy import kakao.ai.image import kakao.ai.classifier import mxnet as mx def Conv(data, num_filter, kernel=(1, 1), stride=(1, 1), pad=(0, 0), name=none,
More informationMulti-pass Sieve를 이용한 한국어 상호참조해결 반-자동 태깅 도구
Siamese Neural Network 박천음 강원대학교 Intelligent Software Lab. Intelligent Software Lab. Intro. S2Net Siamese Neural Network(S2Net) 입력 text 들을 concept vector 로표현하기위함에기반 즉, similarity 를위해가중치가부여된 vector 로표현
More informationMicrosoft PowerPoint - Chap5 [호환 모드]
데이터구조 (hapter 5: Trees) 2011 년봄학기 숙명여자대학교정보과학부멀티미디어과학전공박영호 Index hapter 01: asic oncepts hapter 02: rrays and Structures hapter 03: Stacks and Queues hapter 04: Lists hapter 05: Trees hapter 06: Graphs
More information비트와바이트 비트와바이트 비트 (Bit) : 2진수값하나 (0 또는 1) 를저장할수있는최소메모리공간 1비트 2비트 3비트... n비트 2^1 = 2개 2^2 = 4개 2^3 = 8개... 2^n 개 1 바이트는 8 비트 2 2
비트연산자 1 1 비트와바이트 비트와바이트 비트 (Bit) : 2진수값하나 (0 또는 1) 를저장할수있는최소메모리공간 1비트 2비트 3비트... n비트 2^1 = 2개 2^2 = 4개 2^3 = 8개... 2^n 개 1 바이트는 8 비트 2 2 진수법! 2, 10, 16, 8! 2 : 0~1 ( )! 10 : 0~9 ( )! 16 : 0~9, 9 a, b,
More information에너지경제연구 Korean Energy Economic Review Volume 17, Number 2, September 2018 : pp. 1~29 정책 용도별특성을고려한도시가스수요함수의 추정 :, ARDL,,, C4, Q4-1 -
에너지경제연구 Korean Energy Economic Review Volume 17, Number 2, September 2018 : pp. 1~29 정책 용도별특성을고려한도시가스수요함수의 추정 :, ARDL,,, C4, Q4-1 - . - 2 - . 1. - 3 - [ 그림 1] 도시가스수요와실질 GDP 추이 - 4 - - 5 - - 6 - < 표 1>
More information김기남_ATDC2016_160620_[키노트].key
metatron Enterprise Big Data SKT Metatron/Big Data Big Data Big Data... metatron Ready to Enterprise Big Data Big Data Big Data Big Data?? Data Raw. CRM SCM MES TCO Data & Store & Processing Computational
More informationArtificial Intelligence: Assignment 6 Seung-Hoon Na December 15, Sarsa와 Q-learning Windy Gridworld Windy Gridworld의 원문은 다음 Sutton 교재의 연습문제
Artificial Intelligence: Assignment 6 Seung-Hoon Na December 15, 2018 1 1.1 Sarsa와 Q-learning Windy Gridworld Windy Gridworld의 원문은 다음 Sutton 교재의 연습문제 6.5에서 찾아볼 수 있다. http://incompleteideas.net/book/bookdraft2017nov5.pdf
More information저작자표시 - 비영리 - 변경금지 2.0 대한민국 이용자는아래의조건을따르는경우에한하여자유롭게 이저작물을복제, 배포, 전송, 전시, 공연및방송할수있습니다. 다음과같은조건을따라야합니다 : 저작자표시. 귀하는원저작자를표시하여야합니다. 비영리. 귀하는이저작물을영리목적으로이용할
저작자표시 - 비영리 - 변경금지 2.0 대한민국 이용자는아래의조건을따르는경우에한하여자유롭게 이저작물을복제, 배포, 전송, 전시, 공연및방송할수있습니다. 다음과같은조건을따라야합니다 : 저작자표시. 귀하는원저작자를표시하여야합니다. 비영리. 귀하는이저작물을영리목적으로이용할수없습니다. 변경금지. 귀하는이저작물을개작, 변형또는가공할수없습니다. 귀하는, 이저작물의재이용이나배포의경우,
More informationuntitled
통계청 통계분석연구 2001 년가을 ( 제 6 권제 2 호 ) 85-111 데이터마이닝기법을이용한도시가계소비성향분석 변루나 * 본논문에서는데이터마이닝과주요분석기법인로지스틱회귀분석, 신경망, 의사결정나무를소개하였다. 데이터마이닝적용사례로 2000년통계청에서실시한도시가계조사자료를데이터마이닝도구인 SAS Enterprise Miner를활용해분석하였다. 대량의통계조사결과자료에데이터마이닝기법을이용한분석을보임으로써지식기반사회에필요한새로운의미있는정보와지식을재생산할수있는가능성을제시하고검토하는데에본논문의의의가있다.
More informationLine (A) å j a k= i k #define max(a, b) (((a) >= (b))? (a) : (b)) long MaxSubseqSum0(int A[], unsigned Left, unsigned Right) { int Center, i; long Max
알고리즘설계와분석 (CSE3081-2반 ) 중간고사 (2013년 10월24일 ( 목 ) 오전 10시30분 ) 담당교수 : 서강대학교컴퓨터공학과임인성수강학년 : 2학년문제 : 총 8쪽 12문제 ========================================= < 주의 > 답안지에답을쓴후제출할것. 만약공간이부족하면답안지의뒷면을이용하고반드시답을쓰는칸에답안지의어느쪽의뒷면에답을기술하였는지명시할것.
More informationVol.259 C O N T E N T S M O N T H L Y P U B L I C F I N A N C E F O R U M
2018.01 Vol.259 C O N T E N T S 02 06 28 61 69 99 104 120 M O N T H L Y P U B L I C F I N A N C E F O R U M 2 2018.1 3 4 2018.1 1) 2) 6 2018.1 3) 4) 7 5) 6) 7) 8) 8 2018.1 9 10 2018.1 11 2003.08 2005.08
More informationReinforcement Learning & AlphaGo
Gait recognition using a Discriminative Feature Learning Approach for Human identification 딥러닝기술및응용딥러닝을활용한개인연구주제발표 이장우 wkddn1108@kist.re.kr 2018.12.07 Overview 연구배경 관련연구 제안하는방법 Reference 2 I. 연구배경 Reinforcement
More informationVol.257 C O N T E N T S M O N T H L Y P U B L I C F I N A N C E F O R U M
2017.11 Vol.257 C O N T E N T S 02 06 38 52 69 82 141 146 154 M O N T H L Y P U B L I C F I N A N C E F O R U M 2 2017.11 3 4 2017.11 6 2017.11 1) 7 2) 22.7 19.7 87 193.2 160.6 83 22.2 18.4 83 189.6 156.2
More informationCh 8 딥강화학습
Chapter 8. 딥강화학습 < 기계학습개론 > 강의서울대학교컴퓨터공학부장병탁 교재 : 장교수의딥러닝, 홍릉과학출판사, 2017. Slides Prepared by 장병탁, 최진영 Biointelligence Laboratory School of Computer Science and Engineering Seoul National University Version
More information242..
Korea Institute of Science & Technology Information 2 NANO WEEKLY 3 4 NANO WEEKLY 5 6 NANO WEEKLY 7 8 NANO WEEKLY 9 10 NANO WEEKLY 11 á á á á á á Petr Král á á á á 12 NANO WEEKLY 13 14 nano calendar NANO
More information<3230303420B0B3C0CEC1A4BAB8BAD0C0EFC1B6C1A4BBE7B7CAC1FD2E687770>
인터넷 전화/팩스/이메일 방문 접수통보 분쟁조정 신청 및 접수 Case Screening 불만의 해소, 타기관 이첩 등 증거수집, 전문가 자문 등 사실조사 조정전 합의권고 YES 합의 NO 조정결정 NO 민사소송 또는 포기 YES 종료 200 180 190 180 160 163 140 120 100 80 60 40 20 116 100 57 93
More information06년팜플렛직접하리용
1588-1919 2 0 0 6 2006 J o b F e s t i v a l Job Festival Contents _ 3 2006 Job Festival www.work.go.kr 4 _ 2 0 0 6 J o b F e s t i v a l 2006 Job Festival _ 5 6 _ 2 0 0 6 J o b F e s t i v a l 2006 Job
More information<30312DC1A4BAB8C5EBBDC5C7E0C1A4B9D7C1A4C3A52DC1A4BFB5C3B62E687770>
Journal of the Korea Institute of Information and Communication Engineering 한국정보통신학회논문지(J. Korea Inst. Inf. Commun. Eng.) Vol. 19, No. 2 : 258~264 Feb. 2015 ID3 알고리즘 기반의 귀납적 추론을 활용한 모바일 OS의 성공과 실패에 대한
More informationMicrosoft PowerPoint - 27.pptx
이산수학 () n-항관계 (n-ary Relations) 2011년봄학기 강원대학교컴퓨터과학전공문양세 n-ary Relations (n-항관계 ) An n-ary relation R on sets A 1,,A n, written R:A 1,,A n, is a subset R A 1 A n. (A 1,,A n 에대한 n- 항관계 R 은 A 1 A n 의부분집합이다.)
More information歯세대갈등국민조사97.PDF
2004. 4 2030, 40, 5060-2030, 40, 5060 2030405060 ( + ),. 203021.9%, 40 40.0%, 5060 50.0%, 506020302 -,,, 2030 5060 3 (2030 17.2%, 4013.1%, 5060 6.4%) 203040( 71.2%, 56.2%) 5060 (56.6%) 2030 (49.3%) (50.7%),
More informationJournal of Educational Innovation Research 2018, Vol. 28, No. 2, pp DOI: The Exploratory Stu
Journal of Educational Innovation Research 2018, Vol. 28, No. 2, pp.287-313 DOI: http://dx.doi.org/10.21024/pnuedi.28.2.201806.287 The Exploratory Study on the Teachers Innovation Type from a Comparative
More information°Ÿ»4º¨Ö
나무모형 이재용 서울대학교통계학과 2015 년 2 월 16 일 의사결정나무 I Years < 4.5 238 R 3 Hits R 1 117.5 5.11 Hits < 117.5 R 2 6.00 6.74 1 4.5 24 Years 1 Hitters 자료 1. ISLR 패키지에있는자료 2. 1986 년 322 명의메이저리그선수들에대한관측치. 20 개의변수 3. log(salary)
More information쉽게배우는알고리즘 6장. 해시테이블 테이블 Hash Table
쉽게배우는알고리즘 6장. 해시테이블 테이블 Hash Table http://academy.hanb.co.kr 6장. 해시테이블 테이블 Hash Table 사실을많이아는것보다는이론적틀이중요하고, 기억력보다는생각하는법이더중요하다. - 제임스왓슨 - 2 - 학습목표 해시테이블의발생동기를이해한다. 해시테이블의원리를이해한다. 해시함수설계원리를이해한다. 충돌해결방법들과이들의장단점을이해한다.
More information표본재추출(resampling) 방법
표본재추출 (resampling) 방법 박창이 서울시립대학교통계학과 박창이 ( 서울시립대학교통계학과 ) 표본재추출 (resampling) 방법 1 / 18 학습내용 개요 CV(crss-validatin) 검증오차 LOOCV(leave-ne-ut crss-validatin) k-fld CV 편의-분산의관계분류문제에서의 CV Btstrap 박창이 ( 서울시립대학교통계학과
More informationPowerPoint Presentation
Dependency Parser 자연언어처리 Probabilistic CFG (PCFG) - CFG - PCFG with saw with saw astronomers ears saw stars telescope astronomers ears saw stars telescope PCFG example Repeated work Parsing PCFG: CKY CKY
More information국내 디지털콘텐츠산업의 Global화 전략
Digital Conents Contents Words, Sound, Picture, Image, etc. Digitizing : Product, Delivery, Consumption NAICS(, IMO Digital Contents Digital Contents S/W DC DC Post PC TV Worldwide Digital Contents
More information200220427.hwp
碩 士 學 位 論 文 주거환경개선을 위한 주민 요구의 도 결정방법에 관한 연구 全 南 大 學 校 大 學 院 建 築 工 學 科 최 우 람 指 導 敎 授 申 南 秀 2004 年 2 月 주거환경개선을 위한 주민요구의 도 결정방법에 관한 연구 全 南 大 學 校 大 學 院 建 築 工 學 科 최 우 람 上 記 者 의 工 學 碩 士 學 位 論 文 을 認 准 함 所 屬 職
More informationF1-1(수정).ppt
, thcho@kisaorkr IPAK (Information Protection Assessment Kit) IAM (INFOSEC Assessment Methodology) 4 VAF (Vulnerability Assessment Framework) 5 OCTAVE (Operationally Critical Threat, Asset, and Vulnerability
More informationObservational Determinism for Concurrent Program Security
웹응용프로그램보안취약성 분석기구현 소프트웨어무결점센터 Workshop 2010. 8. 25 한국항공대학교, 안준선 1 소개 관련연구 Outline Input Validation Vulnerability 연구내용 Abstract Domain for Input Validation Implementation of Vulnerability Analyzer 기존연구
More information2 : (JEM) QTBT (Yong-Uk Yoon et al.: A Fast Decision Method of Quadtree plus Binary Tree (QTBT) Depth in JEM) (Special Paper) 22 5, (JBE Vol. 2
(Special Paper) 22 5, 2017 9 (JBE Vol. 22, No. 5, Sepember 2017) https://doi.org/10.5909/jbe.2017.22.5.541 ISSN 2287-9137 (Online) ISSN 1226-7953 (Print) (JEM) a), a), a) A Fast Decision Method of Quadtree
More informationDBPIA-NURIMEDIA
FPS게임 구성요소의 중요도 분석방법에 관한 연구 2 계층화 의사결정법에 의한 요소별 상관관계측정과 대안의 선정 The Study on the Priority of First Person Shooter game Elements using Analytic Hierarchy Process 주 저 자 : 배혜진 에이디 테크놀로지 대표 Bae, Hyejin AD Technology
More informationDisclaimer IPO Presentation,. Presentation...,,,,, E.,,., Presentation,., Representative...
DEXTER STUDIOS INVESTOR RELATIONS 2015 Disclaimer IPO Presentation,. Presentation...,,,,, E.,,., Presentation,., Representative... Contents Prologue 01 VFX 02 China 03 Investment Highlights 04 Growth Engine
More informationHW5 Exercise 1 (60pts) M interpreter with a simple type system M. M. M.., M (simple type system). M, M. M., M.
오늘할것 5 6 HW5 Exercise 1 (60pts) M interpreter with a simple type system M. M. M.., M (simple type system). M, M. M., M. Review: 5-2 7 7 17 5 4 3 4 OR 0 2 1 2 ~20 ~40 ~60 ~80 ~100 M 언어 e ::= const constant
More information170918_hjk_datayanolja_v1.0.1.
모 금융회사 오픈소스 및 머신러닝 도입 이야기 김 형 준 2 0 발표자소개 1 인터넷폐쇄망에서분석시스템구축 (feat. 엔지니어가없을때 ) 2 분석보고서자동화 3 Machine Learning 삽질기 ( 분석 & 개발 ) 3 0 발표자소개 1 인터넷폐쇄망에서분석시스템구축 (feat. 엔지니어가없을때 ) 2 분석보고서자동화하기 3 Machine Learning
More information제4장 자연언어처리, 인공지능 , 기계학습
제 4 장 자연언어처리 인공지능 기계학습 목차 인공지능 기계학습 2 인공지능 정의 ( 위키피디아 ) 인공지능은철학적으로인간이나지성을갖춘존재, 혹은시스템에의해만들어진지능, 즉인공적인지능을뜻한다 일반적으로범용컴퓨터에적용한다고가정한다 이용어는또한그와같은지능을만들수있는방법론이나실현가능성등을연구하는과학분야를지칭하기도한다 다양한연구주제 지식표현, 탐색, 추론, 문제해결,
More information¼º¿øÁø Ãâ·Â-1
Bandwidth Efficiency Analysis for Cooperative Transmission Methods of Downlink Signals using Distributed Antennas In this paper, the performance of cooperative transmission methods for downlink transmission
More information장연립방정식을풀기위한반복법 12.1 선형시스템 : Gauss-Seidel 12.2 비선형시스템 12.1 선형시스템 : Gauss-Seidel (1/10) 반복법은초기근을가정한후에더좋은근의값을추정하는체계적인절차를이용한다. G-S 방법은선형대수방정
. 선형시스템 : GussSedel. 비선형시스템. 선형시스템 : GussSedel (/0) 반복법은초기근을가정한후에더좋은근의값을추정하는체계적인절차를이용한다. GS 방법은선형대수방정식을푸는반복법중에서 가장보편적으로사용되는방법이다. 개의방정식에서 인 ( 대각원소들이모두 0 이아닌 ) 경우를다루자. j j b j j b j j 여기서 j b j j j 현재반복단계
More informationG Power
G Power 부산대학교통계학과조영석 1. G Power 란? 2. G Power 설치및실행 2.1 G Power 설치 2.2 G Power 실행 3. 검정 (Test) 3.1 가설검정 (Test of hypothesis) 3.2 검정력 (Power) 3.3 효과크기 (Effect size) 3.4 표본수산정 4. 분석 4.1 t- 검정 (t-test) 4.2
More information(160218)'16년_경제사회_전망과_과제_집담회-발제토론내용.hwp
2016년 경제사회 전망과 과제 집담회 일시 : 장소 : 2016년 2월 18일 오후 2시 뉴국제호텔 16층, 세미나룸 노사정위원회 김대환 위원장님께서 개회사를 해주시겠습니다. 경제사회발전노사정위원회 위원장 김대환 : 안녕하십니까. 우리 위원회에서는 2014년부터 연초에 정례적으로 새해 경제사회 전망과 과제를 주제로 집담회를 개최해 오고 있습니다. 올해는 3년차
More informationIntroduction to Deep learning
Introduction to Deep learning Youngpyo Ryu 동국대학교수학과대학원응용수학석사재학 youngpyoryu@dongguk.edu 2018 년 6 월 30 일 Youngpyo Ryu (Dongguk Univ) 2018 Daegu University Bigdata Camp 2018 년 6 월 30 일 1 / 66 Overview 1 Neuron
More informationMicrosoft PowerPoint - analogic_kimys_ch10.ppt
Stability and Frequency Compensation (Ch. 10) 김영석충북대학교전자정보대학 2010.3.1 Email: kimys@cbu.ac.kr 전자정보대학김영석 1 Basic Stability 10.1 General Considerations Y X (s) = H(s) 1+ βh(s) May oscillate at ω if βh(jω)
More informationMicrosoft PowerPoint - ai-8 기계 학습-I
기계학습 충북대학교소프트웨어학과이건명 충북대인공지능 1 기계학습 Part I 충북대학교소프트웨어학과이건명 충북대인공지능 2 1. 기계학습 기계학습 ( 機械學習, machine learning) 경험을통해서나중에유사하거나같은일 (task) 를더효율적으로처리할수있도록시스템의구조나파라미터를바꾸는것 (To improve the performance of a system
More information2_안드로이드UI
03 Layouts 레이아웃 (Layout) u ViewGroup의파생클래스로서, 포함된 View를정렬하는기능 u 종류 LinearLayout 컨테이너에포함된뷰들을수평또는수직으로일렬배치하는레이아웃 RelativeLayout 뷰를서로간의위치관계나컨테이너와의위치관계를지정하여배치하는레이아웃 TableLayout 표형식으로차일드를배치하는레이아웃 FrameLayout
More informationWISHBONE System-on-Chip Interconnection Architecture for Portable IP Cores
프로젝트정리 1주차 : 미로를텍스트파일로만들어출력하는프로그램작성. 2주차 : 텍스트형태의미로를 MC의그래픽기능을이용하여그리는프로그램작성. 3주차 : 미로에서길찾는프로그램작성. Dept. of CS, Sogang Univ. 1 DS를이용한미로길찾기문제 DS를이용한미로길찾기문제는 2주차까지설계한미로의출발점과도착점을연결하는가장짧은경로를탐색해출력하는문제이다. NxM
More informationNSI포럼 정책토론보고서 2005-2
NSI포럼 정책토론보고서 2005-2 공적연금의 구조개혁 현황과 향후 과제 - 2005년도 제2차 재정개혁 심포지엄 보고서 - - 1 - - 2 - - 3 - - 4 - - 5 - NSI포럼 2005년도 제2차 재정개혁 심포지엄 공적연금의 구조개혁 현황과 향후 과제 - 6 - 金 龍 夏 - 7 - - 8 - - 9 - - 10 - - 11 - 공적연금의
More information<30352DB5A5C0CCC5CDB0F8C7D02D4A355F F525BBEC8C7FCB1D95D2E687770>
KIPS Tr. Software and Data Eng. Vol.2, No.12 pp.855~864 pissn: 2287-5905 판단트리분류를위한 SQL 기초기능의구현에관한연구 855 http://dx.doi.org/10.3745/ktsde.2013.2.12.855 A Study on the Implementation of SQL Primitives for
More information중견국외교연구회
중견국외교연구회 주제: 중견국외교와 한국 일시: 2015년 2월 28일 15:30 18:00 장소: 삼성경제연구원 발표: 하영선 교수 참석자: 하영선, 손열, 전재성, 김상배, 마상윤, 배영자, 이신화, 이승주, 우승지, 이용욱, 장혜영, 송태은, 이민정, 최은실, 박지은 손 열: 오늘은 하 선생님 모시고 말씀을 듣는 기회를 가지고자 한다. 지난 1년 동안
More information<4D6963726F736F667420576F7264202D20B1E2C8B9BDC3B8AEC1EE2DC0E5C7F5>
주간기술동향 2016. 5.18. 컴퓨터 비전과 인공지능 장혁 한국전자통신연구원 선임연구원 최근 많은 관심을 받고 있는 인공지능(Artificial Intelligence: AI)의 성과는 뇌의 작동 방식과 유사한 딥 러닝의 등장에 기인한 바가 크다. 이미 미국과 유럽 등 AI 선도국에서는 인공지능 연구에서 인간 뇌 이해의 중요성을 인식하고 관련 대형 프로젝트들을
More information