PowerPoint 프레젠테이션

Size: px
Start display at page:

Download "PowerPoint 프레젠테이션"

Transcription

1 가깝고도먼 DeepRL 이웅원

2 강사소개 연세대학교기계공학과전공 모두의연구소 DCULab 랩장 제이마플선임연구원 파이썬과케라스로배우는강화학습 저자 패스트캠퍼스 Keras로시작하는강화학습 Camp 강사 페이스북그룹 Reinforcement Learning KR 운영진

3 Reinforcement Learning KR

4 커리큘럼 : 전체흐름 Part 1 강화학습의소개및개요 Part 2 강화학습의기초 Part 3 딥러닝과강화학습

5 강의제목 강의제목 : 가깝고도먼 DeepRL 1. 가까운 DeepRL 알파고 (AlphaGo) 로인한심리적거리감소 OpenAI gym과같은강화학습테스트환경의등장 Tensorflow, Keras, Pytorch와같은딥러닝프레임워크 학계에서의활발한연구 / 회사에서의활발한연구 (Google DeepMind, Microsoft, Facebook)

6 강의제목 강의제목 : 가깝고도먼 DeepRL 2. 먼 DeepRL 딥러닝에비해서상대적으로어려운이론 환경구축과디버깅의어려움 산업적가치발견의어려움 전략적 / 복잡한 Task 적용에의어려움

7 강의제목의의미 가깝고 : 현재까지의강화학습의발전과정을살펴보고 먼 : 강화학습의한계와도전과제를확인해보자

8 1. 강화학습의소개및개요 머신러닝이란 강화학습이란 2. 강화학습의기초 MDP, Bellman Equation Value Iteration, Q-Learning 3. 딥러닝과강화학습 Function Approximation DQN 강의의핵심 가깝고 : 현재까지의강화학습의발전과정을살펴보자

9 1. 강화학습소개및개요

10 최근 AI 의활용사례 1. AlphaGo 2. Robot arm manipulation 3. Walking & Running 공통기술 : Deep Reinforcement Learning

11 최신 AI 의활용사례 : AlphaGo 사용된알고리즘 : Policy Gradient with Monte-Carlo Tree Search

12 최신 AI 의활용사례 : Robotic Manipulation Collective Robot Reinforcement Learning with Distributed Asynchronous Guided Policy Search

13 최신 AI 의활용사례 : Walking & Running

14 강화학습이란 강화학습 (Reinforcement Learning) 을이해하는순서 1. Reinforcement Learning = Reinforcement + Machine Learning 2. Reinforcement 은무엇인가? 3. Machine Learning 은무엇인가?

15 Machine Learning 은무엇인가 위키피디아정의 Machine learning is a field of computer science that gives computers the ability to learn without being explicitly programmed

16 Machine Learning 은무엇인가 Explicit Programming Machine Learning If 배가고프면, then 밥을먹어라 데이터기반 예측 + 학습 간단한문제 복잡한문제 Ex) 스팸필터, 추천시스템, 날씨와교통상황사이의상관관계

17 Machine Learning 은무엇인가 데이터로부터유용한지식을추출해새로운데이터에대한판단에적용 데이터 X 관계함수 f ( 지식 ) 현상 Y 새로운데이터 학습한지식 판단

18 Machine Learning 은무엇인가 Machine Learning의종류 1. Supervised Learning : 정답이있는데이터학습 2. Unsupervised Learning : 데이터자체의특성학습 3. Reinforcement Learning : 보상으로부터학습

19 Reinforcement 는무엇인가 1. 행동주의와 Skinner 눈으로관찰가능한행동을연구 2. Skinner 의문제상자 : 레버를누르면먹이가나오는상자안에굶긴쥐를넣고실험

20 Reinforcement 는무엇인가 Reinforcement : 배우지않았지만직접시도하면서행동과그결과로나타나는보상사이의상관관 계를학습하는것 보상을많이받는행동의확률을높이기

21 강화학습은무엇인가 1. Reinforcement Learning = Reinforcement + Machine Learning 데이터 X 관계함수 f 현상 Y 2. 데이터 X : 어떤상황에서어떤행동을했는지, 현상 Y: 보상을얼마나받았는지 어떤행동을해야보상을많이받는지를데이터로부터학습

22 강화학습은무엇인가 1. 에이전트와환경의상호작용 데이터생성 ( 미리모아놓을수없다 ) 2. 특정상태에서특정행동을선택 보상 학습

23 강화학습개요 1. 강화학습이풀고자하는문제 : Sequential Decision Problem 2. 문제에대한수학적정의 : Markov Decision Process 3. MDP를계산으로푸는방법 : Dynamic Programming 4. MDP를학습으로푸는방법 : Reinforcement Learning 5. 상태공간이크고차원이높을때쓰는방법 : Function Approximation 6. 바둑과같은복잡하고어려운문제를푸는방법 : Deep Reinforcement Learning

24 2. 강화학습의기초

25 2-1. Sequential Decision Problem

26 강화학습개요 1. 강화학습이풀고자하는문제 : Sequential Decision Problem 2. 문제에대한수학적정의 : Markov Decision Process 3. MDP를계산으로푸는방법 : Dynamic Programming 4. MDP를학습으로푸는방법 : Reinforcement Learning 5. 상태공간이크고차원이높을때쓰는방법 : Function Approximation 6. 바둑과같은복잡하고어려운문제를푸는방법 : Deep Reinforcement Learning

27 강화학습접근방식 1. 문제접근방식 문제자체에대한이해 그문제에적용되었던초기방식들 초기방식의문제와해결하기위한아이디어 아이디어를구체화한방법

28 강화학습접근방식 2. 강화학습문제접근방식 Sequential Decision Problem 과 MDP 이해 MDP 문제를풀기위한 DP(Dynamic Programming) DP 의문제와이를해결하기위한아이디어 (Planning Learning) 아이디어의알고리즘화 : Q-Learning

29 Sequential Decision Problem 여러번의연속적선택을하는문제 : Sequential Decision Problem 집에서직장까지차를운전하는경우

30 Sequential Decision Problem 상태에영향 핸들의각도 차속도 앞차와의거리 차가있는차선 신호등의신호 etc 브레이크 액셀 기어 행동을결정

31 Sequential Decision Problem 에이전트 : 상태를관찰, 행동을선택, 목표지향, Decision Maker! an autonomous, goal-directed entity which observes and acts upon an environment 위키피디아 환경을관찰하고행동하는자율적이고목표지향적인주체 - 구글번역기

32 Sequential Decision Problem 환경 : 에이전트를제외한나머지 판단하는아이라는주체를빼고길과자전거와아이의몸또한환경이된다

33 Markov Decision Process 1. Sequential Decision Problem 을수학적으로정의 2. MDP(Markov Decision Process) 의목표는 reward 를최대화 3. Markov Process MRP(Markov Reward Process) MDP(Markov Decision Process) Andrei Andreyevich Markov

34 2-2. Markov Decision Process

35 강화학습개요 1. 강화학습이풀고자하는문제 : Sequential Decision Problem 2. 문제에대한수학적정의 : Markov Decision Process 3. MDP를계산으로푸는방법 : Dynamic Programming 4. MDP를학습으로푸는방법 : Reinforcement Learning 5. 상태공간이크고차원이높을때쓰는방법 : Function Approximation 6. 바둑과같은복잡하고어려운문제를푸는방법 : Deep Reinforcement Learning

36 Markov Decision Process 시간에따라변하는 상태 가있으며상태공간안에서움직이는 에이전트 가있다 에이전트는행동을선택할수있다 확률적 에이전트의행동에따라다음상태와보상이결정된다 확률적 확률적모델링 : Markov Decision Process

37 Markov Decision Process 1. MDP = {S, A, R, P a ss, γ} 로정의되는 tuple 2. MDP 의구성요소 S : 상태 (state) A : 행동 (action) R : 보상 (reward) P a ss : 상태변환확률 (state transition probability) γ : 할인율 (discount factor)

38 Grid World 예제 1. 격자를기반으로한예제 : 5 X 5 = 25 개의격자를가짐 2. 고전강화학습의가장기본적인예제 : 에이전트가학습하는과정을눈으로보기쉬움 3. 목표 : 세모를피해서파란색동그라미로가기

39 MDP 1 : 상태 상태 : 현재상황을나타내는정보 (observation 과의관계 ) 에이전트가탁구를치려면탁구공의위치, 속도, 가속도와같은정보가필요

40 MDP 1 : 상태 상태 : 에이전트가관찰가능한상태의집합 그리드월드의상태 : S = 1, 1, 2, 1, 1, 2,, 5, 5

41 MDP 1 : 상태 1. 에이전트는시간에따라환경을탐험 상태도시간에따라변한다 2. 시간 t일때상태 : S t = s or S t = (1, 3) 확률변수 (random variable) 은대문자, 특정상태는소문자 3. Episode : 처음상태부터마지막상태까지 s 0 τ = s 0, s 1, s 2,, s T 1, s T s t s T

42 MDP 2 : 행동 에이전트가할수있는행동의집합 : A = 위, 아래, 좌, 우 시간 t에취한행동 A t = a 만약 A t = 우라면항상 (3, 1) 에서 (4, 1) 로갈까? 상태변환확률에따라다르다

43 MDP 2 : 행동 행동 (1) discrete action (2) continuous action discrete action continuous action

44 MDP 3 : 보상 에이전트가한행동에대한환경의피드백 : 보상 ( + or - ) 시간이 t 이고상태 S t = s 에서 A t = a 를선택했을때받는보상 R s a = E R t+1 S t = s, A t = a 보상은 R a s 으로표현되거나 R a ss 으로표현된다 보상은현재시간 t 가아닌 t + 1 에환경으로부터받는다 같은상태 s 에서같은행동 a 를했더라도그때그때마다보상이다를수있음 기댓값 (expectation) 으로표현

45 MDP 3 : 보상 1. 보상은에이전트의목표에대한정보를담고있어야함 2. 그리드월드의보상 : 초록색세모 (-1), 파란색동그라미 (+1) 초록색세모를피해파란색동그라미로가라!

46 MDP 3 : 보상 기댓값이란 : 확률을포함한평균 주사위를던졌을때나올숫자에대한기댓값은?

47 MDP 4 : 상태변환확률 상태변환확률 : 상태 s 에서행동 a 를했을때상태 s 으로갈확률 P a ss = P S t+1 = s S t = s, A t = a model or dynamics of environment 상태변환확률을안다면 : model-based Dynamic Programming 상태변환확률을모른다면 : model-free Reinforcement Learning 상태변환확률을학습한다면 : model-based RL Dyna-Q

48 MDP 4 : 상태변환확률 P a ss = P S t+1 = s S t = s, A t = a 상태 (1, 1) 에서행동 우 를했을경우 1. 상태 (2, 1) 에갈확률은 상태 (1, 2) 에갈확률은 0.2

49 MDP 5 : 할인율 할인율 : 미래에받은보상을현재의시점에서고려할때할인하는비율 만약복권에당첨되었다면당첨금 1억원을당장받을지 10년뒤에받을지? 가까운보상이미래의보상보다더가치가있다 할인 보상에서시간의개념을포함하는방법

50 MDP 5 : 할인율 할인율은 0 에서 1 사이의값 γ [0, 1] 현재의시간 t 로부터 k 만큼지난후받은보상의현재가치 γ k 1 R t+k 할인율을통해보상을얻는최적의경로를찾을수있다 γ 5 γ 4 γ 3 γ 2 γ 1 γ 0

51 정리 상태 보상 행동 상태변환확률 할인율 1 1*γ 6 그리드월드문제에서의 MDP

52 정책 1. 에이전트는각상태마다행동을선택 2. 각상태에서어떻게행동할지에대한정보 : 정책 (Policy) 상태 s 에서행동 a 를선택할확률 π(a s) 3. 두가지형태의정책 행동 = 정책 ( 상태 ) 명시적 (explicit) 정책 행동 = 선택 ( 가치함수 ( 상태 )) 내재적 (implicit) 정책

53 정리 1. 강화학습이풀고자하는문제 Sequential Decision Problem 2. Sequential Decision Problem 의수학적정의 MDP 3. MDP 의구성요소 상태, 행동, 보상, 상태변환확률, 할인율 4. 각상태에서에이전트가행동을선택할확률 정책

54 2-3. Bellman Equation

55 MDP 문제풀이방법 1. 강화학습이풀고자하는문제 : Sequential Decision Problem 2. MDP : Sequential Decision Problem의수학적정의 3. MDP의목표는최대의보상을받는것 매타임스텝마다행동선택의기준 : 보상 더큰보상을얻을수있는행동을선택 4. MDP 문제풀이방법 1) Dynamic Programming : 환경에대한모든정보를알고가장좋은정책을 계산 2) Reinforcement Learning : 환경과의상호작용을통해가장좋은정책을 학습

56 MDP 에이전트의행동선택 1. 에이전트와환경의상호작용 (Value-based) (1) 에이전트가상태를관찰 (2) 어떠한기준에따라행동을선택 (3) 환경으로부터보상을받음 * 어떠한기준 : 가치함수, 행동선택 : greedy action selection 2. 에이전트행동선택의기준 (1) 에이전트는매타임스텝마다보상을더많이받으려함 (2) 단기적보상만고려한다면최적의정책에도달할수있을까? Problem 1: sparse reward Problem 2: delayed reward

57 Sparse Reward 매타임스텝마다보상이나오지않는다면? Ex) 바둑 대부분의경우보상이 sparse 하게주어짐

58 Delayed Reward 보통선택한행동에대한보상은 delay 되어서에이전트에게주어진다 즉각적보상만고려해서선택하면어떤행동이좋은행동이었는지판단어려움 credit assignment problem 이행동만이좋은행동이고나머지는아니다?

59 장기적보상 단기적보상만고려했을때의문제 (1) Sparse reward (2) delayed reward 단기적보상이아닌지금선택한행동에대한장기적인결과 ( 보상 ) 를보자! 장기적보상을어떻게알아낼수있을까? (1) 반환값 (Return) (2) 가치함수 (Value function)

60 장기적보상 1 : 단순합 단기적보상이아닌장기적보상 앞으로받을보상을고려 현재시간 t로부터앞으로받을보상을다더한다 R t+1 + R t+2 + R t R T 현재시간 t 로부터앞으로받을보상을다더한다 = =

61 장기적보상 2 : 반환값 현재시간 t 로부터에피소드끝까지받은보상을할인해서현재가치로 반환값 (Return) : 현재가치로변환한보상들을다더한값 G t = R t+1 + γr t γ T t 1 R T 실제에이전트와환경의상호작용을통해받은보상을이용 Unbiased estimator : 실제환경으로부터받은값 High variance : 시간 t 이후에행동을어떻게하는지에따라값이크게달라짐

62 장기적보상 3 : 가치함수 가치함수 (Value function) : 반환값에대한기댓값 어떠한상태 s에갈경우그이후로받을것이라예상되는보상에대한기대 반환값은에이전트의정책에영향을받음 v π s = E π G t S t = s 반환값은상태 s에서어떤행동을선택하는지에따라다름 가치함수는상태 s로만정해지는값 가능한반환값들의평균 기댓값을계산하기위해서는환경의모델을알아야함 DP는가치함수를계산 강화학습은가치함수를계산하지않고 sampling을통한 approximation

63 가치함수식의변형 벨만기대방정식 (Bellman expectation equation) 의유도 v π s = E π G t S t = s v π s = E π R t+1 + γr t+2 + S t = s v π s = E π R t+1 + γ(r t+2 + ) S t = s v π s = E π R t+1 + γe π (R t+2 + ) S t = s v π s = E π R t+1 + γe π (G t+1 ) S t = s v π s = E π R t+1 + γv π (S t+1 ) S t = s

64 큐함수에대한정의 큐함수 (Q-function) 상태 s 에서행동 a 를했을경우받을것이라예상되는반환값에대한기댓값 q π s, a = E π G t S t = s, A t = a 가치함수는큐함수에대한기댓값 v π s = E a~π q π (s, a) S t = s v π s = π(a s)q π (s, a) a A

65 정책을고려한벨만기대방정식 정책 π 에따라행동을선택할때의벨만기대방정식 1. 가치함수에대한벨만기대방정식 v π s = E π R t+1 + γv π (S t+1 ) S t = s 2. 큐함수에대한벨만기대방정식 q π s, a = E π R t+1 + γq π (S t+1, A t+1 ) S t = s, A t = a 벨만방정식은현재상태 s 와다음상태 S t+1 의가치함수 ( 큐함수 ) 사이의관계식

66 벨만기대방정식과최적의정책 벨만기대방정식 정책 π 를따라갔을때의가치함수 v π s = E π R t+1 + γv π (S t+1 ) S t = s 에이전트가알고자하는것 : π 가장높은보상을얻게하는최적의정책 π 최적의정책 π 는 deterministic policy 상태 s 에서가장큰큐함수를가지는행동 a 를반환 이때, 큐함수또한최적의큐함수

67 벨만기대방정식과최적의정책 최적의큐함수 정책이최적일때그에따르는큐함수도최적 q s, a = max π q π (s) 최적의정책 (optimal policy) π s = argmax a A q s, a Greedy policy : 가능한행동중에서최고의큐함수를가지는행동을선택하는정책

68 벨만최적방정식 일반정책일때가치함수와큐함수사이의관계 v π s = E π q π (s, A t ) S t = s 최적의정책일때가치함수와큐함수사이의관계 v s = max a q (s, a) S t = s v s = max a E R t+1 + γv (S t+1 ) S t = s

69 벨만최적방정식 벨만최적방정식 : 행동을선택할때는 max, 가치함수 or 큐함수도최적 가치함수에대한벨만최적방정식 v s = max a E R t+1 + γv (S t+1 ) S t = s, A t = a 큐함수에대한벨만최적방정식 q s, a = E R t+1 + γ max a q (S t+1, a ) S t = s, A t = a

70 정리 1. 단기적보상 장기적보상 Sparse reward & delayed reward 가치함수 & 큐함수 2. 벨만기대방정식 (Bellman Expectation Eqn.) v π s = E π R t+1 + γv π (S t+1 ) S t = s q π s, a = E π R t+1 + γq π (S t+1, A t+1 ) S t = s, A t = a 3. 벨만최적방정식 (Bellman Optimality Eqn.) v s = max a E R t+1 + γv (S t+1 ) S t = s, A t = a q s, a = E R t+1 + γ max a q (S t+1, a ) S t = s, A t = a

71 2-4. Value Iteration

72 강화학습개요 1. 강화학습이풀고자하는문제 : Sequential Decision Problem 2. 문제에대한수학적정의 : Markov Decision Process 3. MDP를계산으로푸는방법 : Dynamic Programming 4. MDP를학습으로푸는방법 : Reinforcement Learning 5. 상태공간이크고차원이높을때쓰는방법 : Function Approximation 6. 바둑과같은복잡하고어려운문제를푸는방법 : Deep Reinforcement Learning

73 Dynamic Programming 알고리즘강의에서접하는 DP(Dynamic Programming) 분할정복기법 : 큰문제를해결하기위해작은여러문제로나누기 작은문제들이사실은같은문제를푸는것 매번재계산하지않고값을저장하고재사용하는것 MDP 에서의 DP 큰문제는무엇이고작은문제는무엇인가? 반복되는작은문제는어떻게푸는지? 저장되는값이무엇인지?

74 Dynamic Programming 1. MDP의목표는보상을최대로받는정책을구하기 : π 2. 큰문제 : π π ( 처음 π로부터시작해서 π 을구하기 ) 내재적 π : Value Iteration 명시적 π : Policy Iteration 3. 작은문제 : π k π k+1 (1 Iteration) 4. 반복되는작은문제를푸는방법 : Bellman Eq. ( 기대 or 최적 ) 5. 저장되는값 : 가치함수 MDP 의해결방법

75 Dynamic Programming 1. 저장되는값이가치함수이므로결국가치함수의업데이트 2. 가치함수업데이트의반복적계산 v 0 v 1 v 2 v 3 v

76 Value Iteration 1. MDP 를풀었다면 π 와 v 를구한것 벨만최적방정식 v s = max a E R t+1 + γv (S t+1 ) S t = s, A t = a 2. 처음부터벨만최적방정식을만족한다고가정 (iteration k) v k s max a E R t+1 + γv k (S t+1 ) S t = s, A t = a 3. 벨만최적방정식을통해가치함수를업데이트 가치함수가수렴하면 greedy policy 로선택 v k+1 s max a R s a + γ aεa P a ss v k (s )

77 Value Iteration Iteration 1 번 : 모든상태에대해서벨만최적방정식을통한업데이트 1 번 for s S, v k+1 s max a R s a + γ aεa P a ss v k (s )

78 Value Iteration 벨만최적방정식을통해가치함수를업데이트하려면 R a s 와 P a ss 를알아야함 DP 가 model-based 인이유 : learning 이아닌 Planning v k+1 s max a R s a + γ aεa P a ss v k (s ) P a ss 를그행동이가려는상태에대해서 1, 나머지 0이라고가정 s 은 a 가 right 면현재상태에서오른쪽에있는상태 v k+1 s max a R s a + γv k (s )

79 Grid world 에서 Value Iteration v k+1 s max a R s a + γv k (s ) 상 : = 0 하 : = 0.45 좌 : = 0.9 우 : = 1 v k+1 s = max 0, 0.45, 0.9, 1 = 1

80 Grid world 에서 Value Iteration v k+1 s max a R s a + γv k (s ) 상 : = 0 하 : = 0.9 좌 : = 0.1 우 : = 0 v k+1 s = max 0, 0.9, 0.1, 0 = 0.9 K=1 K=2

81 Grid world 에서 Value Iteration v k+1 s max a R s a + γv k (s ) K=1 K=2 K=3

82 Grid world 에서 Value Iteration v k+1 s max a R s a + γv k (s ) K=4 K=5 K=6

83 Grid world 에서 Value Iteration 최적의정책과최적의가치함수 π s = argmax a A E R s a + γv (s )

84 Grid world 에서 Value Iteration

85 정리 1. Dynamic Programming 큰문제를작은문제로, 반복되는문제를값을저장하면서해결 큰문제 : 최적가치함수계산 v 0 v 1 v 2 v 3 v 작은문제 : 현재의가치함수를더좋은가치함수로업데이트 v k v k+1 Bellman Eq. 를이용해서 1-step 계산으로 optimal을계산하기 2. Value Iteration 가치함수가최적이라고가정하고그사이의관계식인벨만최적방정식이용 v k+1 s max a 수렴한가치함수에대해 greedy policy R s a + γv k (s ) Q-Learning 으로연결

86 2-5. Q-Learning

87 강화학습개요 1. 강화학습이풀고자하는문제 : Sequential Decision Problem 2. 문제에대한수학적정의 : Markov Decision Process 3. MDP를계산으로푸는방법 : Dynamic Programming 4. MDP를학습으로푸는방법 : Reinforcement Learning 5. 상태공간이크고차원이높을때쓰는방법 : Function Approximation 6. 바둑과같은복잡하고어려운문제를푸는방법 : Deep Reinforcement Learning

88 DP 와 Reinforcement Learning Dynamic Programming 벨만방정식을통한가치함수및정책의업데이트 기댓값을계산하기위해환경의모델을알아야함 에이전트라는개념이없음 환경의모델을알아야하기때문에전문적인지식이필요 일정이상복잡한문제에적용하기힘듬

89 Walking, Running Dynamics???? Reinforcement Learning : 모델없이배우자!

90 Model-free RL Reinforcement Learning : 에이전트가환경과직접상호작용 1. 일단행동을선택후환경에서진행 2. 선택한행동을평가 ( 보상을받음 ) 3. 평가한대로자신을업데이트 Model-free Learning : sampling을통해학습

91 Sampling 에이전트와환경의상호작용 : 에피소드 시간의흐름 s 0, a 0, r 1, s 1, a 1, r 2, s 2, a 2, r 3, s 3, a 3, r 4, s 4,, s T 샘플 1 샘플 2 전체에피소드를부분부분 sampling Q-Learning Value Iteration에 sampling을적용 Sample : [s, a, r, s ]

92 Q-Learning 1. Value Iteration 가치함수가최적이라고가정하고그사이의관계식인벨만최적방정식이용 v k+1 s max a 수렴한가치함수에대해 greedy policy R s a + γv k (s ) 2. Q-Learning 행동선택 : ε 탐욕정책 큐함수업데이트 : 벨만최적방정식이용 π s = ቊ a = argmax a A q s, a, 1 ε a a, ε q s, a = q s, a + α r + γ max a q s, a q s, a

93 ε 탐욕정책 1. 탐욕정책 가치함수를사용할경우 P a ss 를알아야함 π s = argmax aεa R s a + γ s S P a ss v k+1 s 큐함수를이용한탐욕정책발전 : model-freeπ s argmax aεa q s, a 2. ε 탐욕정책 ε 의확률로랜덤한행동을선택 : π s = ቊ a = argmax a A q s, a, 1 ε random action, ε

94 큐함수업데이트 샘플 [s, a, r, s ] 모으기 1. 상태 s 에서행동 a 는행동정책 (ε 탐욕정책 ) 으로선택 2. 환경으로부터다음상태 s 과보상 r 을받음 샘플로 q s, a 를업데이트 벨만최적방정식을이용 q s, a = q s, a + α r + γ max a q s, a q s, a

95 Grid world 에서의 Q-Learning

96 Maze 에서의 Q-Learning

97 3. 딥러닝과강화학습

98 3-1. Function Approximation

99 고전강화학습의한계 Tabular Solution Methods 모든상태의 Q-function을 table의형태로저장 모든상태의 Q-function을방문할때마다하나씩업데이트 모든상태를충분히방문해야 optimal Q-function에수렴 비효율적인업데이트방식 적용할수있는문제의제한 환경이변하지않는문제 간단한문제

100 고전강화학습알고리즘의한계 1. 환경이변하지않는 Grid world 2. 환경이변하는 Grid world 상태 : 15차원, 18,225,000개 (1) 에이전트에대한장애물의상대위치 x, y (2) 장애물의속도 ( 방향 ) (3) 에이전트에대한도착지점의상대위치 x, y (4) 에이전트, 장애물, 도착점레이블 상태 : 2 차원, 25 개 에이전트의위치 x, y

101 고전강화학습알고리즘의한계 1. TD-gammon 이학습했던 Backgammon 의가능한 state 수 개 2. AlphaGo 가학습했던바둑의가능한 state 수 개 3. Possible Camera image? 4. Robot, Drone Continuous state space s_view.oro?div_no=13&num=521047

102 우리가하고싶은것

103 Function approximation 을통한 generalization 1. 대부분강화학습을적용하고싶은문제 Large state space 2. Large state space : 많은양의메모리, 계산량, 데이터필요 3. 한정된양의자원 Good approximate solution 4. 비슷한 state는비슷한 function의 output을가질것 Generalization!! 어떻게지금까지방문한 state 들에대한경험으로전체문제에대해 generalize 할수있을까? 5. Generalization 을하기위해 Supervised Learning 의기법을가져다쓰자! Function Approximation : Target function 이있고그 target function을 approximate 하는 function을찾기

104 강화학습과 Function approximation Q-Learning에서 1. Target function : 큐함수 2. 방문한상태들에대한경험 다른상태들의큐함수를 generalize 3. Approximate하는함수의 parameter : θ q θ s, a ~ q π (s, a)

105 강화학습과 Function approximation 1. Table 형태의큐함수 A S s 0 s 1 s 2 s 3 s 4 a 0 q(s 0, a 0 ) q(s 1, a 0 ) q(s 2, a 0 ) q(s 3, a 0 ) q(s 4, a 0 ) a 1 q(s 0, a 1 ) q(s 1, a 1 ) q(s 2, a 1 ) q(s 3, a 1 ) q(s 4, a 1 ) a 2 q(s 0, a 2 ) q(s 1, a 2 ) q(s 2, a 2 ) q(s 3, a 2 ) q(s 4, a 2 ) a 3 q(s 0, a 3 ) q(s 1, a 3 ) q(s 2, a 3 ) q(s 3, a 3 ) q(s 4, a 3 )

106 강화학습과 Function approximation 2. 함수형태로근사한큐함수 Q( 왼쪽 ) Function approximator Q( 오른쪽 ) Q( 제자리 ) Q( 위쪽 ) Q( 아래쪽 ) 상태 s q θ s, a 각행동별큐함수값

107 Mean square error 1. 업데이트대상 : 각큐함수의값 큐함수의 parameter 값 q θ s, a 의 θ 2. Function approximation을사용하므로지도학습의기법들을가져올수있음 3. 지도학습 : 정답과예측의오차를최소화하도록모델을학습 정답과예측의오차정의 : Mean square error 오차를최소화할방법을결정 : gradient descent

108 Mean square error 1. 큐함수의값은 continuous regression 2. 큐함수의값은 0 에서 1 사이가아님 MSE(Mean square error) 3. 큐함수를업데이트 loss function Bellman Equation 에서의 TD error 를이용 gradient descent 상태 s θ a a q θ s, a r + γ max a q θ s, a MSE r + γ max q a θ s, a q θ s, a 2

109 Q-Learning with function approximation Q-Learning with function approximator 학습하는과정 1. 상태관찰, 행동선택 2. 행동하고다음상태와보상을받음 3. TD error 의 gradient 를따라큐함수의 parameter 를업데이트 r + γ max a q θ s, a q θ s, a 2

110 강화학습과 Neural Network 1. Nonlinear function approximation Neural Network Neural Network 의 activation function 이 nonlinear 2. Neural Network 를이용한큐함수근사 q θ s, a 의 θ 가 Neural Network 의 parameter 3. 큐함수의업데이트 MSE error 에대한 gradient : θ r + γ max a q θ s, a q θ s, a 2 계산한 gradient 를 backpropagation

111 Cartpole 과 Neural Network 1. Neural network 구조 2. 학습결과

112 3-2. Deep Q-Network

113 Deep Q-Learning 1. Deep Reinforcement Learning = Reinforcement Learning + Deep Learning 2. DQN(2013년 ) Playing Atari with Deep Reinforcement Learning -Mnih, 2013 DeepMind의초창기논문 Atari game을화면으로부터학습 3. 화면은 high-dimension Deep Learning 을사용

114 DQN 의네가지 Key point Function approximator로 neural network를사용할경우에이전트가수렴하지못하고발산 이문제를해결하기위해지도학습의방법을가져옴 DQN DQN의네가지특징 1. CNN 2. Experience replay 3. Online learning with Stochastic gradient descent 4. Target Q-network

115 DQN 의네가지 Key point 1. CNN 화면으로부터 direct 로학습할수있음 2. Experience replay Sample 들의상관관계를깸 Neural Network의안정적인학습 일정한크기를가지는 memory (FIFO) 3. Online update with stochastic gradient descent 매스텝마다 replay memory에서추출한 mini-batch로 Q-function 업데이트 점진적으로변하는 Q-function에대해 ε greedy policy로행동선택

116 DQN 의네가지 Key point Q-Learning update q s, a = q s, a + α r + γ max a q s, a q s, a DQN update : MSE error 를 backpropagation MSE error r + γ max a q θ s, a q θ s, a 2 4. Target Q-network Target network θ 의사용 : update 의 target 이계속변하는문제를개선 일정주기마다현재의 network θ 를 θ 로업데이트

117 DQN 의다이어그램

118 DQN 의학습과정 1. exploration 2. append sample to replay memory 3. random sampling, training 4. target Q-network update

119 DQN 의학습과정 1. exploration 정책은큐함수에대한 ε greedy policy ε은 time-step에따라서 decay 점점수렴 ε은 1에서시작해서 0.1까지 decay, 0.1을계속유지 지속적탐험

120 DQN 의학습과정 2. append sample to replay memory 에이전트는 ε greedy policy에따라샘플 [s, a, r, s ] 을생성 샘플을 replay memory에 append Replay_memory.append(sample) Replay memory 가다차면오래된 sample 부터하나씩빼고새로운 sample 을 memory 에넣기

121 DQN 의학습과정 3. random sampling, training Mini-batch (32 개 ) 샘플을추출 샘플로부터 target 값과 prediction 값을구하기 (32 개 ) MSE error target prediction 2 Target : r + γ max a q θ s, a Prediction : q θ s, a MSE error 에대한 gradient backpropagation 4. target Q-network update : 일정주기마다 target Q-network 를현재 Q-network 로업데이트

122 DQN 의학습과정 1. 상태에따른행동선택 2. 선택한행동으로환경에서 1 time-step을진행 3. 환경으로부터다음상태와보상을받음 4. Sampling[s, a, r, s ] 을 replay memory에저장 5. Replay memory에서 random sampling mini-batch update 6. 일정주기마다 Target network 업데이트

123 DQN 의세부사항 1. CNN network 2. 4 images 1 history no-op 4. Huber loss

124 DQN 의세부사항 1. CNN network Image 를 input 으로받음 3 개의 convolution layer(no pooling layer)

125 DQN 의세부사항 2. 4 images 1 history Image 한장은공의속도등의정보를표현하지못함 현재로부터이전까지 4 개의연속된화면을 input 으로

126 DQN 의세부사항 no-op 항상같은상태에서시작 초반에 local optimum으로수렴할확률이높다 조금은다른상태에서시작 : 0에서 30 time-step 중에랜덤으로선택한후그동안아무것도안하기 (no-op)

127 DQN 의세부사항 4. Huber loss MSE error 가 -1 과 1 사이일때는 quadratic, 다른곳은 linear

128 DQN 의세부사항 1. 환경초기화및 30 no-op 2. History에따라행동을선택 (ε greedy), ε 값 decay 3. 선택한행동으로 1 time-step 환경에서진행, 다음상태, 보상을받음 4. 샘플을형성 (h, a, r, h ), replay memory에 append 스텝이상일경우 replay memory에서 mini-batch 추출후학습 MSE error r + γ max a q θ s, a q θ s, a 스텝마다 target network 업데이트

129 DQN on Atari

130 Thank you

Ch 8 딥강화학습

Ch 8 딥강화학습 Chapter 8. 딥강화학습 < 기계학습개론 > 강의서울대학교컴퓨터공학부장병탁 교재 : 장교수의딥러닝, 홍릉과학출판사, 2017. Slides Prepared by 장병탁, 최진영 Biointelligence Laboratory School of Computer Science and Engineering Seoul National University Version

More information

Artificial Intelligence: Assignment 6 Seung-Hoon Na December 15, Sarsa와 Q-learning Windy Gridworld Windy Gridworld의 원문은 다음 Sutton 교재의 연습문제

Artificial Intelligence: Assignment 6 Seung-Hoon Na December 15, Sarsa와 Q-learning Windy Gridworld Windy Gridworld의 원문은 다음 Sutton 교재의 연습문제 Artificial Intelligence: Assignment 6 Seung-Hoon Na December 15, 2018 1 1.1 Sarsa와 Q-learning Windy Gridworld Windy Gridworld의 원문은 다음 Sutton 교재의 연습문제 6.5에서 찾아볼 수 있다. http://incompleteideas.net/book/bookdraft2017nov5.pdf

More information

<4D6963726F736F667420576F7264202D20C3D6BDC52049435420C0CCBDB4202D20BAB9BBE7BABB>

<4D6963726F736F667420576F7264202D20C3D6BDC52049435420C0CCBDB4202D20BAB9BBE7BABB> 주간기술동향 2016. 2. 24. 최신 ICT 이슈 인공지능 바둑 프로그램 경쟁, 구글이 페이스북에 리드 * 바둑은 경우의 수가 많아 컴퓨터가 인간을 넘어서기 어려움을 보여주는 사례로 꼽혀 왔 으며, 바로 그런 이유로 인공지능 개발에 매진하는 구글과 페이스북은 바둑 프로그램 개 발 경쟁을 벌여 왔으며, 프로 9 단에 도전장을 낸 구글이 일단 한발 앞서 가는

More information

Artificial Intelligence: Assignment 3 Seung-Hoon Na November 30, Sarsa와 Q-learning Windy Gridworld Windy gridworld는 (Sutton 교재 연습문제 6.5) 다음

Artificial Intelligence: Assignment 3 Seung-Hoon Na November 30, Sarsa와 Q-learning Windy Gridworld Windy gridworld는 (Sutton 교재 연습문제 6.5) 다음 Artificil Intelligence: Assignment 3 Seung-Hoon N November 30, 2017 1 1.1 Srs와 Q-lerning Windy Gridworld Windy gridworld는 (Sutton 교재 연습문제 6.5) 다음 그림과 같이 8 7 Grid world 로, Agent는 up, down, right, left의

More information

(Hyunoo Shim) 1 / 24 (Discrete-time Markov Chain) * 그림 이산시간이다연쇄 (chain) 이다왜 Markov? (See below) ➀ 이산시간연쇄 (Discrete-time chain): : Y Y 의상태공간 = {0, 1, 2,..., n} Y n Y 의 n 시점상태 {Y n = j} Y 가 n 시점에상태 j 에있는사건

More information

<4D6963726F736F667420576F7264202D20B1E2C8B9BDC3B8AEC1EE2DC0E5C7F5>

<4D6963726F736F667420576F7264202D20B1E2C8B9BDC3B8AEC1EE2DC0E5C7F5> 주간기술동향 2016. 5.18. 컴퓨터 비전과 인공지능 장혁 한국전자통신연구원 선임연구원 최근 많은 관심을 받고 있는 인공지능(Artificial Intelligence: AI)의 성과는 뇌의 작동 방식과 유사한 딥 러닝의 등장에 기인한 바가 크다. 이미 미국과 유럽 등 AI 선도국에서는 인공지능 연구에서 인간 뇌 이해의 중요성을 인식하고 관련 대형 프로젝트들을

More information

<4D6963726F736F667420576F7264202D20C3D6BDC52049435420C0CCBDB4202D20BAB9BBE7BABB>

<4D6963726F736F667420576F7264202D20C3D6BDC52049435420C0CCBDB4202D20BAB9BBE7BABB> 최신 ICT 이슈 최신 ICT 이슈 알파고의 심층강화학습을 뒷받침한 H/W 와 S/W 환경의 진화 * 알파고의 놀라운 점은 바둑의 기본규칙조차 입력하지 않았지만 승리 방식을 스스로 알아 냈다는 것이며, 알파고의 핵심기술인 심층강화학습이 급속도로 발전한 배경에는 하드웨 어의 진화와 함께 오픈소스화를 통해 발전하는 AI 관련 소프트웨어들이 자리하고 있음 2014

More information

Ch 1 머신러닝 개요.pptx

Ch 1 머신러닝 개요.pptx Chapter 1. < > :,, 2017. Slides Prepared by,, Biointelligence Laboratory School of Computer Science and Engineering Seoul National University 1.1 3 1.2... 7 1.3 10 1.4 16 1.5 35 2 1 1.1 n,, n n Artificial

More information

김기남_ATDC2016_160620_[키노트].key

김기남_ATDC2016_160620_[키노트].key metatron Enterprise Big Data SKT Metatron/Big Data Big Data Big Data... metatron Ready to Enterprise Big Data Big Data Big Data Big Data?? Data Raw. CRM SCM MES TCO Data & Store & Processing Computational

More information

PowerPoint 프레젠테이션

PowerPoint 프레젠테이션 I. 문서표준 1. 문서일반 (HY중고딕 11pt) 1-1. 파일명명체계 1-2. 문서등록정보 2. 표지표준 3. 개정이력표준 4. 목차표준 4-1. 목차슬라이드구성 4-2. 간지슬라이드구성 5. 일반표준 5-1. 번호매기기구성 5-2. 텍스트박스구성 5-3. 테이블구성 5-4. 칼라테이블구성 6. 적용예제 Machine Learning Credit Scoring

More information

PowerPoint 프레젠테이션

PowerPoint 프레젠테이션 ETRI, Kim Kwihoon (kwihooi@etri.re.kr) 1 RL overview & RL 에주목하는이유? 2 RL Tech. Tree 3 Model-based RL vs Model-free RL 4 몇가지사례들 5 Summary 2 AI Framework KSB AI Framework BeeAI,, Edge Computing EdgeX,, AI

More information

methods.hwp

methods.hwp 1. 교과목 개요 심리학 연구에 기저하는 기본 원리들을 이해하고, 다양한 심리학 연구설계(실험 및 비실험 설계)를 학습하여, 독립된 연구자로서의 기본적인 연구 설계 및 통계 분석능력을 함양한다. 2. 강의 목표 심리학 연구자로서 갖추어야 할 기본적인 지식들을 익힘을 목적으로 한다. 3. 강의 방법 강의, 토론, 조별 발표 4. 평가방법 중간고사 35%, 기말고사

More information

3 Gas Champion : MBB : IBM BCS PO : 2 BBc : : /45

3 Gas Champion : MBB : IBM BCS PO : 2 BBc : : /45 3 Gas Champion : MBB : IBM BCS PO : 2 BBc : : 20049 0/45 Define ~ Analyze Define VOB KBI R 250 O 2 2.2% CBR Gas Dome 1290 CTQ KCI VOC Measure Process Data USL Target LSL Mean Sample N StDev (Within) StDev

More information

Buy one get one with discount promotional strategy

Buy one get one with discount promotional strategy Buy one get one with discount Promotional Strategy Kyong-Kuk Kim, Chi-Ghun Lee and Sunggyun Park ISysE Department, FEG 002079 Contents Introduction Literature Review Model Solution Further research 2 ISysE

More information

사회통계포럼

사회통계포럼 wcjang@snu.ac.kr Acknowledgements Dr. Roger Peng Coursera course. https://github.com/rdpeng/courses Creative Commons by Attribution /. 10 : SNS (twitter, facebook), (functional data) : (, ),, /Data Science

More information

PowerPoint 프레젠테이션

PowerPoint 프레젠테이션 2 nd DLCAT 2019.07.04 Contents 1. 2. ML-agents Tutorial 2 3 4 Reinforcement Learning 5 Action (a) Jump, forward, backward, run, Agent State (s) Position of agent, enemy, coins Reward (r) Reward Reward

More information

슬라이드 1

슬라이드 1 장연립방정식을 풀기위한반복법. 선형시스템 : Guss-Sedel. 비선형시스템 . 선형시스템 : Guss-Sedel (/0) 반복법은초기근을가정한후에더좋은근의값을추정하는체계적인절차를이용한다. G-S 방법은선형대수방정식을푸는반복법중에서 가장보편적으로사용되는방법이다. 개의방정식에서 인 ( 대각원소들이모두 0 이아닌 ) 경우를다루자. j j b j b j j j

More information

C# Programming Guide - Types

C# Programming Guide - Types C# Programming Guide - Types 최도경 lifeisforu@wemade.com 이문서는 MSDN 의 Types 를요약하고보충한것입니다. http://msdn.microsoft.com/enus/library/ms173104(v=vs.100).aspx Types, Variables, and Values C# 은 type 에민감한언어이다. 모든

More information

Introduction to Deep learning

Introduction to Deep learning Introduction to Deep learning Youngpyo Ryu 동국대학교수학과대학원응용수학석사재학 youngpyoryu@dongguk.edu 2018 년 6 월 30 일 Youngpyo Ryu (Dongguk Univ) 2018 Daegu University Bigdata Camp 2018 년 6 월 30 일 1 / 66 Overview 1 Neuron

More information

<C7A5C1F620BEE7BDC4>

<C7A5C1F620BEE7BDC4> 연세대학교 상경대학 경제연구소 Economic Research Institute Yonsei Universit 서울시 서대문구 연세로 50 50 Yonsei-ro, Seodaemun-gS gu, Seoul, Korea TEL: (+82-2) 2123-4065 FAX: (+82- -2) 364-9149 E-mail: yeri4065@yonsei.ac. kr http://yeri.yonsei.ac.kr/new

More information

歯목차.PDF

歯목차.PDF A Study on The Effects of User Mental Images on Product Form -Concentrated on Implicit and Explicit Memory - 200012 1. 1-1. ---------------------------------------1 1-2. -----------------------------------2

More information

산선생의 집입니다. 환영해요

산선생의 집입니다. 환영해요 Biped Walking Robot Biped Walking Robot Simulation Program Down(Visual Studio 6.0 ) ). Version.,. Biped Walking Robot - Project Degree of Freedom : 12(,,, 12) :,, : Link. Kinematics. 1. Z (~ Diablo Set

More information

<B4EBC7D0BCF6C7D02DBBEFB0A2C7D4BCF62E687770>

<B4EBC7D0BCF6C7D02DBBEFB0A2C7D4BCF62E687770> 삼각함수. 삼각함수의덧셈정리 삼각함수의덧셈정리 삼각함수 sin (α + β ), cos (α + β ), tan (α + β ) 등을 α 또는 β 의삼각함수로나 타낼수있다. 각 α 와각 β 에대하여 α >0, β >0이고 0 α - β < β 를만족한다고가정하 자. 다른경우에도같은방법으로증명할수있다. 각 α 와각 β 에대하여 θ = α - β 라고놓자. 위의그림에서원점에서거리가

More information

Multi-pass Sieve를 이용한 한국어 상호참조해결 반-자동 태깅 도구

Multi-pass Sieve를 이용한 한국어 상호참조해결 반-자동 태깅 도구 Siamese Neural Network 박천음 강원대학교 Intelligent Software Lab. Intelligent Software Lab. Intro. S2Net Siamese Neural Network(S2Net) 입력 text 들을 concept vector 로표현하기위함에기반 즉, similarity 를위해가중치가부여된 vector 로표현

More information

SNU =10100 =minusby by1000 ÇÁto0.03exÇÁto0.03exÇÁ=10100 =minusby by1000 ·Îto0.03ex·Îto0.03ex·Î=10100 =minusby by1000

SNU =10100 =minusby by1000 ÇÁto0.03exÇÁto0.03exÇÁ=10100 =minusby by1000 ·Îto0.03ex·Îto0.03ex·Î=10100 =minusby by1000 SNU 4190.210 프로그래밍 원리 (Principles of Programming) Part III Prof. Kwangkeun Yi 차례 1 값중심 vs 물건중심프로그래밍 (applicative vs imperative programming) 2 프로그램의이해 : 환경과메모리 (environment & memory) 다음 1 값중심 vs 물건중심프로그래밍

More information

장연립방정식을풀기위한반복법 12.1 선형시스템 : Gauss-Seidel 12.2 비선형시스템 12.1 선형시스템 : Gauss-Seidel (1/10) 반복법은초기근을가정한후에더좋은근의값을추정하는체계적인절차를이용한다. G-S 방법은선형대수방정

장연립방정식을풀기위한반복법 12.1 선형시스템 : Gauss-Seidel 12.2 비선형시스템 12.1 선형시스템 : Gauss-Seidel (1/10) 반복법은초기근을가정한후에더좋은근의값을추정하는체계적인절차를이용한다. G-S 방법은선형대수방정 . 선형시스템 : GussSedel. 비선형시스템. 선형시스템 : GussSedel (/0) 반복법은초기근을가정한후에더좋은근의값을추정하는체계적인절차를이용한다. GS 방법은선형대수방정식을푸는반복법중에서 가장보편적으로사용되는방법이다. 개의방정식에서 인 ( 대각원소들이모두 0 이아닌 ) 경우를다루자. j j b j j b j j 여기서 j b j j j 현재반복단계

More information

Microsoft PowerPoint - ìž—ë²€ëflflëfiœ_ê°ŁíŽflíŁŽì−µ_엸미뇟_2ì°¨_ ppt [ퟸ펟 모ëfiœ]

Microsoft PowerPoint - ìž—ë²€ëflflëfiœ_ê°ŁíŽflíŁŽì−µ_엸미뇟_2ì°¨_ ppt [ퟸ펟 모ëfiœ] 임베디드개발자를위한강화학습기초 Wrien by 박 철 (e2g1234@naver.com) 목차 강화학습의개요 확률로본강화학습 MDP(Markov Decision Procss) 가치함수, 큐함수, 정책 벨만방정식 Mone Carlo 부터 Q-learning 까지 Frozen Lake 강화학습의개요 Inelligence The capaciy for raional

More information

chap 5: Trees

chap 5: Trees 5. Threaded Binary Tree 기본개념 n 개의노드를갖는이진트리에는 2n 개의링크가존재 2n 개의링크중에 n + 1 개의링크값은 null Null 링크를다른노드에대한포인터로대체 Threads Thread 의이용 ptr left_child = NULL 일경우, ptr left_child 를 ptr 의 inorder predecessor 를가리키도록변경

More information

확률과통계 강의자료-1.hwp

확률과통계 강의자료-1.hwp 1. 통계학이란? 1.1 수학적 모형 실험 또는 증명을 통하여 자연현상을 분석하기 위한 수학적인 모형 1 결정모형 (deterministic model) - 뉴톤의 운동방정식 : - 보일-샤를의 법칙 : 일정량의 기체의 부피( )는 절대 온도()에 정비례하고, 압력( )에 반비례한다. 2 확률모형 (probabilistic model) - 주사위를 던질 때

More information

= ``...(2011), , (.)''

= ``...(2011), , (.)'' Finance Lecture Note Series 사회과학과 수학 제2강. 미분 조 승 모2 영남대학교 경제금융학부 학습목표. 미분의 개념: 미분과 도함수의 개념에 대해 알아본다. : 실제로 미분을 어떻게 하는지 알아본다. : 극값의 개념을 알아보고 미분을 통해 어떻게 구하는지 알아본다. 4. 미분과 극한: 미분을 이용하여 극한값을 구하는 방법에 대해 알아본다.

More information

PowerPoint 프레젠테이션

PowerPoint 프레젠테이션 [ 인공지능입문랩 ] SEOPT ( Study on the Elements Of Python and Tensorflow ) 인공지능 + 데이터분석목적 / 방법 / 기법 / 도구 + Python Programming 기초 + NumpyArray(Tensor) youngdocseo@gmail.com 1 *3 시간 / 회 구분일자내용비고 1 회 0309

More information

1-1-basic-43p

1-1-basic-43p A Basic Introduction to Artificial Neural Network (ANN) 도대체인공신경망이란무엇인가? INDEX. Introduction to Artificial neural networks 2. Perceptron 3. Backpropagation Neural Network 4. Hopfield memory 5. Self Organizing

More information

, ( ) 1) *.. I. (batch). (production planning). (downstream stage) (stockout).... (endangered). (utilization). *

, ( ) 1) *.. I. (batch). (production planning). (downstream stage) (stockout).... (endangered). (utilization). * , 40 12 (2006 6) 1) *.. I. (batch). (production planning). (downstream stage) (stockout).... (endangered). (utilization). * 40, 40 12 (EPQ; economic production quantity). (setup cost) (setup time) Bradley

More information

164

164 에너지경제연구제 16 권제 1 호 Korean Energy Economic Review Volume 16, Number 1, March 2017 : pp. 163~190 학술 시변파라미터일반화해밀턴 -plucking 모형을이용한전력소비의선제적경기국면판단활용연구 * 163 164 165 166 ~ 167 ln 168 [ 그림 1] 제조업전력판매량 (a) 로그변환

More information

Microsoft PowerPoint - 실습소개와 AI_ML_DL_배포용.pptx

Microsoft PowerPoint - 실습소개와 AI_ML_DL_배포용.pptx 실습강의개요와인공지능, 기계학습, 신경망 < 인공지능입문 > 강의 허민오 Biointelligence Laboratory School of Computer Science and Engineering Seoul National University 실습강의개요 노트북을꼭지참해야하는강좌 신경망소개 (2 주, 허민오 ) Python ( 프로그래밍언어 ) (2주, 김준호

More information

Lecture12_Bayesian_Decision_Thoery

Lecture12_Bayesian_Decision_Thoery Bayesian Decision Theory Jeonghun Yoon Terms Random variable Bayes rule Classification Decision Theory Bayes classifier Conditional independence Naive Bayes Classifier Laplacian smoothing MLE / Likehood

More information

DIY 챗봇 - LangCon

DIY 챗봇 - LangCon without Chatbot Builder & Deep Learning bage79@gmail.com Chatbot Builder (=Dialogue Manager),. We need different chatbot builders for various chatbot services. Chatbot builders can t call some external

More information

Probabilistic graphical models: Assignment 3 Seung-Hoon Na June 7, Gibbs sampler for Beta-Binomial Binomial및 beta분포는 다음과 같이 정의된다. k Bin(n, θ):

Probabilistic graphical models: Assignment 3 Seung-Hoon Na June 7, Gibbs sampler for Beta-Binomial Binomial및 beta분포는 다음과 같이 정의된다. k Bin(n, θ): Probabilistic graphical models: Assignment 3 Seung-Hoon Na June 7, 207 Gibbs sampler for Beta-Binomial Binomial및 beta분포는 다음과 같이 정의된다. k Bin(n, θ): binomial distribution은 성공확률이 θ인 시도에서, n번 시행 중 k번 성공할 확률

More information

_KrlGF발표자료_AI

_KrlGF발표자료_AI AI 의과거와현재그리고내일 AI is the New Electricity 2017.09.15 AI! 2 Near Future of Super Intelligence? *source l http://www.motherjones.com/media/2013/05/robots-artificial-intelligence-jobs-automation 3 4 I think

More information

설계란 무엇인가?

설계란 무엇인가? 금오공과대학교 C++ 프로그래밍 jhhwang@kumoh.ac.kr 컴퓨터공학과 황준하 6 강. 함수와배열, 포인터, 참조목차 함수와포인터 주소값의매개변수전달 주소의반환 함수와배열 배열의매개변수전달 함수와참조 참조에의한매개변수전달 참조의반환 프로그래밍연습 1 /15 6 강. 함수와배열, 포인터, 참조함수와포인터 C++ 매개변수전달방법 값에의한전달 : 변수값,

More information

2002년 2학기 자료구조

2002년 2학기 자료구조 자료구조 (Data Structures) Chapter 1 Basic Concepts Overview : Data (1) Data vs Information (2) Data Linear list( 선형리스트 ) - Sequential list : - Linked list : Nonlinear list( 비선형리스트 ) - Tree : - Graph : (3)

More information

쉽게배우는알고리즘 6장. 해시테이블 테이블 Hash Table

쉽게배우는알고리즘 6장. 해시테이블 테이블 Hash Table 쉽게배우는알고리즘 6장. 해시테이블 테이블 Hash Table http://academy.hanb.co.kr 6장. 해시테이블 테이블 Hash Table 사실을많이아는것보다는이론적틀이중요하고, 기억력보다는생각하는법이더중요하다. - 제임스왓슨 - 2 - 학습목표 해시테이블의발생동기를이해한다. 해시테이블의원리를이해한다. 해시함수설계원리를이해한다. 충돌해결방법들과이들의장단점을이해한다.

More information

PowerPoint 프레젠테이션

PowerPoint 프레젠테이션 Chapter Radar Cross Section ( R C S ) 엄효준교수 한국과학기술원 Contents.1. RCS Definition.. RCS Prediction Methods.3. RCS Dependency on Aspect Angle and Frequency.4. RCS Dependency on Polarization.5. RCS of Simple

More information

OCW_C언어 기초

OCW_C언어 기초 초보프로그래머를위한 C 언어기초 4 장 : 연산자 2012 년 이은주 학습목표 수식의개념과연산자및피연산자에대한학습 C 의알아보기 연산자의우선순위와결합방향에대하여알아보기 2 목차 연산자의기본개념 수식 연산자와피연산자 산술연산자 / 증감연산자 관계연산자 / 논리연산자 비트연산자 / 대입연산자연산자의우선순위와결합방향 조건연산자 / 형변환연산자 연산자의우선순위 연산자의결합방향

More information

중간고사

중간고사 중간고사 예제 1 사용자로부터받은두개의숫자 x, y 중에서큰수를찾는알고리즘을의사코드로작성하시오. Step 1: Input x, y Step 2: if (x > y) then MAX

More information

슬라이드 1

슬라이드 1 Pairwise Tool & Pairwise Test NuSRS 200511305 김성규 200511306 김성훈 200614164 김효석 200611124 유성배 200518036 곡진화 2 PICT Pairwise Tool - PICT Microsoft 의 Command-line 기반의 Free Software www.pairwise.org 에서다운로드후설치

More information

融合先验信息到三维重建 组会报 告[2]

融合先验信息到三维重建  组会报 告[2] [1] Crandall D, Owens A, Snavely N, et al. "Discrete-continuous optimization for large-scale structure from motion." (CVPR), 2011 [2] Crandall D, Owens A, Snavely N, et al. SfM with MRFs: Discrete-Continuous

More information

<4D F736F F F696E74202D2035BBF3C6F2C7FC5FBCF8BCF6B9B0C1FA2E BC8A3C8AF20B8F0B5E55D>

<4D F736F F F696E74202D2035BBF3C6F2C7FC5FBCF8BCF6B9B0C1FA2E BC8A3C8AF20B8F0B5E55D> 5. 상평형 : 순수물질 이광남 5. 상평형 : 순수물질 상전이 phase transition 서론 ~ 조성의변화없는상변화 5. 상평형 : 순수물질 전이열역학 5. 안정성조건 G ng ng n G G 자발적변화 G < 0 G > G or 물질은가장낮은몰Gibbs 에너지를갖는상 가장안정한상 으로변화하려는경향 5. 상평형 : 순수물질 3 5. 압력에따른Gibbs

More information

4 CD Construct Special Model VI 2 nd Order Model VI 2 Note: Hands-on 1, 2 RC 1 RLC mass-spring-damper 2 2 ζ ω n (rad/sec) 2 ( ζ < 1), 1 (ζ = 1), ( ) 1

4 CD Construct Special Model VI 2 nd Order Model VI 2 Note: Hands-on 1, 2 RC 1 RLC mass-spring-damper 2 2 ζ ω n (rad/sec) 2 ( ζ < 1), 1 (ζ = 1), ( ) 1 : LabVIEW Control Design, Simulation, & System Identification LabVIEW Control Design Toolkit, Simulation Module, System Identification Toolkit 2 (RLC Spring-Mass-Damper) Control Design toolkit LabVIEW

More information

01-07-0.hwp

01-07-0.hwp 선거와 시장경제Ⅱ - 2000 국회의원 선거시장을 중심으로 - 발간사 차 례 표 차례 그림 차례 제1부 시장 메커니즘과 선거시장 Ⅰ. 서 론 Ⅱ. 선거시장의 원리와 운영방식 정당시장 지역구시장 문의사항은 Q&A를 참고하세요 정당시장 한나라당 사기 종목주가그래프 c 2000 중앙일보 Cyber중앙 All rights reserved. Terms

More information

<313120C0AFC0FCC0DA5FBECBB0EDB8AEC1F2C0BB5FC0CCBFEBC7D15FB1E8C0BAC5C25FBCF6C1A42E687770>

<313120C0AFC0FCC0DA5FBECBB0EDB8AEC1F2C0BB5FC0CCBFEBC7D15FB1E8C0BAC5C25FBCF6C1A42E687770> 한국지능시스템학회 논문지 2010, Vol. 20, No. 3, pp. 375-379 유전자 알고리즘을 이용한 강인한 Support vector machine 설계 Design of Robust Support Vector Machine Using Genetic Algorithm 이희성 홍성준 이병윤 김은태 * Heesung Lee, Sungjun Hong,

More information

PowerPoint 프레젠테이션

PowerPoint 프레젠테이션 1 2 3 3-1 3-2 3-3 Large-scale data 개요기계학습기반자료분석기술교통분석에기계학습적용사례 1 CNN 을활용한대중교통수요예측 2 RNN 을활용한공로통행속도예측 3 DQN 을이용한최적교통신호제어 4 시연 Large-Scale Data 기술요소 전수자료 이력자료누적 ( 자료를지우지않음 ) Hadoop HDFS MapReduce 병렬 DBMS

More information

탐색적데이터분석 (Exploratory Data Analysis) 데이터가지닌주요특성 / 개괄을 ( 우선적으로 ) 탐구함으로써 데이터분석을시도하려는형태 모델링이나가설을세우고이를검증하기보다데이터자체 가우리에게말하려고하는것을알아내는것의중요성을강 조하며시각화플롯을많이활용 J

탐색적데이터분석 (Exploratory Data Analysis) 데이터가지닌주요특성 / 개괄을 ( 우선적으로 ) 탐구함으로써 데이터분석을시도하려는형태 모델링이나가설을세우고이를검증하기보다데이터자체 가우리에게말하려고하는것을알아내는것의중요성을강 조하며시각화플롯을많이활용 J 탐색적데이터분석 Supervised Learning 탐색적데이터분석 (Exploratory Data Analysis) 데이터가지닌주요특성 / 개괄을 ( 우선적으로 ) 탐구함으로써 데이터분석을시도하려는형태 모델링이나가설을세우고이를검증하기보다데이터자체 가우리에게말하려고하는것을알아내는것의중요성을강 조하며시각화플롯을많이활용 John Tukey 가그중요성을강조 S 와

More information

Artificial Intelligence: Assignment 5 Seung-Hoon Na December 15, Numpy: Tutorial 다음 자료를 참조하여 numpy기본을 공부하시오.

Artificial Intelligence: Assignment 5 Seung-Hoon Na December 15, Numpy: Tutorial 다음 자료를 참조하여 numpy기본을 공부하시오. Artificial Intelligence: Assignment 5 Seung-Hoon Na December 15, 2018 1 Numpy: Tutorial 다음 자료를 참조하여 numpy기본을 공부하시오. https://docs.scipy.org/doc/numpy-1.15.0/user/quickstart.html https://www.machinelearningplus.com/python/

More information

Chapter4.hwp

Chapter4.hwp Ch. 4. Spectral Density & Correlation 4.1 Energy Spectral Density 4.2 Power Spectral Density 4.3 Time-Averaged Noise Representation 4.4 Correlation Functions 4.5 Properties of Correlation Functions 4.6

More information

KAKAO AI REPORT Vol.01

KAKAO AI REPORT Vol.01 KAKAO AI REPORT Vol.01 2017.03 import kakao.ai.dataset.daisy import kakao.ai.image import kakao.ai.classifier import mxnet as mx def Conv(data, num_filter, kernel=(1, 1), stride=(1, 1), pad=(0, 0), name=none,

More information

PowerPoint 프레젠테이션

PowerPoint 프레젠테이션 03 모델변환과시점변환 01 기하변환 02 계층구조 Modeling 03 Camera 시점변환 기하변환 (Geometric Transformation) 1. 이동 (Translation) 2. 회전 (Rotation) 3. 크기조절 (Scale) 4. 전단 (Shear) 5. 복합변환 6. 반사변환 7. 구조변형변환 2 기하변환 (Geometric Transformation)

More information

딥러닝 첫걸음

딥러닝 첫걸음 딥러닝첫걸음 4. 신경망과분류 (MultiClass) 다범주분류신경망 Categorization( 분류 ): 예측대상 = 범주 이진분류 : 예측대상범주가 2 가지인경우 출력층 node 1 개다층신경망분석 (3 장의내용 ) 다범주분류 : 예측대상범주가 3 가지이상인경우 출력층 node 2 개이상다층신경망분석 비용함수 : Softmax 함수사용 다범주분류신경망

More information

해양모델링 2장5~18 2012.7.27 12:26 AM 페이지6 6 오픈소스 소프트웨어를 이용한 해양 모델링 2.1.2 물리적 해석 식 (2.1)의 좌변은 어떤 물질의 단위 시간당 변화율을 나타내며, 우변은 그 양을 나타낸 다. k 5 0이면 C는 처음 값 그대로 농

해양모델링 2장5~18 2012.7.27 12:26 AM 페이지6 6 오픈소스 소프트웨어를 이용한 해양 모델링 2.1.2 물리적 해석 식 (2.1)의 좌변은 어떤 물질의 단위 시간당 변화율을 나타내며, 우변은 그 양을 나타낸 다. k 5 0이면 C는 처음 값 그대로 농 해양모델링 2장5~18 2012.7.27 12:26 AM 페이지5 02 모델의 시작 요약 이 장에서는 감쇠 문제를 이용하여 여러분을 수치 모델링 세계로 인도한다. 유한 차분법 의 양해법과 음해법 그리고 일관성, 정확도, 안정도, 효율성 등을 설명한다. 첫 번째 수치 모델의 작성과 결과를 그림으로 보기 위해 FORTRAN 프로그램과 SciLab 스크립트가 사용된다.

More information

Probability Overview Naive Bayes Classifier Director of TEAMLAB Sungchul Choi

Probability Overview Naive Bayes Classifier Director of TEAMLAB Sungchul Choi Probability Overview Naive Bayes Classifier Director of TEAMLAB Sungchul Choi 머신러닝의학습방법들 - Gradient descent based learning - Probability theory based learning - Information theory based learning - Distance

More information

<B9CCB5F0BEEEB0E6C1A6BFCDB9AEC8AD5F31322D32C8A35FBABBB9AE5FC3CAC6C731BCE25F6F6B5F32303134303531362E687770>

<B9CCB5F0BEEEB0E6C1A6BFCDB9AEC8AD5F31322D32C8A35FBABBB9AE5FC3CAC6C731BCE25F6F6B5F32303134303531362E687770> 미디어 경제와 문화 2014년 제12권 2호, 7 43 www.jomec.com TV광고 시청률 예측방법 비교연구 프로그램의 장르 구분에 따른 차이를 중심으로 1)2) 이인성* 단국대학교 커뮤니케이션학과 박사과정 박현수** 단국대학교 커뮤니케이션학부 교수 본 연구는 TV프로그램의 장르에 따라 광고시청률 예측모형들의 정확도를 비교하고 자 하였다. 본 연구에서

More information

슬라이드 1

슬라이드 1 빅데이터분석을위한데이터마이닝방법론 SAS Enterprise Miner 활용사례를중심으로 9 주차 예측모형에대한평가 Assessment of Predictive Model 최종후, 강현철 차례 6. 모형평가의기본개념 6.2 모델비교 (Model Comparison) 노드 6.3 임계치 (Cutoff) 노드 6.4 의사결정 (Decisions) 노드 6.5 기타모형화노드들

More information

The characteristic analysis of winners and losers in curling: Focused on shot type, shot accuracy, blank end and average score SungGeon Park 1 & Soowo

The characteristic analysis of winners and losers in curling: Focused on shot type, shot accuracy, blank end and average score SungGeon Park 1 & Soowo The characteristic analysis of winners and losers in curling: Focused on shot type, shot accuracy, blank end and average score SungGeon Park 1 & Soowon Lee 2 * 1 Program of Software Convergence, Soongsil

More information

untitled

untitled Math. Statistics: Statistics? 1 What is Statistics? 1. (collection), (summarization), (analyzing), (presentation) (information) (statistics).., Survey, :, : : QC, 6-sigma, Data Mining(CRM) (Econometrics)

More information

소프트웨어공학 Tutorial #2: StarUML Eun Man Choi

소프트웨어공학 Tutorial #2: StarUML Eun Man Choi 소프트웨어공학 Tutorial #2: StarUML Eun Man Choi emchoi@dgu.ac.kr Contents l StarUML 개요 l StarUML 소개및특징 l 주요기능 l StarUML 화면소개 l StarUML 설치 l StarUML 다운 & 설치하기 l 연습 l 사용사례다이어그램그리기 l 클래스다이어그램그리기 l 순서다이어그램그리기 2

More information

Data Industry White Paper

Data Industry White Paper 2017 2017 Data Industry White Paper 2017 1 3 1 2 3 Interview 1 ICT 1 Recommendation System * 98 2017 Artificial 3 Neural NetworkArtificial IntelligenceAI 2 AlphaGo 1 33 Search Algorithm Deep Learning IBM

More information

Microsoft PowerPoint - 27.pptx

Microsoft PowerPoint - 27.pptx 이산수학 () n-항관계 (n-ary Relations) 2011년봄학기 강원대학교컴퓨터과학전공문양세 n-ary Relations (n-항관계 ) An n-ary relation R on sets A 1,,A n, written R:A 1,,A n, is a subset R A 1 A n. (A 1,,A n 에대한 n- 항관계 R 은 A 1 A n 의부분집합이다.)

More information

<4D F736F F F696E74202D203137C0E55FBFACBDC0B9AEC1A6BCD6B7E7BCC72E707074>

<4D F736F F F696E74202D203137C0E55FBFACBDC0B9AEC1A6BCD6B7E7BCC72E707074> SIMATIC S7 Siemens AG 2004. All rights reserved. Date: 22.03.2006 File: PRO1_17E.1 차례... 2 심벌리스트... 3 Ch3 Ex2: 프로젝트생성...... 4 Ch3 Ex3: S7 프로그램삽입... 5 Ch3 Ex4: 표준라이브러리에서블록복사... 6 Ch4 Ex1: 실제구성을 PG 로업로드하고이름변경......

More information

DBPIA-NURIMEDIA

DBPIA-NURIMEDIA FPS게임 구성요소의 중요도 분석방법에 관한 연구 2 계층화 의사결정법에 의한 요소별 상관관계측정과 대안의 선정 The Study on the Priority of First Person Shooter game Elements using Analytic Hierarchy Process 주 저 자 : 배혜진 에이디 테크놀로지 대표 Bae, Hyejin AD Technology

More information

비트와바이트 비트와바이트 비트 (Bit) : 2진수값하나 (0 또는 1) 를저장할수있는최소메모리공간 1비트 2비트 3비트... n비트 2^1 = 2개 2^2 = 4개 2^3 = 8개... 2^n 개 1 바이트는 8 비트 2 2

비트와바이트 비트와바이트 비트 (Bit) : 2진수값하나 (0 또는 1) 를저장할수있는최소메모리공간 1비트 2비트 3비트... n비트 2^1 = 2개 2^2 = 4개 2^3 = 8개... 2^n 개 1 바이트는 8 비트 2 2 비트연산자 1 1 비트와바이트 비트와바이트 비트 (Bit) : 2진수값하나 (0 또는 1) 를저장할수있는최소메모리공간 1비트 2비트 3비트... n비트 2^1 = 2개 2^2 = 4개 2^3 = 8개... 2^n 개 1 바이트는 8 비트 2 2 진수법! 2, 10, 16, 8! 2 : 0~1 ( )! 10 : 0~9 ( )! 16 : 0~9, 9 a, b,

More information

09구자용(489~500)

09구자용(489~500) The Study on the Grid Size Regarding Spatial Interpolation for Local Climate Maps* Cha Yong Ku** Young Ho Shin*** Jae-Won Lee**** Hee-Soo Kim*****.,...,,,, Abstract : Recent global warming and abnormal

More information

보고싶었던 Deep Learning과 OpenCV를이용한이미지처리과정에대해공부를해볼수있으며더나아가 Deep Learning기술을이용하여논문을작성하는데많은도움을받을수있으며아직배우는단계에있는저에게는기존의연구를따라해보는것만으로도큰발전이있다고생각했습니다. 그래서이번 DSP스마

보고싶었던 Deep Learning과 OpenCV를이용한이미지처리과정에대해공부를해볼수있으며더나아가 Deep Learning기술을이용하여논문을작성하는데많은도움을받을수있으며아직배우는단계에있는저에게는기존의연구를따라해보는것만으로도큰발전이있다고생각했습니다. 그래서이번 DSP스마 특성화사업참가결과보고서 작성일 2017 12.22 학과전자공학과 참가활동명 EATED 30 프로그램지도교수최욱 연구주제명 Machine Learning 을이용한얼굴학습 학번 201301165 성명조원 I. OBJECTIVES 사람들은새로운사람들을보고인식을하는데걸리는시간은 1초채되지않다고합니다. 뿐만아니라사람들의얼굴을인식하는인식률은무려 97.5% 정도의매우높은정확도를가지고있습니다.

More information

2 : (Seungsoo Lee et al.: Generating a Reflectance Image from a Low-Light Image Using Convolutional Neural Network) (Regular Paper) 24 4, (JBE

2 : (Seungsoo Lee et al.: Generating a Reflectance Image from a Low-Light Image Using Convolutional Neural Network) (Regular Paper) 24 4, (JBE 2: (Seungsoo Lee et al.: Generating a Reflectance Image from a Low-Light Image Using Convolutional Neural Network) (Regular Paper) 24 4, 2019 7 (JBE Vol. 24, No. 4, July 2019) https://doi.org/10.5909/jbe.2019.24.4.623

More information

PowerPoint 프레젠테이션

PowerPoint 프레젠테이션 Verilog: Finite State Machines CSED311 Lab03 Joonsung Kim, joonsung90@postech.ac.kr Finite State Machines Digital system design 시간에배운것과같습니다. Moore / Mealy machines Verilog 를이용해서어떻게구현할까? 2 Finite State

More information

Microsoft PowerPoint - ch07 - 포인터 pm0415

Microsoft PowerPoint - ch07 - 포인터 pm0415 2015-1 프로그래밍언어 7. 포인터 (Pointer), 동적메모리할당 2015 년 4 월 4 일 교수김영탁 영남대학교공과대학정보통신공학과 (Tel : +82-53-810-2497; Fax : +82-53-810-4742 http://antl.yu.ac.kr/; E-mail : ytkim@yu.ac.kr) Outline 포인터 (pointer) 란? 간접참조연산자

More information

제1강 인공지능 개념과 역사

제1강 인공지능 개념과 역사 인공지능개념과역사 < 인공지능입문 > 강의노트 장병탁서울대학교컴퓨터공학부 & 인지과학 / 뇌과학협동과정 http://bi.snu.ac.kr/~btzhang/ Version: 20180302 목차 인공지능의개념........ 3 연구분야............ 4 역사...... 6 패러다임........ 7 응용사례.......... 8 Reading Assignments.........

More information

RVC Robot Vaccum Cleaner

RVC Robot Vaccum Cleaner RVC Robot Vacuum 200810048 정재근 200811445 이성현 200811414 김연준 200812423 김준식 Statement of purpose Robot Vacuum (RVC) - An RVC automatically cleans and mops household surface. - It goes straight forward while

More information

Manufacturing6

Manufacturing6 σ6 Six Sigma, it makes Better & Competitive - - 200138 : KOREA SiGMA MANAGEMENT C G Page 2 Function Method Measurement ( / Input Input : Man / Machine Man Machine Machine Man / Measurement Man Measurement

More information

DBPIA-NURIMEDIA

DBPIA-NURIMEDIA The e-business Studies Volume 17, Number 6, December, 30, 2016:21~34 Received: 2016/12/04, Accepted: 2016/12/27 Revised: 2016/12/19, Published: 2016/12/30 [ABSTRACT] With the development of the Internet,

More information

À±½Â¿í Ãâ·Â

À±½Â¿í Ãâ·Â Representation, Encoding and Intermediate View Interpolation Methods for Multi-view Video Using Layered Depth Images The multi-view video is a collection of multiple videos, capturing the same scene at

More information

<BFACBDC0B9AEC1A6C7AEC0CC5F F E687770>

<BFACBDC0B9AEC1A6C7AEC0CC5F F E687770> IT OOKOOK 87 이론, 실습, 시뮬레이션 디지털논리회로 ( 개정 3 판 ) (Problem Solutions of hapter 9) . T 플립플롭으로구성된순서논리회로의해석 () 변수명칭부여 F-F 플립플롭의입력 :, F-F 플립플롭의출력 :, (2) 불대수식유도 플립플롭의입력 : F-F 플립플롭의입력 : F-F 플립플롭의출력 : (3) 상태표작성 이면,

More information

Microsoft PowerPoint - chap06-2pointer.ppt

Microsoft PowerPoint - chap06-2pointer.ppt 2010-1 학기프로그래밍입문 (1) chapter 06-2 참고자료 포인터 박종혁 Tel: 970-6702 Email: jhpark1@snut.ac.kr 한빛미디어 출처 : 뇌를자극하는 C프로그래밍, 한빛미디어 -1- 포인터의정의와사용 변수를선언하는것은메모리에기억공간을할당하는것이며할당된이후에는변수명으로그기억공간을사용한다. 할당된기억공간을사용하는방법에는변수명외에메모리의실제주소값을사용하는것이다.

More information

PowerPoint Presentation

PowerPoint Presentation RL 과 RC 회로의완전응답 기초회로이론 학습목표 2/42 RL 혹은 RC 회로를해석하는방법 완전해, 등차해, 특수해 RL 혹은 RC 회로에서완전응답, 과도응답, 정상상태응답을얻는방법 목차 3/42 1. RL 혹은 RC 회로의해석 2. 1차미분방정식의해 3. 무전원응답 4. 시정수 5. RL 혹은 RC 회로의 DC 전원응답 6. 연속스위칭회로 Section

More information

이 장에서 사용되는 MATLAB 명령어들은 비교적 복잡하므로 MATLAB 창에서 명령어를 직접 입력하지 않고 확장자가 m 인 text 파일을 작성하여 실행을 한다

이 장에서 사용되는 MATLAB 명령어들은 비교적 복잡하므로 MATLAB 창에서 명령어를 직접 입력하지 않고 확장자가 m 인 text 파일을 작성하여 실행을 한다 이장에서사용되는 MATLAB 명령어들은비교적복잡하므로 MATLAB 창에서명령어를직접입력하지않고확장자가 m 인 text 파일을작성하여실행을한다. 즉, test.m 과같은 text 파일을만들어서 MATLAB 프로그램을작성한후실행을한다. 이와같이하면길고복잡한 MATLAB 프로그램을작성하여실행할수있고, 오류가발생하거나수정이필요한경우손쉽게수정하여실행할수있는장점이있으며,

More information

(, sta*s*cal disclosure control) - (Risk) and (U*lity) (Synthe*c Data) 4. 5.

(, sta*s*cal disclosure control) - (Risk) and (U*lity) (Synthe*c Data) 4. 5. 1 (, ), ( ) 2 1. 2. (, sta*s*cal disclosure control) - (Risk) and (U*lity) - - 3. (Synthe*c Data) 4. 5. 3 1. + 4 1. 2.,. 3. K + [ ] 5 ' ', " ", " ". (SNS), '. K KT,, KG (PG), 'CSS'(Credit Scoring System)....,,,.

More information

ÀλçÀÌÆ®3È£

ÀλçÀÌÆ®3È£ http://policy.kasi.re.kr KASI INSIGHT 2013년 - 제3호 천문우주과학이 인류 사회에 기여한 주요 성과와 창조경제를 위한 역할 가능성 및 투자의 타당성 2013. 5 정 책 전 략 실 Contents 04 07 09 25 32 33 04 _ Korea Astronomy & Space Science Institute _ 05

More information

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE Dec.; 25(12),

THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE Dec.; 25(12), THE JOURNAL OF KOREAN INSTITUTE OF ELECTROMAGNETIC ENGINEERING AND SCIENCE. 2014 Dec.; 25(12), 12751283. http://dx.doi.org/10.5515/kjkiees.2014.25.12.1275 ISSN 1226-3133 (Print)ISSN 2288-226X (Online)

More information

G Power

G Power G Power 부산대학교통계학과조영석 1. G Power 란? 2. G Power 설치및실행 2.1 G Power 설치 2.2 G Power 실행 3. 검정 (Test) 3.1 가설검정 (Test of hypothesis) 3.2 검정력 (Power) 3.3 효과크기 (Effect size) 3.4 표본수산정 4. 분석 4.1 t- 검정 (t-test) 4.2

More information

untitled

untitled Mathematics 4 Statistics / 6. 89 Chapter 6 ( ), ( /) (Euclid geometry ( ), (( + )* /).? Archimedes,... (standard normal distriution, Gaussian distriution) X (..) (a, ). = ep{ } π σ a 6. f ( F ( = F( f

More information

레이아웃 1

레이아웃 1 CSE NEWSLETTER 부산대학교 정보컴퓨터공학전공 뉴스레터 01 03 07 09 12 @ PNU 여름호 (통권 제15호) 2016년 6월 정컴 소식 정컴행사, 학사일정, 정컴포커스(교수, 학생, 학과) 교수 동정 칼럼 (유영환 교수) 발행처 부산대학교 정보컴퓨터공학전공 동문 동정 해외 IT기업 재직 선배 이야기 주소 부산시 금정구 부산대학로 63번길 2

More information

제 3강 역함수의 미분과 로피탈의 정리

제 3강 역함수의 미분과 로피탈의 정리 제 3 강역함수의미분과로피탈의정리 역함수의미분 : 두실수 a b 와폐구갂 [ ab, ] 에서 -이고연속인함수 f 가 ( a, b) 미분가능하다고가정하자. 만일 f '( ) 0 이면역함수 f 은실수 f( ) 에서미분가능하고 ( f )'( f ( )) 이다. f '( ) 에서 증명 : 폐구갂 [ ab, ] 에서 -이고연속인함수 f 는증가함수이거나감소함수이다 (

More information

cha4_ocw.hwp

cha4_ocw.hwp 제 4장 확률 우리는 일상생활에서 확률이라는 용어를 많이 접하게 된다. 확률(probability)는 한자어로 확실할 확( 確 ), 비율 률( 率 )로 해석된다. 로또당첨확률, 야구 한국시리즈에서 특정 팀이 우승 할 확률, 흡연자가 폐암에 걸릴 확률, 집값이 오를 확률 등 수없이 많은 확률들이 현대생활 에서 사용되어지고 있다. 대부분의 일간신문에는 기상예보

More information

09권오설_ok.hwp

09권오설_ok.hwp (JBE Vol. 19, No. 5, September 2014) (Regular Paper) 19 5, 2014 9 (JBE Vol. 19, No. 5, September 2014) http://dx.doi.org/10.5909/jbe.2014.19.5.656 ISSN 2287-9137 (Online) ISSN 1226-7953 (Print) a) Reduction

More information

11이정민

11이정민 Co-Evolution between media and contents in the Ubiquitous era - A Study of the Format of Mind-Contents based on Won-Buddhism - Lee, Jung-min Korean National University of Arts : Keyword : Ubiquitous, Convergence,

More information

(2) 다중상태모형 (Hyunoo Shim) 1 / 2 (Coninuous-ime Markov Model) ➀ 전이가일어나는시점이산시간 : = 1, 2,, 4,... [ 연속시간 : 아무때나, T 1, T 2... * 그림 (2) 다중상태모형 ➁ 계산과정 이산시간 : 전이력 (force of ransiion) 정의안됨 전이확률 (ransiion probabiliy)

More information

슬라이드 1

슬라이드 1 16 장 Fourier 해석 16.1 사인함수를이용한곡선접합 16.2 연속 Fourier 급수 16.3 주파수영역과시간영역 16.4 Fourier 적분과변환 16.5 이산 Fourier 변환 (DFT) 16.6 파워스펙트럼 16.1 사인함수를이용한곡선접합 (1/5) 주기가 T 인주기함수 f() t = f( t+ T) 주기운동의가장기본 : 원운동 ( 코사인,

More information

untitled

untitled 전방향카메라와자율이동로봇 2006. 12. 7. 특허청전기전자심사본부유비쿼터스심사팀 장기정 전방향카메라와자율이동로봇 1 Omnidirectional Cameras 전방향카메라와자율이동로봇 2 With Fisheye Lens 전방향카메라와자율이동로봇 3 With Multiple Cameras 전방향카메라와자율이동로봇 4 With Mirrors 전방향카메라와자율이동로봇

More information