PowerPoint Presentation

Similar documents
PowerPoint 프레젠테이션

Introduction to Deep learning

1-1-basic-43p

딥러닝 첫걸음

신경망 (Neural Networks) < 인공지능입문 > 강의 허민오 Biointelligence Laboratory School of Computer Science and Engineering Seoul National University

Multi-pass Sieve를 이용한 한국어 상호참조해결 반-자동 태깅 도구

특집 2 부 3 신경회로망 신경회로망에대한연구는뇌신경생리학으로부터유래되어패턴인식이나연산기억장치, 최적화, 로봇제어, 문자인식, 음성인식, 신호처리등의분야로확대됐을뿐아니라경제, 경영분야의의사결정시스템에도응용되기에이르렀다. 최근에는데이터마이닝의주요기법으로손꼽히고있다. 신현

PowerPoint 프레젠테이션

Artificial Intelligence: Assignment 5 Seung-Hoon Na December 15, Numpy: Tutorial 다음 자료를 참조하여 numpy기본을 공부하시오.

04 Çмú_±â¼ú±â»ç

딥러닝튜토리얼 Deep Learning Tutorial - 신경망과딥러닝의이해 Understanding Neural Network & Deep Learning

의료영상분석에있어딥러닝의응용사례에대해살펴본다. 2 장에서는딥러닝의개요와관련주요기술들에대해역사와원리를소개한다. 3장에서는최근의료영상분석에딥러닝이응용된사례에대해정리한다. 4장에서는추후의료영상분석에있어딥러닝의응용가능성에대해언급함으로써결론을맺는다. 딥러닝의개요 1. 인공신경망

59

PowerPoint 프레젠테이션

< BEC7BFECC1F62E687770>

( 분류및특징 ) 학습방법에따라 1 지도학습 (Supervised 2 비지도 학습 (Unsupervised 3 강화학습 (Reinforcement 으로구분 3) < 머신러닝의학습방법 > 구분 지도학습 (Supervised 비지도학습 (Unsupervised 강화학습 (

Artificial Intelligence: Assignment 6 Seung-Hoon Na December 15, Sarsa와 Q-learning Windy Gridworld Windy Gridworld의 원문은 다음 Sutton 교재의 연습문제

OCW_C언어 기초

KAA2005.9/10 Ãâ·Â

소성해석

Microsoft PowerPoint - CUDA_NeuralNet_정기철_발표자료.pptx

<BFACB1B831382D31365FBAF2B5A5C0CCC5CD20BAD0BCAEBFA120C0C7C7D120BFE4C0B2BBEAC1A420B9E6B9FD20BAF1B1B35F33C2F7BCF6C1A E687770>

DBPIA-NURIMEDIA

Vector Differential: 벡터 미분 Yonghee Lee October 17, 벡터미분의 표기 스칼라미분 벡터미분(Vector diffrential) 또는 행렬미분(Matrix differential)은 벡터와 행렬의 미분식에 대 한 표

PowerPoint 프레젠테이션

모바일동향

Microsoft PowerPoint - chap04-연산자.pptx

<343320C1A4B1B3B9FC2DBACEBAD0B9E6C0FC20C1F8B4DCC0BB20C0A7C7D128C0FAC0DABBA1B0A3B1DBBEBEC8AEC0CE292E687770>

온습도 판넬미터(JTH-05) 사양서V1.0

Artificial Intelligence: Assignment 3 Seung-Hoon Na November 30, Sarsa와 Q-learning Windy Gridworld Windy gridworld는 (Sutton 교재 연습문제 6.5) 다음

PowerPoint 프레젠테이션

사용자지침서

인체에 투사된 레이저 스트라이프의 패턴 인식

슬라이드 0

융합WEEKTIP data_up

비트와바이트 비트와바이트 비트 (Bit) : 2진수값하나 (0 또는 1) 를저장할수있는최소메모리공간 1비트 2비트 3비트... n비트 2^1 = 2개 2^2 = 4개 2^3 = 8개... 2^n 개 1 바이트는 8 비트 2 2

Chapter ...

Ch 1 머신러닝 개요.pptx


제4장 자연언어처리, 인공지능 , 기계학습

<31302DB1E8BDC2B1C72E687770>

adfasdfasfdasfasfadf

Microsoft PowerPoint - chap06-2pointer.ppt

Microsoft PowerPoint - C++ 5 .pptx

LIDAR와 영상 Data Fusion에 의한 건물 자동추출

기획-4-ok.indd

<312EB1E8C0CDBCF62E687770>

이 장에서 사용되는 MATLAB 명령어들은 비교적 복잡하므로 MATLAB 창에서 명령어를 직접 입력하지 않고 확장자가 m 인 text 파일을 작성하여 실행을 한다

예제 1.1 ( 관계연산자 ) >> A=1:9, B=9-A A = B = >> tf = A>4 % 4 보다큰 A 의원소들을찾을경우 tf = >> tf = (A==B) % A

3. 다음은카르노맵의표이다. 논리식을간략화한것은? < 나 > 4. 다음카르노맵을간략화시킨결과는? < >

PowerPoint Presentation

슬라이드 1

강의록

제 3강 역함수의 미분과 로피탈의 정리

설계란 무엇인가?

Python과 함께 배우는 신호 해석 제 5 강. 복소수 연산 및 Python을 이용한 복소수 연산 (제 2 장. 복소수 기초)

Microsoft PowerPoint - 26.pptx

중간고사

DBPIA-NURIMEDIA

(Microsoft PowerPoint - Ch21_NumAnalysis.ppt [\310\243\310\257 \270\360\265\345])

<4E505F415AB1DBB7CEB9FABAF1C1EEC7C3B7A35FBEE0B0FC E687770>

Microsoft Word - PLC제어응용-2차시.doc

JVM 메모리구조

시장분석통계Ⅰ. 서론부록인공신경망의시초라할수있는퍼셉트론 (perceptron) 은 1957 년 Frank Rosenblatt 가발명했고딥러닝의 학습알고리즘인오차역전파법 (back-propagation) 은 1986년 LeCun에의해발명됐다. 이미딥러닝의핵심이론은 198

Microsoft Word - Lab.4

650 원승현 서대호 박대원 Intelligence, AI) 이란사고나학습등인간이가진지적능력을컴퓨터를통해구현하는기술이며 (Won et al., 2016) 인간처럼생각하고행동하며이성적으로생각하며행동하는시스템으로정의하였다 (Russell et al., 2003). 인공지능

<C6F7C6AEB6F5B1B3C0E72E687770>

Asia-pacific Journal of Multimedia Services Convergent with Art, Humanities, and Sociology Vol.7, No.11, November (2017), pp

42.hwp

낙랑군

PowerPoint 프레젠테이션

Microsoft PowerPoint - chap02-C프로그램시작하기.pptx

Microsoft PowerPoint Predicates and Quantifiers.ppt


Sequences with Low Correlation

때문이다. 물론가장큰이유는, 다음절에서살펴보겠지만최근들어딥러닝구조를학습하는데필요한여러가지테크닉들이개발되었기때문이다 [6,7]. 딥러닝이산업현장에서선호되는데는몇가지이유가있다. 일단은어려운문제를잘해결한다는것이다. 예를들어서, 물체인식과음성인식등전통적인패턴인식의문제에서딥러닝

chap 5: Trees

윈도우즈프로그래밍(1)

(b) 미분기 (c) 적분기 그림 6.1. 연산증폭기연산응용회로

제 4 장수요와공급의탄력성

<4D F736F F D20B1E2C8B9BDC3B8AEC1EE2DB1E2BFEBB0C9>

Microsoft PowerPoint - 27.pptx

02장.배열과 클래스

Ch 8 딥강화학습

하고또한큰공간을점유한다. 비록기술이발전하여전력소모를줄인다고해도기존의폰노이만 (von Neumann) 방식의컴퓨터아키텍처에서는한계가있어크게줄일수없다. 따라서, SW 기반인공지능은클라우드컴퓨팅 (Cloud Computing) 형태로발전하여네트워크 (network) 환경에서

PowerPoint 프레젠테이션

실사구시학파의 실증적 학풍이 일어나므로 서구적인 과학사상의 유입을 본 것 등이 인식 의 대상이 될 것이다. 그러나 이조 봉건사회 최종의 절대적 왕권주의자 대원군에 의하여 그 싹은 잘리고 말았다. 따라서 다단한 전기가 될 근대적 개방에 의하여 재건하려던 서구적 교육 즉

Chap 6: Graphs

장연립방정식을풀기위한반복법 12.1 선형시스템 : Gauss-Seidel 12.2 비선형시스템 12.1 선형시스템 : Gauss-Seidel (1/10) 반복법은초기근을가정한후에더좋은근의값을추정하는체계적인절차를이용한다. G-S 방법은선형대수방정

슬라이드 1

JAVA 프로그래밍실습 실습 1) 실습목표 - 메소드개념이해하기 - 매개변수이해하기 - 새메소드만들기 - Math 클래스의기존메소드이용하기 ( ) 문제 - 직사각형모양의땅이있다. 이땅의둘레, 면적과대각

Microsoft PowerPoint - additional01.ppt [호환 모드]

슬라이드 1

a b c d e f^xh= 2x 2 + ax a f^1+ hh -f^1h lim 6 h 0 h = " A B C D E A J an K O B K b 1O C K 1 1 c 1 0O D K O 0 d K O E Le 1

Microsoft PowerPoint - LA_ch6_1 [호환 모드]

2_안드로이드UI

Lab 3. 실습문제 (Single linked list)_해답.hwp

HWP Document

< E20C6DFBFFEBEEE20C0DBBCBAC0BB20C0A7C7D12043BEF0BEEE20492E707074>

Context-aware Recommendation System for Water Resources Distribution in Smart Water Grids

Transcription:

4 장. 신경망

들어가는말 신경망 1940년대개발 ( 디지털컴퓨터와탄생시기비슷 ) 인간지능에필적하는컴퓨터개발이목표 4.1 절 일반적관점에서간략히소개 4.2-4.3 절 패턴인식의분류알고리즘으로서구체적으로설명 4.2 절 : 선형분류기로서퍼셉트론 4.3 절 : 비선형분류기로서다층퍼셉트론

4.1.1 발상과전개 두줄기연구의시너지 컴퓨터과학 계산능력의획기적발전으로지능처리에대한욕구의학 두뇌의정보처리방식연구 얼마간의성과 ( 뉴런의동작이해등 ) 뇌의정보처리모방하여인간에필적하는지능컴퓨터에도전 인공신경망 (ANN; Artificial Neural Network) 이대표적

4.1.1 발상과전개 컴퓨터와두뇌의비교 폰노이만컴퓨터 순차명령어처리기두뇌 뉴런으로구성 ( 약 1011 개, 약 1014 연결 ( 시냅스 )) 고도의병렬명령어처리기

4.1.1 발상과전개 간략한역사 1943, McCulloch 과 Pitts 최초신경망제안 1949, Hebb 의학습알고리즘 1958, Rosenblatt 퍼셉트론 Widrow 와 Hoff, Adaline 과 Madaline 1960 대, 신경망의과대포장 1969, Minsky 와 Papert, Perceptrons 라는저서에서퍼셉트론한계지적 퍼셉트론은선형분류기에불과하고 XOR 도해결못함 이후신경망연구퇴조 1986, Rumelhart, Hinton, 그리고 Williams, 다층퍼셉트론과오류역전파학습알고리즘 필기숫자인식같은복잡하고실용적인문제에높은성능 신경망연구다시활기찾음 현재가장널리활용되는문제해결도구

4.1.2 수학적모델로서의신경망 신경망특성 학습가능뛰어난일반화능력병렬처리가능현실적문제에서우수한성능다양한문제해결도구 ( 분류, 예측, 함수근사화, 합성, 평가, ) 절반의성공 인간지능에필적하는컴퓨터만들지못함 제한된환경에서실용적인시스템만드는데크게기여 ( 실용적인수학적모델로서자리매김 )

4.2 퍼셉트론 새로운개념들등장 층노드와가중치학습활성함수 비록분명한한계를가지지만 MLP 의초석이됨

4.2.1 구조와원리 구조 입력층 : d+1개의노드 ( 특징벡터 x=(x 1,,x d ) T ) 출력층 : 한개의노드 ( 따라서 2-부류분류기 ) 에지와가중치

4.2.1 구조와원리 노드의연산 입력노드 : 받은신호를단순히전달출력노드 : 합계산과활성함수계산 퍼셉트론은선형분류기

4.2.1 구조와원리 예제 4.1 이퍼셉트론은 w=(1,1) T, b=-0.5 따라서결정직선은 d x) = x + x 0.5 ( 1 2 샘플 c 를제대로분류함

4.2.2 학습과인식 퍼셉트론학습이란? 예 ) AND 분류문제 a=(0,0) T b=(1,0) T c=(0,1) T d=(1,1) T t a = -1 t b = -1 t c = -1 t d =1 c d 1? x 1?? y a b x 2

4.2.2 학습과인식 패턴인식에서일반적인학습알고리즘설계과정 단계 1: 분류기구조정의와분류과정의수학식정의단계 2: 분류기품질측정용비용함수 J(Θ) 정의단계 3: J(Θ) 를최적화하는 Θ를찾는알고리즘설계 단계 1 과 2 단계 3

4.2.2 학습과인식 단계 1: 분류기구조정의와분류과정의수학식정의 식 (4.2) 매개변수집합 Θ={w, b} 단계 2: 분류기품질측정용비용함수 J(Θ) 정의 분류기품질을측정하는 J(Θ) 를어떻게정의할것인가? Y: 오분류된샘플집합 J(Θ) 는항상양수 Y 가공집합이면 J(Θ)=0 Y 가클수록 J(Θ) 큼

4.2.2 학습과인식 단계 3: J(Θ) 를최적화하는 Θ를찾는알고리즘설계 J(Θ)=0인 Θ를찾아라. 내리막경사법 (Gradient descent method) 현재해를 / Θ 방향으로이동 학습률 ρ를곱하여조금씩이동 J 는음의값을가짐 θ θ값이더큰곳에최적점이존재하므로 J θ를양의값으로하기위해선 - 로해야함 θ

4.2.2 학습과인식 알고리즘스케치 초기해를설정한다. 멈춤조건이만족될때까지현재해를 / Θ 방향으로조금씩이동시킨다. 알고리즘에필요한수식들 퍼셉트론학습규칙 ( 델타규칙 )

4.2.2 학습과인식

4.2.2 학습과인식 예제 4.2 1 2 w(0)=(-0.5,0.75) T, b(0)=0.375 d(x)= -0.5x 1 +0.75x 2 +0.375 Y={a, b} 0.5 0 1 0.1 w(1) = w(0) + 0.4( t a a + tb b) = 0.4 = 0.75 + 0 0 0.75 + b(1) = b(0) + 0.4( t + t ) = 0.375 + 0.4*0 = 0.375 d(x)= -0.1x 1 +0.75x 2 +0.375 Y={a} a b 0.1 0 0.1 w(2) = w(1) + 0.4( t aa) = 0.4 0.75 + = 0 0.75 b(2) = b(1) + 0.4( t ) = 0.375 0.4 = 0.025 a 학습율

4.2.2 학습과인식 인식알고리즘

4.2.2 학습과인식 구현 초기값어떻게? w 와 b 의초기화는? 일반적으로작은난수를생성하여설정함 학습률어떻게? 고정된학습율사용 세대수에따라적응적학습율사용 패턴모드와배치모드 ρ( h) = ρ ( ρ ρ )* h/ H s s e ρ : 시작학습율 배치모드 : 오분류된모든샘플을모은다음, 이들을가지고한꺼번에가중치갱신함 패턴모드 : 샘플을하나입력하고틀리게인식하면곧바로가중치를갱신함 s ρ : 종료시학습율 e h : 세대수 H: 최대세대수

4.2.2 학습과인식 구현 초기값어떻게? 학습률어떻게? 패턴모드와배치모드 패턴모드학습알고리즘

4.2.2 학습과인식 포켓알고리즘 선형분리불가능한상황 J(Θ)=0( 모든샘플을올바르게분류하고자함 ) 이라는목표를버리고, J(Θ) 를최소화하는목표로수정 새로운 w 를계산한후, 이것이이전것보다좋은지검사함 더좋으면이를사용함

4.3 다층퍼셉트론 선형분리불가능한상황 퍼셉트론의한계 그림 4.5(b) 에서퍼셉트론으로최대몇개까지맞출수있을까?

4.3.1 구조와원리 XOR 문제 퍼셉트론은 75% 정인식률이한계 이한계를어떻게극복? 두개의퍼셉트론 ( 결정직선 ) 사용

4.3.1 구조와원리 두단계에걸쳐문제해결 단계 1: 원래특징공간을새로운공간으로매핑단계 2: 새로운공간에서분류 단계 1: 새로운공간으로매핑 b,c 는 (1,1) 로변환됨 a (-1,1) d (1,-1) 단계 2: 새로운공간에서분류

4.3.1 구조와원리 다층퍼셉트론 (MLP; Multi-layer perceptron) 두개의퍼셉트론 1,2 를사용하여, 특징벡터를새로운공간으로매핑함 이후, 새로운공간에서하나의퍼셉트론을사용하여, 최종분류함

4.3.1 구조와원리 다층퍼셉트론의아키텍처 입력층, 은닉층, 출력층을가짐입력을위한 d개의노드, 1개의 bias를위한노드 ( 총 d+1) 개의노드 P+1 개의은닉층노드수 (+1 은 bias 값 ) 가중치 : u 와 v

4.3.1 구조와원리 신경망은일종의함수 (4.10) (4.11) 입력 x 입력층에서은닉층매핑함수 ( p(.)) 은닉층출력 z 은닉층에서출력층매핑함수 ( q(.)) 출력벡터 o

4.3.1 구조와원리 전방계산 (forward computation) : 신경회로망에서왼쪽에서오른쪽으로계산이이뤄짐 (4.12) (4.13) 활성함수 (activation function) 입력 x 입력층에서은닉층매핑함수 ( p(.)) 은닉층출력 z 은닉층에서출력층매핑함수 ( q(.)) 출력벡터 o

4.3.1 구조와원리 활성함수 (activation function) 시그모이드라는비선형함수사용

4.3.1 구조와원리 예제 4.3 다층퍼셉트론의공간분할능력 활성함수에따른공간분할 αα 값이줄어들수록 w1 class 영역이줄어들고있음

4.3.1 구조와원리 FFMLP (Feed-Forward MLP) 의아키텍처 은닉층은몇개로? 층간의연결은어떻게? 각층의노드는몇개로? 어떤활성함수사용할까?

4.3.2 학습 MLP 의학습이란? 패턴인식에서일반적인학습알고리즘설계과정 단계 1: 분류기구조정의와분류과정의수학식정의단계 2: 분류기품질측정용비용함수 J(Θ) 정의단계 3: J(Θ) 를최적화하는 Θ를찾는알고리즘설계

4.3.2 학습 단계 1: 분류기구조정의와분류과정의수학식정의 (4.12) 와 (4.13) 의전방계산이분류기의식 매개변수집합 Θ={u, v} 단계 2 ( 비용함수정의 ):

4.3.2 학습 단계 3 ( 최적해찾음 ): J(Θ) 를최적화하는 Θ 를찾는알고리즘설계 (4.16) 의오류를줄이는방향으로 Θ 를수정해나감 라인 5 를어떻게?

4.3.2 학습 v jk 를위한갱신값 Δv jk 의유도 은닉층노드 출력층노드 특정출력노드 k 에서 tt kk 는상수임 v jk 가미치는영향 출력 oo kk = ττ(oo_ssssss kk )

4.3.2 학습 출력층노드 u ij 를위한갱신값 Δu ij 의유도 입력노드 은닉층노드 출력 oo kk = ττ(oo_ssssss kk ) u ij 가미치는영향 vv jjjj = oo_ssssss kk zz jj

4.3.2 학습 다중퍼셉트로학습을위한오류역전파알고리즘 ( 패턴모드 ) uu iiii vv jjjj z_sum1 z1 o_sum1 o1 z_sum2 z2 o2

4.3.2 학습 예제 4.4 다층퍼셉트론의학습

4.3.2 학습 예제 4.4 uu iiii z_sum1 z1 vv jjjj o_sum1 o1 o1= -0.02239 z_sum2 z2 o2 o2= 0.15441

4.3.2 학습 예제 4.4 uu iiii z_sum1 z1 vv jjjj o_sum1 o1 o1= -0.02239 o2 z_sum2 z2 o2= 0.15441

4.3.2 학습 uu iiii z_sum1 z1 vv jjjj o_sum1 o1 예제 4.4 o2 z_sum2 z2

4.3.2 학습 예제 4.4 uu iiii z_sum1 z1 vv jjjj o_sum1 o1 z_sum2 z2 o2 0.3 0.32015

4.3.2 학습 오류역전파알고리즘의계산복잡도 Θ((d+m)pHN) H는세대수 많은시간소요 예 ) MNIST 필기숫자데이터베이스는 N=60000

4.3.3 인식 학습된다층퍼셉트론을사용하여, 입력에대해인식을수행 인식알고리즘 시간복잡도 Θ((d+m)p) N 에무관, 빠름

4.3.4 구현과몇가지부연설명 몇가지부연설명 네트워크아키텍처 ( 은닉노드개수등 ) 가중치초기화 언제종료할것인가? 목적벡터의표현과활성함수 ( 이진모드와양극모드 ) 샘플처리순서학습률국소최적점탈출

4.3.4 구현과몇가지부연설명 매개변수설정 일반적인경우에적용되는보편규칙은없다. 경험과실험을통해설정해야한다. 신경망성능이매개변수에아주민감하지는않기때문에어느정도의실험과경험을통해설정가능