PowerPoint 프레젠테이션

Similar documents
PowerPoint Presentation

Introduction to Deep learning

딥러닝 첫걸음

1-1-basic-43p

신경망 (Neural Networks) < 인공지능입문 > 강의 허민오 Biointelligence Laboratory School of Computer Science and Engineering Seoul National University

Multi-pass Sieve를 이용한 한국어 상호참조해결 반-자동 태깅 도구

PowerPoint 프레젠테이션

Vector Differential: 벡터 미분 Yonghee Lee October 17, 벡터미분의 표기 스칼라미분 벡터미분(Vector diffrential) 또는 행렬미분(Matrix differential)은 벡터와 행렬의 미분식에 대 한 표

특집 2 부 3 신경회로망 신경회로망에대한연구는뇌신경생리학으로부터유래되어패턴인식이나연산기억장치, 최적화, 로봇제어, 문자인식, 음성인식, 신호처리등의분야로확대됐을뿐아니라경제, 경영분야의의사결정시스템에도응용되기에이르렀다. 최근에는데이터마이닝의주요기법으로손꼽히고있다. 신현

04 Çмú_±â¼ú±â»ç


1 경영학을 위한 수학 Final Exam 2015/12/12(토) 13:00-15:00 풀이과정을 모두 명시하시오. 정리를 사용할 경우 명시하시오. 1. (각 6점) 다음 적분을 구하시오 Z 1 4 Z 1 (x + 1) dx (a) 1 (x 1)4 dx 1 Solut

PowerPoint 프레젠테이션

( 분류및특징 ) 학습방법에따라 1 지도학습 (Supervised 2 비지도 학습 (Unsupervised 3 강화학습 (Reinforcement 으로구분 3) < 머신러닝의학습방법 > 구분 지도학습 (Supervised 비지도학습 (Unsupervised 강화학습 (

<4E505F415AB1DBB7CEB9FABAF1C1EEC7C3B7A35FBEE0B0FC E687770>

<343320C1A4B1B3B9FC2DBACEBAD0B9E6C0FC20C1F8B4DCC0BB20C0A7C7D128C0FAC0DABBA1B0A3B1DBBEBEC8AEC0CE292E687770>

Artificial Intelligence: Assignment 6 Seung-Hoon Na December 15, Sarsa와 Q-learning Windy Gridworld Windy Gridworld의 원문은 다음 Sutton 교재의 연습문제

소성해석

1 1 장. 함수와극한 1.1 함수를표현하는네가지방법 1.2 수학적모형 : 필수함수의목록 1.3 기존함수로부터새로운함수구하기 1.4 접선문제와속도문제 1.5 함수의극한 1.6 극한법칙을이용한극한계산 1.7 극한의엄밀한정의 1.8 연속

(Microsoft PowerPoint - Ch21_NumAnalysis.ppt [\310\243\310\257 \270\360\265\345])

Sequences with Low Correlation

딥러닝튜토리얼 Deep Learning Tutorial - 신경망과딥러닝의이해 Understanding Neural Network & Deep Learning

제 2 장육상관측소지상종관기상전문의해독과기입,.,. (FM 12) (FM 13). (WMO) FM 12-Ⅸ Ext. SYNOP, FM 13-Ⅸ Ext. SHIP. ZCZC 612 SMKO01 RKSL AAXX

Microsoft Word - LectureNote.doc

2015년 2월 12일 사랑의 동삭교육 제 호 (2월) 년 2월 12일 사랑의 동삭교육 제 호 (2월) 6 겨울이 되면 1-4 박지예 겨울이 되면 난 참 좋아. 겨울이 되면 귀여운 눈사람도 만들고 겨울이 되면 신나는 눈싸움도 하고 겨울이

비트와바이트 비트와바이트 비트 (Bit) : 2진수값하나 (0 또는 1) 를저장할수있는최소메모리공간 1비트 2비트 3비트... n비트 2^1 = 2개 2^2 = 4개 2^3 = 8개... 2^n 개 1 바이트는 8 비트 2 2

때문이다. 물론가장큰이유는, 다음절에서살펴보겠지만최근들어딥러닝구조를학습하는데필요한여러가지테크닉들이개발되었기때문이다 [6,7]. 딥러닝이산업현장에서선호되는데는몇가지이유가있다. 일단은어려운문제를잘해결한다는것이다. 예를들어서, 물체인식과음성인식등전통적인패턴인식의문제에서딥러닝

슬라이드 0

PowerPoint 프레젠테이션

PowerPoint 프레젠테이션

(Microsoft PowerPoint - Ch19_NumAnalysis.ppt [\310\243\310\257 \270\360\265\345])

< 목 차 > < 가입자 유의사항 >... 5 < 주요내용 요약서 >... 6 < 보험용어 해설 >... 8 < 주요 민원사례 > < 약관조항 안내 > 무배당수호천사플러스상해보험 약관 제 1 관 목적 및 용어의 정의 제 1 조

Artificial Intelligence: Assignment 5 Seung-Hoon Na December 15, Numpy: Tutorial 다음 자료를 참조하여 numpy기본을 공부하시오.

<BACFC7D1B3F3BEF7B5BFC7E22D3133B1C733C8A BFEB2E687770>


Microsoft PowerPoint - LA_ch6_1 [호환 모드]

Ch 8 딥강화학습

빅데이터_DAY key

Ch 1 머신러닝 개요.pptx

< BEC7BFECC1F62E687770>

문제지 제시문 2 보이지 않는 영역에 대한 정보를 얻기 위하여 관측된 다른 정보를 분석하여 역으로 미 관측 영역 에 대한 정보를 얻을 수 있다. 가령 주어진 영역에 장애물이 있는 경우 한 끝 점에서 출발하여 다른 끝 점에 도달하는 최단 경로의 개수를 분석하여 장애물의

PowerPoint 프레젠테이션

의료영상분석에있어딥러닝의응용사례에대해살펴본다. 2 장에서는딥러닝의개요와관련주요기술들에대해역사와원리를소개한다. 3장에서는최근의료영상분석에딥러닝이응용된사례에대해정리한다. 4장에서는추후의료영상분석에있어딥러닝의응용가능성에대해언급함으로써결론을맺는다. 딥러닝의개요 1. 인공신경망

DBPIA-NURIMEDIA

PowerPoint 프레젠테이션

제 12강 함수수열의 평등수렴

3. 다음은카르노맵의표이다. 논리식을간략화한것은? < 나 > 4. 다음카르노맵을간략화시킨결과는? < >

PowerPoint 프레젠테이션

<BFACB1B831382D31365FBAF2B5A5C0CCC5CD20BAD0BCAEBFA120C0C7C7D120BFE4C0B2BBEAC1A420B9E6B9FD20BAF1B1B35F33C2F7BCF6C1A E687770>

= ``...(2011), , (.)''

Chapter 연습문제답안. y *sin-*cos*^ep-*/sqrt. y [ ; sinpi/ ; sin*pi ; ] 혹은 [ sinpi/ sin*pi ]. a ais[- ] b et.,., sin. c.. a A는주어진행렬 M의 번째열만을표시하는새로운행렬을나타낸다.

OCW_C언어 기초

Microsoft PowerPoint - 실습소개와 AI_ML_DL_배포용.pptx

1 1. (,, ) ( ) (,,, )., 1 ( ), ( ) ( ) 30, ( ) , + 1%., 1.

Microsoft PowerPoint - MDA 2008Fall Ch2 Matrix.pptx

<B4EBC7D0BCF6C7D02DBBEFB0A2C7D4BCF62E687770>

모바일동향

슬라이드 1

Pattern Recognition

02장.배열과 클래스

슬라이드 1

<BFACBDC0B9AEC1A6C7AEC0CC5F F E687770>

Chap 6: Graphs

장연립방정식을풀기위한반복법 12.1 선형시스템 : Gauss-Seidel 12.2 비선형시스템 12.1 선형시스템 : Gauss-Seidel (1/10) 반복법은초기근을가정한후에더좋은근의값을추정하는체계적인절차를이용한다. G-S 방법은선형대수방정

ILLUSTRATION DE MANABU DEEP LEARNING Takayoshi Yamashita 2016 All rights reserved. Original Japanese edition published by KODANSHA LTD. Korean transla

<3233C0CCC1F6C0BA5F53432E687770>

슬라이드 1

시장분석통계Ⅰ. 서론부록인공신경망의시초라할수있는퍼셉트론 (perceptron) 은 1957 년 Frank Rosenblatt 가발명했고딥러닝의 학습알고리즘인오차역전파법 (back-propagation) 은 1986년 LeCun에의해발명됐다. 이미딥러닝의핵심이론은 198

제 3강 역함수의 미분과 로피탈의 정리

통신이론 2 장주파수해석 성공회대학교 정보통신공학과 1

Microsoft PowerPoint - ch07 - 포인터 pm0415

Artificial Intelligence: Assignment 3 Seung-Hoon Na November 30, Sarsa와 Q-learning Windy Gridworld Windy gridworld는 (Sutton 교재 연습문제 6.5) 다음

슬라이드 1

<31302DB1E8BDC2B1C72E687770>

Microsoft Word - PLC제어응용-2차시.doc

Electronics and Telecommunications Trends 인공지능을이용한 3D 콘텐츠기술동향및향후전망 Recent Trends and Prospects of 3D Content Using Artificial Intelligence Technology

슬라이드 1

Python과 함께 배우는 신호 해석 제 5 강. 복소수 연산 및 Python을 이용한 복소수 연산 (제 2 장. 복소수 기초)

chap06.hwp

제4차 산업혁명과 인공지능 차 례 제4차 산업혁명과 인공지능 2 제46회 다보스포럼이 2016년 1월 21일~24일 4차 산업혁명의 이해 라는 주제로 개최 되었습니다. 4차 산업혁명은 인공지능에 의해 자동화와 연결성이 극대화되는 단계 로서 오늘날 우리 곁에 모습을 드러

정보

PowerPoint 프레젠테이션

발신자 목적지 발신자 목적지 발신자 목적지 공격자 발신자 목적지 발신자 목적지 공격자 공격자

02본문

< C0FCC0CEC3CA2E687770>

비선형으로의 확장

전자회로 실험

4차 산업혁명과 수학

Microsoft PowerPoint - CUDA_NeuralNet_정기철_발표자료.pptx

슬라이드 1

Microsoft PowerPoint - 알고리즘_5주차_1차시.pptx

생존분석의 추정과 비교 : 보충자료 이용희 December 12, 2018 Contents 1 생존함수와 위험함수 생존함수와 위험함수 예제: 지수분포

표본재추출(resampling) 방법

미분기하학 II-16 복소평면의선형분수변환과쌍곡평면의등장사상 김영욱 (ÑñÁ) 강의양성덕 (zû ) 의강의록 Ø 'x! xxñ 2007 년 김영욱 (ÑñÁ) 강의양성덕 (zû ) 의강의록 (Ø 'x!) 미분기하 II 2007 년 1 / 26

PowerPoint Presentation

Asia-pacific Journal of Multimedia Services Convergent with Art, Humanities, and Sociology Vol.7, No.11, November (2017), pp

PowerPoint Presentation

Microsoft PowerPoint - chap06-2pointer.ppt

Reinforcement Learning & AlphaGo

Transcription:

3 장. 다층퍼셉트론

PREVIEW 신경망 기계학습역사에서가장오래된기계학습모델이며, 현재가장다양한형태를가짐 1950년대퍼셉트론 1980년대다층퍼셉트론 3장은 4장딥러닝의기초가됨

3.1 신경망기초 3.1.1 인공신경망과생물신경망 3.1.2 신경망의간략한역사 3.1.3 신경망의종류

3.1.1 인공신경망과생물신경망 사람의뉴런 두뇌의가장작은정보처리단위 세포체는 cell body 간단한연산, 수상돌기는 dendrite 신호수신, 축삭은 axon 처리결과를전송 사람은 10 11 개정도의뉴런을가지며, 뉴런은 1000 개가량다른뉴런과연결되어있어 10 14 개정도의연결

3.1.2 신경망의간략한역사 신경망의역사 1943 년매컬럭과피츠의최초의신경망 1949 년헤브는최초로학습알고리즘제안 1958 년로젠블렛은퍼셉트론제안 3.2 절에서자세히다룸 위드로와호프의 Adaline 과 Madaline 1960 년대의과대평가 1969 년민스키와페퍼트의저서 Perceptrons 는페셉트론의한계를수학적으로입증 페셉트론은선형분류기에불과하여 XOR 문제조차해결못함 신경망연구퇴조 1986 년루멜하트의저서 Parallel Distributed Processing 은다층페셉트론제안 3.3~3.4 절에서자세히다룸 신경망연구부활 1990 년대 SVM(11 장의주제 ) 에밀리는형국 2000 년대딥러닝이실현되어신경망이기계학습의주류기술로자리매김 보다상세한신경망역사는 [Kurenkov2015] 참조

3.1.3 신경망의종류 신경망에는아주다양한모델이존재함 전방신경망과순환신경망 얕은신경망과깊은신경망 결정론신경망과스토캐스틱신경망

3.2 퍼셉트론 3.2.1 구조 3.2.2 동작 3.2.3 학습 퍼셉트론은노드, 가중치, 층과같은새로운개념을도입하고학습알고리즘을창안함 퍼셉트론은원시적신경망이지만, 딥러닝을포함한현대신경망은퍼셉트론을병렬과순차구조로결합하여만듬 현대신경망의중요한구성요소

3.2.1 구조 퍼셉트론의구조 입력층과출력층을가짐 입력층은연산을하지않으므로퍼셉트론은단일층구조라고간주 입력층의 i번째노드는특징벡터 xx = xx 1, xx 2,, xx T dd 의요소 xx ii 를담당 항상 1이입력되는바이어스노드 출력층은한개의노드 i번째입력층노드와출력층을연결하는에지는가중치 ww ii 를가짐

3.2.2 동작 퍼셉트론의동작 해당하는특징값과가중치를곱한결과를모두더하여 s 를구하고, 활성함수 ττ 를적용함 활성함수 ττ 로계단함수를사용하므로최종출력 y 는 +1 또는 -1

3.2.2 동작

3.2.2 동작 행렬표기 바이어스항을벡터에추가하면, 퍼셉트론의동작을식 (3.4) 로표현할수있음

3.2.2 동작 [ 그림 3-4(b)] 를기하학적으로설명하면, 결정직선 xx 1 + xx 2 0.5 = 0 ww 1 과 ww 2 는직선의방향, ww 0 은절편을결정 결정직선은전체공간을 +1과 -1의두부분공간으로분할하는분류기역할 d 차원공간에서는 2 차원은결정직선, 3 차원은결정평명, 4 차원이상은결정초평면

3.2.3 학습 학습문제 지금까지는학습을마친퍼셉트론을가지고동작을설명한셈 [ 그림 3-6] 은학습문제 : ww 1 과 ww 2, ww 0 이어떤값을가져야 100% 옳게분류할까? [ 그림 3-6] 은 2 차원공간에 4 개샘플이있는훈련집합이지만, 현실세계는 d 차원공간에수백 ~ 수만개의샘플이존재 ( 예, MNIST 는 784 차원에 6 만개샘플 )

3.2.3 학습 목적함수설계 퍼셉트론의매개변수를 ww = ww 0, ww 1, ww 2,, ww dd 목적함수를 JJ(Θ) 또는 JJ(ww) 로표기함 목적함수의조건 T 라표기하면, 매개변수집합은 Θ = ww 식 (3.7) 은세가지조건을만족하므로, 퍼셉트론의목적함수로적합 Y 는 w 가틀리는샘플의집합

3.2.3 학습 그레이디언트계산 식 (2.58) 의가중치갱신규칙 ΘΘ = ΘΘ ρρgg 를적용하려면그레이디언트 gg 가필요 식 (3.7) 을편미분하면, 편미분결과인식 (3.8) 을식 (2.58) 에대입하면,

3.2.3 학습 퍼셉트론학습알고리즘 식 (3.9) 를이용하여학습알고리즘을쓰면, 훈련집합의샘플을모두맞출 ( 즉 YY = ) 때까지세대 epoch ( 라인 3~9) 를반복함

3.2.3 학습 퍼셉트론학습알고리즘의스토캐스틱버전 샘플순서를섞음. 틀린샘플이발생하면즉시갱신

3.2.3 학습 행렬표기 행렬을사용하여간결하게표기 : 행렬표기로 [ 알고리즘 3-1] 을수정하면, 행렬표기로 [ 알고리즘 3-2] 를수정하면, 선형분리불가능한경우에는무한반복 until(yy = ) 또는 until(quit) 를 until( 더이상개선이없다면 ) 으로수정해야함

3.3 다층퍼셉트론 3.3.1 특징공간변환 3.3.2 활성함수 3.3.3 구조 3.3.4 동작

3.3 다층퍼셉트론 퍼셉트론은선형분류기라는한계 [ 그림 3-7(b)] 의선형분리불가능한상황에서는일정한양의오류 예 ) XOR 문제에서는 75% 가정확률한계 민스키의 Perceptrons 퍼셉트론의한계를지적하고다층구조를이용한극복방안제시. 당시기술로실현불가능 1974 년웨어보스는박사논문에서오류역전파알고리즘제안 1986 년루멜하트의저서 Parallel Distributed Processing 다층퍼셉트론이론정립하여신경망부활

3.3 다층퍼셉트론 다층퍼셉트론의핵심아이디어

3.3.1 특징공간변환 퍼셉트론 2 개를사용한 XOR 문제의해결 퍼셉트론 1 과퍼셉트론 2 가모두 +1 이면부류이고그렇지않으면부류임

3.3.1 특징공간변환 퍼셉트론 2 개를병렬로결합하면, 원래공간 xx = xx 1, xx 2 T 를새로운특징공간 zz = zz 1, zz 2 T 로변환 새로운특징공간 zz 에서는선형분리가능함 사람이수작업으로특징학습을수행한셈

3.3.1 특징공간변환 퍼셉트론 1 개를순차결합하면, 새로운특징공간 zz 에서선형분리를수행하는퍼셉트론 3 을순차결합하면, [ 그림 3-10(b)] 의다층퍼셉트론이됨 이다층퍼셉트론은훈련집합에있는 4 개샘플 0 0 0 1 1 0 1 1 을제대로분류하나?

3.3.1 특징공간변환 다층퍼셉트론의용량 [ 그림 3-11] 처럼 3 개퍼셉트론을결합하면, 2 차원공간을 7 개영역으로나누고각영역을 3 차원점으로변환 활성함수 ττ 로계단함수를사용하므로영역을점으로변환 일반화하여, p 개퍼셉트론을결합하면 p 차원공간으로변환 pp 1 + ii=1 ii 개의영역으로분할

3.3.2 활성함수 딱딱한공간분할과부드러운공간분할 계단함수는딱딱한의사결정 ( 영역을점으로변환 ). 나머지활성함수는부드러운의사결정 ( 영역을영역으로변환 )

3.3.2 활성함수 신경망이사용하는다양한활성함수 로지스틱시그모이드와하이퍼볼릭탄젠트는 a가커질수록계단함수에가까워짐 모두 1차도함수계산이빠름 ( 특히 ReLU는비교연산한번 ) 퍼셉트론은계단함수, 다층퍼셉트론은로지스틱시그모이드와하이퍼볼릭탄젠트, 딥러닝은 ReLU 를사용

3.3.3 구조 [ 그림 3-14(a)] 는입력층 - 은닉층 - 출력층의 2 층구조 d+1개의입력노드 (d는특징의개수 ). c개의출력노드 (c는부류개수 ) p개의출력노드 : p는하이퍼매개변수 ( 사용자가정해주는매개변수 ) p가너무크면과잉적합, 너무작으면과소적합 5.5절의하이퍼매개변수최적화 [ 그림 3-14(b)] 는입력층 - 은닉층 - 은닉층 - 출력층의 3 층구조

3.3.3 구조 다층퍼셉트론의매개변수 ( 가중치 ) 입력층-은닉층을연결하는 UU 1 (uu 1 jjjj 은입력층의 i번째노드를은닉층의 j번째노드와연결 ) 은닉층-출력층을연결하는 UU 22 (uu 2 kkjj 는은닉층의 j번째노드를출력층의 k번째노드와연결 ) 일반화하면 uu ll jjii 은 l-1번째은닉층의 i번째노드를 l번째은닉층의 j번째노드와연결하는가중치 입력층을 0 번째은닉층, 출력층을마지막은닉층으로간주

3.3.4 동작 특징벡터 x 를출력벡터 o 로매핑하는함수로간주할수있음 깊은신경망은 4 장의주제 ( 딥러닝 )

3.3.4 동작 노드가수행하는연산을구체적으로쓰면, uu jj 1 은 j 번째은닉노드에연결된가중치벡터 ( 식 (3.11) 의 UU 1 의 j 번째행 ) uu kk 2 는 k 번째출력노드에연결된가중치벡터 ( 식 (3.11) 의 UU 22 의 k 번째행 ) 다층퍼셉트론의동작을행렬로표기하면,

3.3.4 동작 은닉층은특징추출기 은닉층은특징벡터를분류에더유리한새로운특징공간으로변환 현대기계학습에서는특징학습이라 feature learning 부름 ( 딥러닝은더많은단계를거쳐특징학습을함 )

3.4 오류역전파알고리즘 3.4.1 목적함수의정의 3.4.2 오류역전파알고리즘설계 3.4.3 오류역전파를이용한학습알고리즘

3.4.1 목적함수의정의 훈련집합 특징벡터집합 XX = xx 1, xx 2,, xx nn 과부류벡터집합 YY = yy 1, yy 2,, yy nn 부류벡터는원핫코드로표현됨. 즉 yy ii = 0,0,, 1,, 0 T 설계행렬로쓰면, 기계학습의목표 모든샘플을옳게분류하는 ( 식 (3.17) 을만족하는 ) 함수 f 를찾는일

3.4.1 목적함수의정의 목적함수 평균제곱오차로 MSE(mean squared error) 정의

3.4.2 오류역전파알고리즘의설계 식 (3.19) 의목적함수를다시쓰면, 2 층퍼셉트론의경우 Θ = UU 1, UU 2 JJ Θ = JJ( UU 1, UU 2 ) 의최저점을찾아주는경사하강법

3.4.2 오류역전파알고리즘의설계 식 (3.21) 을알고리즘형태로쓰면,

3.4.2 오류역전파알고리즘의설계 오류역전파의유도 [ 알고리즘 3-3] 의라인 6 을위한도함수값 JJ 먼저 UU 2 를구성하는 uu 2 kkkk 로미분하면, 와 UU 1 UU 2 의계산과정

3.4.2 오류역전파알고리즘의설계 오류역전파의유도 UU 1 을구성하는 uu 1 jjjj 로미분하면,

3.4.2 오류역전파알고리즘의설계 지금까지유도한식을정리하면, 오류역전파 error back-propagation 알고리즘 식 (3.22)~(3.25) 를이용하여출력층의오류를역방향 ( 왼쪽 ) 으로전파하며그레이디언트를계산하는알고리즘

3.4.3 오류역전파를이용한학습알고리즘 식 (3.22)~(3.25) 를이용한스토캐스틱경사하강법

3.4.3 오류역전파를이용한학습알고리즘 임의샘플링방식으로바꾸려면,

3.4.3 오류역전파를이용한학습알고리즘 행렬표기 : GPU 를사용한고속행렬연산에적합

3.5 미니배치스토캐스틱경사하강법 미니배치방식 한번에 t개의샘플을처리함 (t는미니배치크기 ) t=1이면스토캐스틱경사하강법 ([ 알고리즘 3-4]) t=n이면배치경사하강법 미니배치방식은보통 t= 수십 ~ 수백 그레이디언트의잡음을줄여주는효과때문에수렴이빨라짐 GPU를사용한병렬처리에도유리함 현대기계학습은미니배치를표준처럼여겨널리사용함

3.5 미니배치스토캐스틱경사하강법

3.6 다층퍼셉트론에의한인식 예측 ( 또는테스트 ) 단계 학습을마친후현장설치하여사용 ( 또는테스트집합으로성능테스트 ) 라인 6 을수식으로표현하면, 전방계산한번만사용하므로빠름 ( 표 3-2 참조 )

3.7 다층퍼셉트론의특성 3.7.1 오류역전파알고리즘의빠른속도 3.7.2 모든함수를정확하게근사할수있는능력 3.7.3 성능향상을위한휴리스틱의중요성

3.7.1 오류역전파알고리즘의빠른속도 연산횟수비교 오류역전파는전방계산보다약 1.5~2 배의시간소요 빠른계산가능 하지만학습알고리즘은수렴할때까지오류역전파를반복해야하므로점근적시간복잡도는 ΘΘ( dddd + pppp nnnn)

3.7.2 모든함수를정확하게근사할수있는능력 호닉의주장 [Hornik1989] 은닉층을하나만가진다층퍼셉트론은범용근사자universal approximator 은닉노드를무수히많게할수없으므로, 실질적으로는복잡한구조의데이터에서는성능 한계

3.7.3 성능향상을위한휴리스틱의중요성 순수한최적화알고리즘으로는높은성능불가능 데이터희소성, 잡음, 미숙한신경망구조등의이유 성능향상을위한갖가지휴리스틱을개발하고공유함 예 ) Neural Networks: Tricks of the Trade [Montavon2012] 휴리스틱개발에서중요쟁점

3.7.3 성능향상을위한휴리스틱의중요성 실용적인성능 1980~1990년대에다층퍼셉트론은실용시스템제작에크게기여 인쇄 / 필기문자인식으로우편물자동분류기, 전표인식기, 자동차번호판인식기등 음성인식, 게임, 주가예측, 정보검색, 의료진단, 유전자검색, 반도체결함검사등 하지만한계노출 잡음이섞인상황에서음성인식성능저하 필기주소인식능력저하 바둑에서의한계 딥러닝은이들한계를극복함