Machine Learning Basic 2016.09 Quarry systems 윤동한
인공지능이란? 지능적행동을자동화하기위한컴퓨터과학의한분야 (Luger & Stubblefield, 1993) 현재사람이더잘하는일을컴퓨터가하도록하는연구 (Rich & Knight, 1991) 1
Machine Learning 이란 명시적으로 Program 하지않고, 스스로학습할수있는능력을컴퓨터에게주기위한연구 예를들어컴퓨터에게길을건너는방법을가르칠때, 전통적인 Programing 은컴퓨터에게매우정확한규칙집합을입력하여 ( 왼쪽, 오른쪽살피고, 차를기다리고, 횡단보도건너는방법등등 ) 문제를해결하였다면, 기계학습은길을안전하게건너는사람을담은많은양의비디오를제시하고, 기계 ( 컴퓨터가 ) 스스로알고리즘을찾아내게하는것입니다. 2
Machine Learning 학습알고리즘종류 지도학습 (Supervised learning) 올바른입력 / 출력쌍으로된훈련데이터로부터입출력간의함수학습 자율학습 (Unsupervised learning) 데이터의무리짓기 (Clustering) or 일관된해석의도출 증강학습 (Reinforcement learning) 계속된행동으로얻은보상으로부터올바른행동을학습 3
Machine Learning 학습알고리즘종류 4
Machine Learning 방법론 5
인공신경망 6
인공신경망 7
생각이일어나는과정 뉴런 신경세포 수상돌기 다른뉴런으로부터신호를받아핵으로전달 핵 수당돌기로부터받은전기신호를처리한뒤축삭돌기로이동 축삭돌기 핵으로부터받은신호를뉴런과뉴런을연결시키는시냅스로전달 8
생각이일어나는과정 뉴런내부에는칼륨이온들이, 뉴런외부에는나트륨이온들이적당하게들어차있어서내부는상대적으로외부에대해음 (- ) 전하를띠고있고외부는양 (+) 전하를띠고있으며, 이때를정지전위상태에있다고말한다. 정지전위상태에서 -70 mv ( mv는 1000 분의 1V) 의전하량을유지하고있다가이뉴런이열, 빛, 압력, 화학물질등으로부터자극을받으면밖에있던나트륨이온들이안으로들어오기시작하고칼륨이온들은밖으로퍼져나가기시작해내부의음전하는양전하로바뀌고외부의양전하는음전하로바뀌게된다 이러한개개의뉴런을전기신호의전달차원에서보면, 수상돌기 ( 다른뉴런으로부터전기신호를받아핵으로전달한다 ), 핵 ( 수상돌기로부터받은전기신호를처리하여축삭돌기로이동시킨다 ), 축삭돌기 ( 핵으로부터받은전기신호를뉴런과뉴런을연결시켜주는시냅스로전달해준다 ) 의 3 부분으로구성되어있다고할수있다. 그리고뉴런과뉴런은 5 십만분의 1 mm의간격을두고떨어진상태에서서로연결을이루고있는데, 이와같은연결부위를시냅스라부른다. 간단히말해생각의전기적이동경로는수상돌기, 핵, 축삭돌기, 시냅스의순서가된다. 이렇게해서바뀐한뉴런의전하가자신의축삭돌기를통해다른뉴런의시냅스로전달해주는과정까지가생각과감각의전기적신호전달경로인데, 이축삭돌기에서의이동경로가참으로독특하다. 축삭돌기는마치지하철전동차처럼여러개의마디와마디가연결된형태로되어있다. A 전동차의전하가음에서양으로바뀌고, 그양의전하가 B 전동차에옮겨가고다시 B 전동차에서 C 전동차로순차적으로음의전하가양으로바뀌어가듯이축삭돌기의각마디도그렇게바뀌면서전기신호를이동시킨다. 그리고한편으로는음의전하가 A 에서 B 로넘어가면 A 는다시음의전하로바뀌어각마디는다시원래의전하를유지한다. 이는칼륨, 나트륨펌프라는화학작용에의해서다시나트륨을내보내고칼륨을끌어들이기때문이다. 뉴런 A 의전기적신호가자신의축삭돌기를통해이동이되어축삭돌기의말단부위에이르렀을때, 이말단부위에서는신경전달물질이라는여러가지화학물질이분비된다. 이를테면이화학물질이우리가흔히기분좋을때생성된다고알고있는 엔도르핀 과스트레스로마음고생이심할때만들어지는 아드레날린 과같은것들이며보통 호르몬 이라부른다. 이러한호르몬들은무수히많은시냅스의연접지점을통해다음뉴런의세포체 ( 뉴런의핵 ) 나수상돌기부위로넘어가서는다시전기신호로바뀐다. 이부분을우리가화학적신호의이동이라고부른다. 따라서생각이발현된다는것은뉴런과뉴런사이에이와같은전기적신호와화학적신호의결합이이루어진다는것이다. 그러나화학적인결합이란전기신호를연결해주는역할에한정되어있으므로전체적으로는전기신호의이동이라할수있다. 프랑크해프너 생물학강의 중 9
생각이일어나는과정 ( 요약 ) 생각작용은전자와양성자의운동으로인한전기파동운동으로표출 여기서잠깐. 사람의생각속도 ( 신경전달속도 ) 는 1/1000 초로최신 CPU ( 수 Ghz) 보다느리지만, 복잡한생각을할수있는이유에대해서는뉴런과뉴런간연결망의복잡성 ( 연결점의수를 10 의 100 만승 / * 제럴드에델만저서 < 신경과학과마음의세계 >) 때문으로생각하고있음 10
인공신경망 (Artificial Neural Network) 11
신경망을이용한분류 12
단층신경망 (1957~ 수학적으로는 n 차원선형분리함수계수를찾아내는과정 13
단층신경망 2 차함수 3 차함수 N 차함수 14
단층신경망한계 (1969~ Marvin Lee Minsky 마빈민스키는단층신경망 ( 선형분리 ) 를통해서는 XOR 연산을할수없다는것을수학적으로증명함 -> 10 년간신경망기반의기계학습은암흑기로접어들고지식기반기계학습이대세가됨 15
단순신경망한계 AND, OR 는기존단순신경망 ( 입력, 출력구조 ) 의선형함수로해결이가능하지만 XOR 는선으로나타낼수없다 해결안은? 16
다층신경망 (1980~ 역전파 (Backpropagation) Algorithm 의탄생 17
다층신경망 총오류함수를줄이는방향으로가중치수정출력단에서가중치를역방향순차적으로수정 수학적으로는선형맞춤 ( 데이터를구분하는선을긋고 ) 비선형변환 ( 공간을왜곡 ) 하는과정 18
다층신경망의한계 Local minimum 에빠질수있는점 ( 진짜해답을찾지못하고틀린답을출력하고끝내는것 : 본질적인한계 ) Over Fitting ( 학습데이터에과최적화되어실제적용하면에러가크게발생 ) 은닉노드가무엇을배울지어떤특성을갖게될지모름 하위계층의학습부진 ( 층이많아질수록느려짐 ) 19
심층신경망 (Deep Learning) 토론토대학의 Geoffrey Hinton 교수 신경망의한계를해결하기위한방법을제시 2006 년 A fast learning algorithm for deep brief nets 20
심층신경망 (Deep Learning) 각각의신경망층을 RBM (Restricted Boltzman Machine) 방식으로따로학습 - 은닉층에원하는특성을갖도록학습할수있음각층은비지도학습 (Unsupervised Learning) 으로진행최종적으로각층마다의학습을역전파방식으로도출 Local Minimum 문제를비지도학습법으로개선 + Over Fitting 문제는 RBM 으로개선 요약 Deep Learning 을통해실제뇌신경망의가장큰특징인 Self Organization ( 자기조직화 ) 를인공신경망에발현시키고적극활용하게됨 인공신경만과같은 Connectionism 이다른기계학습또는정보처리방법론 ( 기호조작주의 ) 대비가장차별화되는장점이며,Self Organization 을통해입력되는정보의홍수에서정보체계를만들어내고있는정보구성요소를스스로자동추출할수있게됨 21
심층신경망 (Deep Learning) 22
Deep Learning CASE Stanford 대학의 Andrew Ng 교수 + Google 의실험 (2012 년 ) 2012 년 1 만 2 천개의 CPU, 10 억개뉴럴네트워크이용 1000 만개의유투브비디오학습 -> 고양이인식 23
Deep Learning 활용사례 24
Deep Learning Open Source Google: Tensor Flow Microsoft: CNTK Sky Mind: DL4j Baidu : WARP-CTC Face Book: Torch 25
Deep Learning Limitation 26
Deep Learning Limitation 부가학습에제약성능을올릴수는있으나도중에학습방침을변경하는것은곤란 이세돌 vs 알파고 알파고가 18 개월간중국룰기반으로학습하였기때문에, 한국바둑규칙 ( 덤 5 집반 ) 을대국을하지못하고중국룰기반으로대국 방대한데이터 + 성능 Deep Learning 의성공을위해서는강력한 Computer Power + Big Data 필요 (Google, Face Book, MS 처럼엄청난규모의서버와 Data 가존재하는기업에서선도적으로성공 ) 27
베이지안 28
확률이론 확률이란? 불확실성을계량화하여표현하는방법 29
확률이론 빈도주의확률 대표학자 : 로널드피셔 ( 현대통계학의아버지 ) 귀무가설, 대립가설을세운뒤충분한검정통계량을얻은후분포에맞는임계값과비교하여기각여부판단 참된확률값은분포를갖지않는고정된상수로생각 충분한검정통계량을얻을수없는경우 예 : 우리동네에서대통령이나올확률? 등 의문제에대해취약 베이지안확률 역사적인천재수학자라플라스, 이론정립 확률은관찰자의주관적인믿음 확률값은고정된상수가아닌분포를가진확률변수로생각함 인간의귀납적사고과정을수학공식으로접근귀납적사고의예 : 의사가진료시기존병력과증상에의거해가장가능성높은병을가정하고검사진행베이지안확률활용사례 : 이메일스팸필터시스템, 제약회사신약개발등 30
인간의귀납적사고과정 : 베이즈접근 P (h d) = P(d h) / P(d) (h: 가설, d: 증거 ) 31
알파고 Deep Learning 활용사례 32
바둑 ( 체스 ) 인공프로그램기본 33
알파고 ML 알고리즘분석 Monte Carlo 트리검색 (MCTS) 게임에서최선의수를찾기위해사용시뮬레이션 + 트리동시적용다수시뮬레이션 + 트리진행을통해수의가치평가 기보분석 : 한지점당 11 개특징 (Feature) 을갖는데이터로변환 11 개의 Feature 를표현하는차원은총 48 차원임 SL Policy Network ( 정책망 ) Conv Net 적용 (SL Policy Network) 2900 만개의기보학습 바둑판 (19 X 19) X 특징 (48) 차원의행렬 (Tensor) 을 Convolution Network 으로분석 19 X 19 행렬에서 0 을 4 만큼덧붙여 (zero padding ) 23 X 23 X 48 행렬로변환 34
알파고 ML 알고리즘분석 목표 : 다음수계산 SL Policy Network 복제 (RL Policy)+ 강화학습진행알파고간 Self Play 승리한착점에 Reward Score 부여강화학습된 RL Network 이 SL Network 에비해 80% 이상승률더높음 목표 : 승리확률계산 Value Network ( 정책망 ) Baysian 확률계산 P (a s) 어떤상태 (Status) 에서다음수 (action) 확률분포계산 Baysian 확률계산 P (a s) Reward score(z_t) 가최대화되는방향으로학습 Value Network Policy Network 의 Architects 가동일하고마지막신경망층만확률아닌예측값계산실제 Reward Score (z) 와 Value network 예측값사이의 MSE (Mean Squared Error) 를최소화하는방향으로학습 35
알파고 ML 알고리즘분석 36