기획시리즈 기획시리즈 인공지능 인공지능(AI) 부활의 동인과 국내외 기술개발 동향 정영임 한국과학기술정보연구원 정보기반실 선임연구원 acorn@kisti.re.kr 1. 서론 2. 인공지능시대 부활의 동인 3. 인공지능 바둑 프로그램 알파고 알고리즘 4. 국내외 기술 및 연구 동향 5. 결론 및 시사점 1. 서론 인공지능(Artificial Intelligence: AI)이란 기억, 지각, 이해, 학습, 연상, 추론 등 인간의 지성을 필요로 하는 행위를 컴퓨터 또는 컴퓨터 소프트웨어를 통해 실현하고자 하는 학문 또는 기술을 총칭한다[1]. 1955 년 존 매카시(John McCarthy)에 의해 AI 란 용어가 정의 되면서 인공지능에 대한 연구가 시작되었고, 반세기를 넘어 발전과 침체를 거듭하다 최근 기하급수적으로 향상된 컴퓨터의 계산 능력, 빅데이터 그리고 딥 러닝 기술의 활용으로 또다시 전성기를 맞고 있다. 인공지능은 인간의 뇌를 시뮬레이션하는 것을 목적으로 하는 강한 인공지능(Strong AI)과 특정 데이터를 입력하고 프로그램을 통해 학습시킴으로써 특 화된 작업을 수행하는 것을 목적으로 하는 약한 인공지능(Weak AI)으로 구분할 수 있다. 현재 상용화가 활발하게 진행되고 있는 분야는 약한 인공지능 기술 영역이며, 이는 인터 넷에 누적된 광범위한 데이터뿐만 아니라 웨어러블 단말, 각종 센서 등 새로운 플랫폼의 출현으로 더 많은 데이터를 시스템에 축적 및 학습하는 것이 가능해졌기 때문이다[2],[3]. 현재 세계 최고의 기업인 포춘 500 에 속하면서 인공지능 분야에 발을 들여 놓지 않은 기 업은 거의 없다. 산업 분야도 다양해서 유통, 자동차, 금융, 의료, 교통, 군사, 소비재, 에너 지 등 모든 영역의 기업이 포함되어 있다. 구글 딥마인드의 알파고(AlphaGo)와 이세돌 9 * 본 내용과 관련된 사항은 KISTI 정보기반실 정영임 선임연구원( 042-869-1768)에게 문의하시기 바랍니다. ** 본 내용은 필자의 주관적인 의견이며 IITP 의 공식적인 입장이 아님을 밝힙니다. 정보통신기술진흥센터 11
주간기술동향 2016. 3. 30. 단과의 대결은 현재 전인류의 관심사이다. 본 고에서는 최근 10 년간 눈부신 발전으로 제 3 의 전성기를 맞은 인공지능 부활의 동인을 짚어보고 세간의 이목이 집중된 알파고 알고 리즘을 분석한다. 또 인공지능 관련 기술개발 동향에 대해 기술한다. 2. 인공지능시대 부활의 동인 분석 가. 딥 러닝 서론에서 거론한 바와 같이 인공지능 전성기의 재림은 핵심기술인 딥 러닝 알고리즘과 범용 GPU 의 비약적인 발전, 그리고 인터넷과 모바일, 센서 등을 통해 축적된 막대한 양 의 빅데이터 활용으로 가능하였다[4]. 딥 러닝은 심층신경망(Deep Neural Network)을 활용한 기계학습 방법이다. 1980~90 년대에 이론적 토대가 정립된 인공신경망(Artificial Neural Network: ANN)을 기반으로 하고 있다. 분류 문제에 있어 ANN 은 데이터를 잘 구분할 수 있도록 선형 맞춤을 한다. 구분선에 의해 분류가 안 되는 경우에는 비선형 변환 (nonlinear transformation)을 통한 공간 왜곡을 하고 다시 선에 의한 데이터를 구분함으 로써 복잡한 공간 속에서 최적의 구분선을 만들어 내는 데 목적이 있다[5]. 하지만 최적화(optimization)하는 데 드는 비용이 엄청날 뿐만 아니라 지역해(local minima) 문제로 인해 2000 년대에는 기계학습의 주류에서 밀려났다. 그러나 2006 년 토 론토대학의 힌톤 교수 등은 비지도 학습을 통해 데이터를 전처리하고 지도 학습으로 ANN 의 최적화를 수행하면 신경망의 깊이가 크게 증가해도 학습이 잘 된다고 밝혔다[6]. 이후 다양한 비지도 학습 알고리즘인 Restrict Boltzmann Machine(RBM), Autoencoder, Deep Belief Network 등과 Convolutional Neural Network(CNN), Sigmoid Neural Network 와 같은 지도 학습 알고리즘의 조합이 시도되었다. 또 시퀀스 데이터에서 탁월한 성능을 보이는 Recurrent Neural Network(RNN)의 개발과 Long-Short Term Memory (LSTM)의 도입으로 영상 데이터, 주가 데이터 등의 시계열 처리에 있어 학습 성능도 크 게 증가하였다[3]. 대부분의 기계학습 적용 분야에서 학습 자질(Learning Features)의 추 출 역시 학습의 성능을 좌우하며, 딥 러닝에서는 CNN 을 이용하여 자동으로 학습 자질을 추출하여 사람의 개입 없이도 기계학습을 수행하고 있다. 기존의 지도학습이 정답이 있는 적은 양의 학습 데이터로 생성된 모델이 학습 데이터에 과적합(Overfitting)되어 실제 문 제에는 성능을 발휘하지 못하는 한계가 있었다. 딥 러닝의 경우 지도학습과 비지도 학습 12 www.iitp.kr
기획시리즈 인공지능 의 결합과 다양한 전처리 기법(Drop-out, Hold-out), 그리고 경험에 의한 휴리스틱 1) 데 이터 정규화 방안, 조기 종료(Early Stopping) 등을 총동원하여 태깅되지 않은 막대한 양 의 데이터를 획기적으로 향상된 성능으로 학습함으로써 인공지능 기술의 비약적인 발전을 견인하고 있다. 나. 범용 GPU GPU(Graphics Processing Unit)는 컴퓨터의 그래픽 연산을 전문적으로 담당하는 하 드웨어로 3D 그래픽 처리를 하는데 주 목적이 있다. GPU 는 부동소수점 연산을 하는 소 형의 코어 수천 개로 구성되어 병렬로 데이터를 처리하므로 소수의 코어로 구성된 CPU 에 비해 그 성능이 매우 뛰어나다. 범용 GPU(General-Purpose computing on GPU, GPGPU)는 GPU 가 CPU 보다 개별 코어의 연산 성능이 낮지만 병렬화가 가능할 경우 수 천 개의 코어로 계산의 효율이 크게 증가하는 것에 착안하여 그래픽 연산뿐만 아니라 일 반 컴퓨터 계산 영역에서도 GPU 를 활용하고자 하는 체제를 말한다[7]. GPGPU 가 뛰어 난 연산 속도를 낼 수 있지만 병렬 프로세싱을 위한 프로그래밍이 필요하다. 병렬 프로그 래밍 모델로는 C++AMP(C++Accelerated Massive Parallelism), CUDA, Open ACC, OpenCL(Open Computing Language) 등이 있다. C++AMP 는 CPU 와 GPU 를 사용한 이기종 컴퓨팅을 위한 개방형 프로그래밍 언어로 GPU 를 활용하여 C++ 코드의 실행속 도를 높일 수 있으나 플랫폼 의존적이며 Visual Studio 2012 에서만 사용 가능하다. CUDA 는 C 언어에 기반하여 공유 메모리를 사용하여 빠른 연산을 가능하게 한다. 또 시뮬레이 션과 같이 대량의 연산을 요구하는 다양한 분야의 병렬처리 연산에 적합하며 뛰어난 성능 을 자랑한다. 그러나 제조사에 특화되어 NVIDIA 의 Geforce 8 시리즈급 이상의 GPU 지 원만 가능하다. 최근에는 CUDA Fortran, PyCUDA(Python 기반) 등이 제공된다. Open ACC 는 컴파일러 지시문 기반 프로그래밍 모델로 개발자에게 비교적 간편한 프로그래밍 환경을 제공하여 더 높은 생산성을 기대할 수 있고 플랫폼 의존도가 낮은 장점이 있다. 그 러나 성능면에서 CUDA 보다 열세를 보인다. 크로노스 그룹에서 유지 관리 중인 OpenCL 1) CNN 에서 Multi Layered Perceptron 대신 수렴을 쓰거나 feed-forward 대신 RNN 을 쓰는 융통성을 발휘할 수 있다. 더 중요 한 것은 경험적으로 밝혀진 특정 데이터에 최적화된 모델을 선택하는 것이다. 또한, 최적화를 위한 활성화 함수(activation function)도 기존에는 시그모이드 계열 활성화 함수(sigmoid 혹은 Tanh 함수)가 사용되었으나 최근에는 Rectified Linear Units(ReLU neurons)가 각광을 받고 있다(http://iliauk.com/2016/01/24/introduction-to-deep-learning-part-1). 정보통신기술진흥센터 13
주간기술동향 2016. 3. 30. 은 Apple, IBM, Intel, NVIDIA 에서 개발한 범용 병렬 컴퓨팅 프레임워크로 GPU 와 기타 프로세서로 이루어진 이종 컴퓨터 시스템을 위한 산업 표준 프로그래밍 모델이다. Open GL 과 완벽하게 연동되며 모바일 임베디드 분야에서 사용이 가능하지만, NVIDIA 와 인텔 의 지원 부족으로 이기종 플랫폼 구현이 제한되는 단점이 있다[8]. 최근 저렴한 가격의 GPU 제품의 출시와 이를 효율적으로 이용할 수 있는 다양한 병렬 프로그래밍 모델이 개 발되어 딥 러닝과 빅데이터를 위한 컴퓨팅 속도는 획기적으로 개선되었다. 다. 빅데이터 빅데이터 기술과 함께 잊혀졌던 인공지능 기술이 재부상하고 있다. 빅데이터는 지금까 지 분석할 수 없었던 방대한 양의 정보를 분석하는 기술이다. 불가능할 것으로 여겨졌던 음성인식, 자동번역 등 인공지능의 가장 오래된 난제들이 빅데이터를 기반으로 해결의 실 마리를 찾고 있다. 빅데이터는 기계학습, 자연어 처리, 각종 통계 기법, 분산 병렬 컴퓨팅 기술 등 다양한 기술이 복합적으로 결합되어 있으며, 빅데이터의 요소 기술은 다음과 같 다. 컴퓨터가 정보를 받아들이는 첫 단계에서 가장 중요한 기술은 자연어 처리 기술이다. 또 영상이나, 행동, 온도, 습도 등 사람이 감각기관으로 감지하는 정보를 받아들여 처리하 는 기술도 요구된다. Hadoop, MapReduce, NoSQL 등은 수집된 데이터를 실시간으로 분 석할 수 있도록 하는 컴퓨팅 기술이다. 대용량의 데이터를 다루기 위해 데이터를 여러 대 의 서버에 분산 저장하고 이를 동시에 처리하기 위한 병렬처리 방식을 써야 하기 때문에 분산병렬 컴퓨팅 기술이라고도 한다. 마지막 기술 요소는 이들 데이터에서 의미를 도출하 고 활용하기 위한 기술이다. 데이터 속에서 패턴을 찾고, 새로운 정보를 덧붙여 좀더 정교 화된 패턴을 만들어 내고, 실시간으로 갱신되는 정보와 결합하여 현재 상황을 분석하고 예측치를 만들어 낼 수 있다. 이를 위해서는 Regression, ANOVA 와 같은 통계 모형과 기계학습 알고리즘, 그리고 분석된 결과치를 직관적으로 이해할 수 있도록 시각화하는 기 술이 필요하다[9]. IBM 의 왓슨 컴퓨터는 딥 러닝 기술을 사용하지는 않았다. 대신 사람의 지식을 집대성 한 도서, 논문, 백과사전, 성경, 소설 등 약 100 만 권 이상의 책을 지식베이스로 구축한 후 종합 분석에 활용하였다. 빅데이터와 컴퓨팅 파워에 의해 가능한 성공 사례이나, 인공 지능과 딥 러닝 모두 학습 데이터 양과 밀접한 관계가 있는 까닭에 독자적인 솔루션보다 는 플랫폼 오픈 정책을 사용하거나 오픈 생태계를 구축하기도 한다. IBM 은 IBM Watson 14 www.iitp.kr
기획시리즈 인공지능 EcoSystem 을 구축하고 중소기업 파트너쉽과 다방면의 빅데이터를 확보하고 있다[4]. 3. 인공지능 바둑 프로그램 알파고 알고리즘 세기의 대결을 앞두고 있는 구글 딥마인드의 인공지능 소프트웨어 알파고는 딥 러닝을 바탕으로 몇 주만에 3,000 만 건이 넘는 대국 정보를 스스로 학습하며 최선의 수를 터득 하고 있다. 이는 사람의 학습 속도에 대입할 경우 약 1000 년 동안 바둑에 매진한 것과 맞먹는 분량이다. 이러한 방대한 양의 데이터를 처리하기 위해 알파고는 거대한 네트워크 로 연결된 분산 시스템을 통해 다수의 CPU 및 NVDIA GPU 프로세서들을 활용한다. 또 알파고는 딥 러닝 알고리즘 및 GPU 기술을 바탕으로 강화 학습 을 끊임없이 진행한다는 점에서 기존의 인공지능과 차별화된다[10]. 바둑은 우주의 원자 수보다 많은 경우의 수를 가지고 있어 완벽한 탐색은 불가능에 가 깝다. 알파고가 착수를 결정하는 부분에는 몬테카를로 트리 탐색(Monte Calro Tree Search; MCTS) 기법이 사용되었다. 바둑 인공지능 소프트웨어에서 가장 널리 사용되는 알고리즘 인 MCTS 는 무한대에 가까운 탐색의 폭과 깊이를 줄이는 역할을 한다. MCTS 에서 트리 의 폭을 제한하는 것은 정책이고, 트리의 깊이를 줄이는 것은 가치이다. MCTS 에서 정책 은 정확한 가치를 추정하는데 중요하다. 알파고의 MCTS 는 프로 바둑기사의 기보를 바탕 으로 프로기사 수준의 정책과 가치 성능을 확보하고, 강화학습을 통해 정책과 가치의 성 (a) (b) <자료> D Silver et al. Nature 529, 484 489 (2016) doi:10.1038/nature16961 (그림 1) 알파고의 인공신경망 학습 절차 및 구조 정보통신기술진흥센터 15
주간기술동향 2016. 3. 30. 능을 향상시킨다[10]. (그림 1)은 파이프라인으로 구현된 알파고의 인공신경망 학습 절차 를 보여준다. a. 바둑 기보를 기반으로 학습된 지도 학습 정책망(SL policy network) p σ 와 정확도는 떨어지나 빠르게 게임 종료시점까지 시뮬레이션하는 정책 p π 는 바둑기사의 수를 예 측하기 위해 학습된다. 강화 학습 정책망(reinforcement learning policy network) 인 p ρ 는 지도 학습 정책망으로 초기화한 후 자체 경기를 통해 결과적으로 승률을 높이는 방향으로 강화 학습한다. 강화 학습한 정책망으로 자체 경기한 게임이 다시 새로운 데이터 세트로 생성된다. 마지막으로 가치망(value network)인 v θ 가 자체 경기 데이터 세트를 기반으로 현재 위치에서의 승률을 예측하기 위해 회귀모형으로 학습된다. b. 알파고에서는 인공신경망의 구조적 표상을 이용한 학습이 2) 이루어진다. 정책망은 특 정 바둑판의 위치 s 를 입력으로 받아 이를 σ(지도학습 정책망 파라미터) 혹은 ρ(강 화 학습 정책망 파라미터)를 가진 수많은 컨볼루션 레이어로 넘기고, 현재 위치를 조건부로 한 다음 수 a 에 대한 확률 분포 p (a/s) 혹은 p (a/s) 를 출력한다. 가치 망은 정책망과 유사하게 파라미터 θ 를 가진 컨볼루션 레이어를 활용하지만, s 위치 에서의 승률 예측치(가치)인 하나의 값(scalar) v θ (s )를 출력한다. 알파고 성능을 추 정하기 위해 5 개의 기존 바둑 인공지능 프로그램과 495 경기를 수행한 결과, 알파 고가 494 번 승리함으로써 99.8%의 승률을 확보하였다[2]. 4. 국내외 기술 및 연구 동향 서론에서 밝힌 바와 같이 인공지능 기술 개발을 위한 전세계적인 움직임이 가속화되고 있다[2],[11]. 본 장에서는 미국, 유럽, 일본, 중국 등 해외와 국내에서 전개되는 인공지능 관련 기술개발 동향을 살펴본다. 가. 미국 미국 역시 관련 기술개발 정책을 범정부 차원에서 추진 중이다. 인간두뇌 분석을 통한 2) 표상(representation)을 이용한 학습이란 학습 데이터에서 얻어진 자질(feature)을 바로 학습하여 원본을 예측하는 것과 달리 추 출된 핵심 자질만을 이용하여 중간 단계인 표상을 만들고 이로부터 원본을 예측해내는 학습 방법을 말한다. 16 www.iitp.kr
기획시리즈 인공지능 인공지능 원천기술 확보를 위해 2013 년 2 월에 브레인 이니셔티브(Brain Research through Advancing Innovative Neurotechnologies Initiative, BRAIN Initiative)를 발표하였다. 인 간의 뇌 지도 작성을 비롯하여 지각, 행동, 의식 등이 이루어질 때 발생하는 뇌의 활동을 연구한다. 또한, 미국은 원천기술 개발뿐만 아니라 실제 인공지능을 활용하기 위한 상용화 연구도 적극적으로 전개 중이다. 미국 국방고등연구계획국(Defense Advanced Research Projects Agency, DARPA)은 자동 항해가 가능한 항공기 개발을 목표로 ALIAS 프로젝 트를 진행 중이다. DARPA 는 2015 년 1 월에 인간의 개입을 최소화한 무인 드론(Drone) 개발 프로젝트 CODE(Collaborative Operations in Denied Environment)도 공개하였다. 현재 무인항공기 1 대를 조종하는데 30 여 명의 인력이 투입되고 있는 만큼 프로젝트 CODE 가 성공리에 마무리된다면 군사 비용의 대규모 절감이 가능할 것으로 전망하고 있 다[12]. 미국 대학들 역시 인공지능 기술 개발을 활발히 진행중이며, 2015 년 2 월 스탠포드 인 공지능연구소(Stanford Artificial Intelligence Laboratory)는 아우디 TTS(Audi TTS)를 기반으로 개발된 로봇자동차 Shelley 가 현역 레이서보다 빠른 주행시간을 기록했다고 발표하였다. 카네기멜런대학은 2015 년 1 월에 포드와 함께 로봇차량용 음성 인식 솔루션 개발 연구소를 설립하고 우버와 함께 자율주행차량 개발을 위한 컨소시엄을 형성하였다. MIT 역시 관련 기술 개발에 박차를 가하고 있으며, 자동로봇청소기 제조사인 룸바와 함 께 사족보행로봇을 개발하였다[12]. 미국은 구글, 페이스북, 마이크로소프트, IBM, e-bay 등 IT 강자들의 인공지능 패권 다툼이 치열하게 벌어지고 있는 곳이다. 구글은 2011 년에 구글 브레인 프로젝트와 인공 지능 연구 개발을 위해 영입했던 앤드류 응(Andrew Ng) 교수가 바이두로 이직하자 레이 커즈와일(Ray Kuzweil)을 인공지능 기술 책임자로 영입하였다. 또 강화 학습의 독보적 전 문성을 보유한 영국의 딥마인드(DeepMind)를 6 억 달러에 인수하는 등 최전선에서 과감 한 투자와 연구 개발을 지속하고 있다. 최근에는 자율주행자동차와 로봇 등에서 경쟁우위 를 확보하는 데에도 노력하고 있다. 페이스북 역시 딥 러닝 기반 이미지 인식 소프트웨어 인 딥 페이스(DeepFace)를 개발하여 페이스북에 새롭게 업로드되는 사진에 태그를 붙이 도록 제안함에 있어 높은 정확도를 보일 것으로 기대된다. 마이크로소프트는 디지털 개인 비서 코타나를 출시하였다. 코타나가 자사의 검색엔진 빙(Bing)의 방대한 데이터베이스와 정보통신기술진흥센터 17
주간기술동향 2016. 3. 30. 연결될 경우, 특정 주제에 관한 사용자와 코타나 사이의 심도 있는 대화도 가능할 것으로 전망된다. 딥블루와 왓슨을 개발하여 인공지능의 가능성을 확인시켜 주었던 IBM 역시 딥 러닝 기법을 추가하여 왓슨의 상업적 가치와 활용도를 확장하는 데 주력하고 있다. 새로 운 버전의 왓슨은 암환자의 몸에서 발견된 종양의 악성 여부를 판단하고 최적의 치료법을 제안하는 의학 전문 시스템으로 거듭나고 있으며, 또 다른 버전은 딥 러닝에 기반하여 기 계번역, TTS(Text to Speech), STT(Speech to Text) 기능을 일반 개발자에게 공개함으 로써 가능한 모든 종류의 앱 개발자들이 왓슨이 가진 데이터 검색과 자연어 사용 능력을 활용하도록 하는 데 주력하고 있다. 이 외에도 실리콘벨리의 많은 스타트업들이 딥 러닝과 관련된 세부기술을 발전시키고 있고, 이에 투자되는 금액이 급증하면서 인공지능의 적용 분야가 의료, 신약 개발, 보안, 광고, 금융거래, 범죄 예방, 신재생 에너지, 교통, 건설 등으로 빠르게 확대되고 있다[13]. 나. 유럽 EU 는 미래 유망 첨단기술연구 지원사업 대상 중 하나로 스위스 로잔연방공과대의 인 간두뇌 프로젝트 (The Human BRAIN Project: HEP)를 선정하였다. HEP 는 23 개국 약 250 명의 연구자들이 참여하는 대규모 프로젝트로 인간 두뇌 시뮬레이션 및 인간의 두뇌 기능과 동작방식에 대한 이해를 돕는 새로운 도구를 개발하여 미래의 의학 및 컴퓨팅 분 야에 적용하는데 그 목적이 있다. 유럽의 각국은 인공지능 핵심기술 개발에 관심을 두기 보다는 기존 기술과 산업을 지능화시키는 정책으로 인공지능 관련 연구가 이루어지고 있 다. 독일의 연방경제기술부는 하이테크 전략 2020 의 일환으로 생산기술자동화를 위한 응용 프로그램을 발표하였다. 이 프로그램은 최신 IT 기술을 에너지, 환경 및 금속 분야에 접목하고 나아가 이를 통해 유연성 높은 생산 인프라를 구축하여 사용자 맞춤형 제품 생 산이 가능하도록 하는 데 목적이 있다. 인공지능 작업로봇, 가사도우미, 간호로봇 등 다양 한 제품 연구를 포함한다. 지속 가능하며 지능적인 전력망 연구를 위해 독일 연방경제기 술부, 환경부, 교육연구부가 연구개발 지원 공동 이니셔티브를 구성하였다. 최적화된 송ㆍ 분전기술, 지능형 전력망, 신개념 그리드 디자인 및 혁신적 저항관리 등에 대한 연구가 포 함된다. 최근 영국 대학ㆍ과학 담당 장관은 세계적 연구 개발을 선도할 주요 8 개 기술 분 야를 선정, 총 6 억 파운드의 연구자금을 분야별로 투자할 계획이라고 발표하였다. 새로 할당된 주요 8 개 분야에는 빅데이터와 에너지 고효율 컴퓨팅(Energy Efficient Computing) 18 www.iitp.kr
기획시리즈 인공지능 이 포함되고, 로보틱스(robotics)와 자율시스템의 분야의 대학, 혁신센터, 사이언스 파크, 기업을 아우르는 학계와 산업계의 연계 우수 연구센터에도 3,500 만 파운드가 지원된다 [14]. 다. 일본 일본은 2016 년 4 월부터 시작되는 제 5 기 과학기술기본계획에서 초 스마트 사회 의 실현이 중요한 목표라고 밝혔다. 이의 실현을 위해 다양한 정보통신기술이 필요한데, 컴퓨 터가 인간과 고급 상호작용을 위한 고급 인공지능 기술 개발의 중요성을 강조하였다[15]. 일본 총무성은 인공지능의 향후 발전 가능성과 사회에 미치는 영향을 종합적으로 전망하 고, 관련 분야에서 일본의 국제 경쟁력 강화를 위한 과제를 정리하고 향후 대책을 연구하 기 위해 2015 년 2 월 6 일 인공지능화가 가속화 되는 ICT 미래상에 관한 연구회(インテ リジェント 化 が 加 速 する ICT の 未 来 像 に 関 する 研 究 会 ) 를 개최하였다[16]. 일본 경제산업 성은 자국 경제 성장의 핵심전략으로 로봇혁명 을 추진하기 위해 2015 년 1 월에 로봇 신전략(Japan s Robot Strategy) 을 발표했다. 로봇 신전략 의 주요 내용은 1 일본을 세 계 로봇 이노베이션 거점으로 하는 로봇 창출력의 근본적 강화, 2 중소기업, 농업, 간병 ㆍ의료, 인프라 등 세계 최고의 로봇 활용 사회를 목표로 로봇이 일상을 실현할 수 있는 로봇 활용ㆍ보급, 3 사물인터넷(IoT) 시대에 빅데이터, IT 와 융합, 네트워크, 인공지능 을 구사하는 로봇으로 세계를 주도하는 로봇혁명 전개ㆍ발전 이다. 산ㆍ관ㆍ학을 연계한 추진기구인 로봇 혁명 이니셔티브(Robot Revolution Initiative) 를 창설하여 니즈(needs) 와 시즈(seeds)의 매칭, 모범 사례 공유ㆍ보급, 국제 프로젝트, 국제표준 획득, 데이터시큐 리티, 국제협력 등을 추진한다. 또한, 국제표준화를 위해 관련 분야 인재 육성, 2020 년 도 쿄올림픽에 맞춰 로봇 올림픽 개최 계획 등 중장기적 관점에서 추진하고 있다. 2020 년까 지 5 년간 제도환경 정비, 다양한 정책적 지원을 통해 로봇 개발에 대한 민간투자를 확대 하여 1,000 억 엔 규모의 로봇 프로젝트를 추진하고, 이를 통해 5 년간 관련 시장 규모를 현재의 4 배인 2 조 4,000 억 엔으로 확대한다는 계획이다[15]. 일본에서 전개되는 인공 지능 기술개발 프로젝트로는 2011 년부터 Fujitsu 연구소와 NII(National Institute for Informatics)가 공동으로 2021 년에 동경대 합격이 가능한 수준의 인공지능 시스템 개발을 위한 Todai 프로젝트가 있다[17],[18]. 정보통신기술진흥센터 19
주간기술동향 2016. 3. 30. 라. 중국 바이두는 2014 년 5 월에 실리콘밸리에 3 억 달러를 투자하여 연구원 200 명을 수용할 수 있는 대규모 R&D 센터를 조성하고 앤드류 응 교수를 영입하여 실리콘밸리와 베이징 연구소의 총책임자로 임명하였다. 바이두는 향후 5 년간 인공지능연구소와 개발 부서 인 원을 확충할 계획이다. 바이두는 인간의 개입이 최소화되는 비지도 학습 기법 개발을 핵 심 목표로 삼아 응이 주도하는 인공지능 기술 개발이 자사의 비즈니스 역량을 크게 향상 시킬 것으로 기대하고 있다. 기존 중국시장 고객뿐 아니라 미개척 시장의 고객들이 언제, 어디서든 쉽고 편리하게 사용할 수 있는 이미지나 음성 중심의 직관적 서비스 제공을 통 해 검색 시장의 경쟁우위를 차지할 수 있으리라 보고 있다[13],[19]. 마. 국내 국내는 기존 ICT 분야 경쟁력을 유지하고 국외 기업들과의 기술격차를 줄이기 위해 정부 주도의 장기간 국책사업이 진행되고 있다. 미래창조과학부는 정보통신 분야의 4 세 대 패러다임은 방대한 데이터로부터 고수준의 지식창출이 가능한 인공지능 기반의 지능형 플랫폼으로 발전될 것으로 전망하고, 2013 년부터 10 년간 빅데이터로부터 스스로 학습하 여 지식을 축적하고, 시스템 및 기기 간의 자율협업방식으로 새로운 문제를 해결하는 엑 소브레인(ExBrain) 소프트웨어 기술개발 과제를 진행중이다. 이 과제는 병렬형 과제로 구 성되어 있으며, 지능진화형의 질의응답, 빅데이터 이해 기반의 자가학습형 지식베이스, 자 가학습 지능 원천기술 및 지식협업 프레임워크 기술이 주 연구 내용이다. 엑소브레인 4 개 의 병렬형 과제 중 1 세부과제인 지능진화형 질의응답시스템(일명 WiseQA) 개발 과제는 복잡한 자연어로 기술된 문제의 의미를 이해하여 추론을 통해 정답을 생성하는 것을 목표 로 한다. WiseQA 과제에서 도전하게 될 기술은 크게 세 가지로 나눌 수 있으며, 자연어 이해 기술, 빅데이터로부터 끊임없이 새로운 언어지식 및 문제해결 지식을 학습하는 지속 적 학습기술, 자연어 질문에 대한 문제를 이해하고 정형/비정형 지식으로부터 정답을 추론 하는 질의응답 기술이다. 민간에서 진행되고 있는 빅데이터 지식처리 인공지능기술의 연 구사례는 그리 많지 않은 편이다. 삼성에서는 S 보이스 서비스를 통해 Wolframe Alpha 의 3) 단답형 질의응답 서비스와 제휴하여 영어권 서비스를 제공하고 있으며, 다음 포털은 영 3) Siri 서비스의 질의응답 담당으로, 수식, 알고리즘, 모델을 적용하여 사용자 의도에 맞는 정답을 제시한다(http://www.wolframealpha.com). 20 www.iitp.kr
기획시리즈 인공지능 화, 인물, TV 프로그램 시청률 등의 구조화된 정보를 대상으로 제한된 단답형 질의응답 서 비스를 제공하고 있다[17]. 5. 결론 및 시사점 블룸버그베타의 투자자인 쉬본 질리스는 세상의 일을 바꿀 회사들을 선정했는데 대부 분의 산업 영역에서 인공지능 기술을 통해 새로운 혁신이 일어날 것으로 보았다. 전세계 유수의 산업 전망 분석 기관들 역시 인공지능 산업과 시장규모가 급성장할 것으로 내다 보고 있다. 트랙티카(Tractica)에서 나온 2015 년 4 월 보고서는 기업용 인공지능시스템 시장이 2015 년 2 억 달러 수준에서 2024 년 111 억 달러 규모로 연평균 56.1% 급성장 하고, BBC 리서치는 2024 년 전체 스마트 머신 시장의 규모가 412 억 달러에 달하며, 트 랜스페런시 마켓 리서치는 인공지능 기술 중에서도 예측 분석 소프트웨어 시장에 대해 2019 년 65 억 달러 이상의 규모로 성장할 것으로 전망하였다[3]. 미국을 중심으로 한 IT 거대 기업에서는 인공지능 인재와 지적재산권 확보를 위한 전쟁이 치열하다. 인공지능 중 빅데이터 기반 심층 질의응답 관련 특허 출원 기업은 2014 년을 기준으로 마이크로소프 트가 1 위, 그 뒤로 IBM 과 구글 등이 다수의 특허를 출원하였다. 미국 실리콘밸리 기업의 출원이 나머지 전체 국가 출원 규모의 절반 이상을 차지하고 있다[10]. 이는 비단 빅데이 터 기반 심층 질의응답 기술 분야뿐만 아니라 의료, 금융, 건설, 군사 등 거의 모든 산업 분야에서 나타나는 양상이다. 따라서 Google, IBM, Apple 등 IT 거대 기업이 기보유한 특허를 회피할 수 있는 개량ㆍ신규 특허의 확보가 시급한 상황이다. 또한, 앞으로 IoT 시 대가 도래하면 인간뿐만 아니라 수많은 기기에서 생성하는 데이터가 상상 이상의 규모로 축적될 것이고 빅데이터의 처리를 위한 하드웨어에 대한 연구도 지속되어야 한다. 인공지 능 알고리즘, 초고성능 컴퓨팅 자원 그리고 빅데이터가 시너지를 이루어 산업 전반에 활 용되면 머지않아 인공지능이 인간 지능을 넘어서는 수준에 도달할 수 있을 것이다. 인공 지능 플랫폼이 기반이 되는 4 차 산업혁명의 시대에 살아남기 위해 우리나라도 정부의 장 기적이고 정책적인 지원이 필요하며, 민간도 학계, 연구기관 등과 협력하여 산ㆍ학ㆍ관이 연계된 인공지능 기술개발 산업생태계를 조성해야 한다. 또한 관련 인재 양성과 기술개발 에 전력을 쏟아야 할 시점이다. 정보통신기술진흥센터 21
주간기술동향 2016. 3. 30. <참 고 문 헌> [1] Wikipedia, Artificial Intelligence(https://en.wikipedia.org/wiki/Artificial_intelligence) [2] 성낙환, 인공지능 기술의 걸음마가 시작되었다., LGERI 리포트, 2012. 6. 20. [3] 한상기 인공지능의 현재와 미래: 산업계를 중심으로, KISA, Report Power Review, 2015. 9. [4] 민옥기, 임지연, 박경, 빅데이터로 발전하는 인공지능 기술개발 동향, IITP, 주간기술동향, 2016. [5] LeCun, Y., Bengio, Y. & Hinton, G., Deep learning, Nature, 521, 2015, pp.436-444. [6] http://t-robotics.blogspot.kr/2015/05/deep-learning.html#.vujdbllf2uk [7] 유동현, 임요한, GPU 를 이용한 범용 계산의 소개, 한국데이터정보과학회지, 24(5), 1043-1061, 2013. [8] 이현진, 정유나, 이성길, GPGPU 프로그래밍 모델의 기술 동향, 제 39 회 한국정보처리학회 춘계학 술발표대회 논문집, 20 권 1 호, 389-391, 2013. 5. [9] 손민선, 문병순, 빅데이터 시대의 한국: 갈라파고스가 되지 않으려면, LGERI 리포트, 2012. 3. 14. [10] 추형석, 안성원, 김석원, AlphaGo 의 인공지능 알고리즘 분석, 소프트웨어정책연구소, SPRi Issue Report, 2016-002, SPRi, 2016. 3. 3. [11] 장우석, 안중기, 인공지능(AI) 관련 유망산업 동향 및 시사점, 현대경제연구원, VIP Report, 14:33, 2014. 9. 15. [12] 미국의 인공지능(AI) 기술 R&D 추진 동향, IITP, 해외 ICT R&D 정책동향, 2015 년 3 호, pp.1-10. [13] 조용수, 똑똑한 기계들의 시대: 인공지능의 현주소, LGERI 리포트, 2015. 7. 29. [14] 백성진, EU 권 주요국 기술정책 동향보고(3:1), 한국산업기술진흥원, KIAT 산업기술정책 브리프, 2013-7 호, 2013. 2. [15] http://www.jst.go.jp/pr/jst-news/ [16] 이시작, 일본의 미래시대를 지배할 인공지능(AI) 연구 및 정책 동향, 동향, 27:6, 2015, pp.23-29. [17] 이형직, 류법모, 임수종, 장명길, 김현기, 빅데이터 지식처리 인공지능 기술동향, ETRI, 전자통신동 향분석 29:4 2014. 8, pp.30-38. [18] 일본 스타트업 투자 생태계, 기업 벤처 캐피털(CVC) 주도로 성장, KISA, Report Power Review, 50-51, 2015. 9. [19] 최재홍, 중국 바이두의 인공지능, KISA, Report Power Review, 38-46, 2015. 9. 22 www.iitp.kr