<707231352D30372DC0CEB0F8C1F6B4C9C0C720B1D4B9FCC0CCBDB4BFCD20C1A4C3A5C0FB20BDC3BBE7C1A12DC6EDC1FDC3D6C1BE2D312E687770>



Similar documents
1

시안

자율주행 및 지뢰탐지 HRI, 원격제어, 인지, 항공우주 물체인식, HRI 물체조작, 우주탐사 헬스케어, 센서 지능로봇 기술 물체인식, 센서, 조작 원격제어 인지, HRI, 자율주행 자율주행 [ 1] 1 로봇 제조, 공 자 인, 지 작 서 스, 인서 스, 지,,, 인자


입장

제3장.ppt

18 박 준( ).hwp

1010_STEPI_Insight_124호_수정본_v.10_최종수정2.hwp


<3036C0CCBCB1BFEC2E687770>

*5£00̽ÅÈ�

2007-최종-10월 16일자.hwp

2015학년도 고려대학교 수시모집 일반전형 논술고사

2011 IT 기술예측조사03-요약.indd

<3130BAB9BDC428BCF6C1A4292E687770>

최종ok-1-4.hwp

중국 상장회사의 경영지배구조에 관한 연구

03¼ºÅ°æ_2

기획 1 서울공대생에게 물었다 글 재료공학부 1, 이윤구 재료공학부 1, 김유리 전기정보공학부 1, 전세환 편집 재료공학부 3, 오수봉 이번 서울공대생에게 물었다! 코너는 특별히 설문조사 형식으로 진행해 보려고 해 요. 설문조사에는 서울대학교 공대 재학생 121명, 비

< F D20C0C7B7E1B9E8BBF3B0F8C1A6C1B6C7D520C3DFC1F820B0FCB7C320BFACB1B85FBCF6C1A42E687770>

<4D F736F F D20C3D6BDC C0CCBDB4202D20BAB9BBE7BABB>

1.,..,..,..,.,.,,.

Artificial Intelligence as a Positive and Negative Factor in Global Risk

5-김재철

´º½º·¹ÅÍ2¿ùÈ£

., (, 2000;, 1993;,,, 1994), () 65, 4 51, (,, ). 33, 4 30, 23 3 (, ) () () 25, (),,,, (,,, 2015b). 1 5,

한국교양교육학회/전국대학교양교육협의회/한국교양기초교육원 주최 2015 추계전국학술대회 프로그램 주제 교양교육의 : 당면과제와 전망 일시 : 2015년 11월 20일(금) 14:00~19:00, 21일(토) 09:00~17:00 장소 : 경남대학교 1공학관(공과대학 6층

¼�È«¼® Ãâ·Â

Theoretical foundation for the ethics of coaching sport Sungjoo Park* Kookmin University [Purpose] [Methods] [Results] [Conclusions] Key words:

정보기술응용학회 발표

V28.

주류-비주류 프레임으로 본 19대 대선구도 예측 좌클릭-우클릭 논쟁 넘어 새로운 대선방정식 필요 단일대상 프레임의 넘어 듀얼 프레임 필요 본 보고서는 <데일리한국>에 기고한 2017 대선, 좌클릭-우클릭 논쟁 넘어 새로운 듀얼 전략 필요 의 원본 보고서이다(2015년

표현의 자유


<30315FB1E2C8B9B3EDB4DC B0A1C0BBC8A3295FB1E8C1DFC8A32E687770>

Journal of Educational Innovation Research 2019, Vol. 29, No. 1, pp DOI: : * Discussions on

며 오스본을 중심으로 한 작은 정부, 시장 개혁정책을 밀고 나갔다. 이에 대응 하여 노동당은 보수당과 극명히 반대되는 정강 정책을 내세웠다. 영국의 정치 상황은 새누리당과 더불어 민주당, 국민의당이 서로 경제 민주화 와 무차별적 복지공약을 앞세우며 표를 구걸하기 위한

<C3D6C1BEBCF6C1A42DC1A4BDC5B9AEC8AD C8A32E687770>

장: 200 세외수입 관: 220 임시적세외수입 항: 223 기타수입 광역친환경농업단지사업 부가세 환급금 및 통장이자 79,440,130원 79, ,440 < 산림축산과 > 497, , ,244 산지전용지 대집행복구공사((주)하나식품)

<4D F736F F D20B1E2C8B9BDC3B8AEC1EE2DB1E8B1A4BCAE>

내지4월최종

<BAF1B1B3B9AEC7D05FC1A63732C1FD2E687770>

SNS 명예훼손의 형사책임

<28C3D6C1BE3129C0DAC1D6C7D020C1F6B5B5BCAD28C3CAB5EEC7D0BBFDBFEB292E687770>

<4D F736F F D20C7C1B7CEBDC3B5F92D325FB3EBBEEE5F>

보험판매와 고객보호의 원칙

<B5B6BCADC7C1B7CEB1D7B7A52DC0DBBEF7C1DF E687770>

< FBEC6C1D6B9FDC7D05F39C2F72E687770>

1) 음운 체계상의 특징 음운이란 언어를 구조적으로 분석할 때, 가장 작은 언어 단위이다. 즉 의미분화 를 가져오는 최소의 단위인데, 일반적으로 자음, 모음, 반모음 등의 분절음과 음장 (소리의 길이), 성조(소리의 높낮이) 등의 비분절음들이 있다. 금산방언에서는 중앙

현 안 분 석 2 Catsouphes & Smyer, 2006). 우리나라도 숙련된 인 력부족에 대한 우려가 심화되고 있으며, 일자리의 미 스매치 수준이 해외 주요국보다 심각하다는 점도 지 지부진한 유연근무제의 확산을 위한 진정성 있는 노 력이 필요하다는 점을 보여준다

강의지침서 작성 양식

1_수시-최종-면지화보 복사.ps, page Normalize

감사칼럼 (제131호) 다. 미국과 일본의 경제성장률(전기 대비)은 2010년 1/4분기 각각 0.9%와1.2%에서 2/4분기에는 모두 0.4%로 크게 둔화 되었다. 신흥국들도 마찬가지이다. 중국, 브라질 등 신흥국은 선진국에 비해 높은 경제성장률을 기

DBPIA-NURIMEDIA

취임사 법학전문대학원 교육 체제의 안정화와 내실화에 모든 힘을 기울일 것 법학전문대학원협의회 신영호 이사장 인터뷰 지난 5월, 법학전문대학원협의회는 총회를 열어 제5대 이사장으로 신영호 고려대학교 법학전문대학원 원장을 선출했다. 신영호 이사장은 현재 한국가족법학회 회장


< C7D0B3E2B5B520B9FDC7D0C0FBBCBABDC3C7E820C3DFB8AEB3EDC1F528C8A6BCF6C7FC292E687770>

<BCBCC1BEB4EB BFE4B6F72E706466>

00내지1번2번

DBPIA-NURIMEDIA

< D3135C8A35FC3D6C1BEBCF6C1A4BABB5F E687770>

<BAF1BBF3B1E2C8B9BAB C8A3295F317E32B4DCB6F42E717864>

제19권 제3호 Ⅰ. 문제제기 온라인을 활용한 뉴스 서비스 이용은 이제 더 이 상 새로운 일이 아니다. 뉴스 서비스는 이미 기존의 언론사들이 개설한 웹사이트를 통해 이루어지고 있으 며 기존의 종이신문과 방송을 제작하는 언론사들 외 에 온라인을 기반으로 하는 신생 언론사

국제무역론-02장

<C0CEBCE2BABB2D33C2F7BCF6C1A420B1B9BFAAC3D1BCAD203130B1C72E687770>

untitled

민주장정-노동운동(분권).indd


최우석.hwp

과 위 가 오는 경우에는 앞말 받침을 대표음으로 바꾼 [다가페]와 [흐귀 에]가 올바른 발음이 [안자서], [할튼], [업쓰므로], [절믐] 풀이 자음으로 끝나는 말인 앉- 과 핥-, 없-, 젊- 에 각각 모음으로 시작하는 형식형태소인 -아서, -은, -으므로, -음

E1-정답및풀이(1~24)ok

6±Ç¸ñÂ÷

<C1B6BCB1B4EBBCBCBDC3B1E2342DC3D6C1BE2E687770>

¸é¸ñ¼Ò½ÄÁö 63È£_³»Áö ÃÖÁ¾

0429bodo.hwp

177

<C3D6C1BE5FBBF5B1B9BEEEBBFDC8B0B0DCBFEFC8A C3D6C1BEBABB292E687770>

교사용지도서_쓰기.hwp

제주어 교육자료(중등)-작업.hwp

< BDC3BAB8C1A4B1D4C6C75BC8A3BFDC D2E687770>

초등국어에서 관용표현 지도 방안 연구

伐)이라고 하였는데, 라자(羅字)는 나자(那字)로 쓰기도 하고 야자(耶字)로 쓰기도 한다. 또 서벌(徐伐)이라고도 한다. 세속에서 경자(京字)를 새겨 서벌(徐伐)이라고 한다. 이 때문에 또 사라(斯羅)라고 하기도 하고, 또 사로(斯盧)라고 하기도 한다. 재위 기간은 6

時 習 說 ) 5), 원호설( 元 昊 說 ) 6) 등이 있다. 7) 이 가운데 임제설에 동의하는바, 상세한 논의는 황패강의 논의로 미루나 그의 논의에 논거로서 빠져 있는 부분을 보강하여 임제설에 대한 변증( 辨 證 )을 덧붙이고자 한다. 우선, 다음의 인용문을 보도록

cls46-06(심우영).hwp

01Report_210-4.hwp

<C3D1BCB15FC0CCC8C45FBFECB8AE5FB1B3C0B0C0C75FB9E6C7E D352D32315FC5E4292E687770>



교육 과 학기 술부 고 시 제 호 초 중등교육법 제23조 제2항에 의거하여 초 중등학교 교육과정을 다음과 같이 고시합니다. 2011년 8월 9일 교육과학기술부장관 1. 초 중등학교 교육과정 총론은 별책 1 과 같습니다. 2. 초등학교 교육과정은 별책

시험지 출제 양식

우리나라의 전통문화에는 무엇이 있는지 알아봅시다. 우리나라의 전통문화를 체험합시다. 우리나라의 전통문화를 소중히 여기는 마음을 가집시다. 5. 우리 옷 한복의 특징 자료 3 참고 남자와 여자가 입는 한복의 종류 가 달랐다는 것을 알려 준다. 85쪽 문제 8, 9 자료

상품 전단지

::: 해당사항이 없을 경우 무 표시하시기 바랍니다. 검토항목 검 토 여 부 ( 표시) 시 민 : 유 ( ) 무 시 민 참 여 고 려 사 항 이 해 당 사 자 : 유 ( ) 무 전 문 가 : 유 ( ) 무 옴 브 즈 만 : 유 ( ) 무 법 령 규 정 : 교통 환경 재

2

DBPIA-NURIMEDIA

화이련(華以戀) hwp

ÆòÈ�´©¸® 94È£ ³»Áö_ÃÖÁ¾

歯1##01.PDF

<5BC1F8C7E0C1DF2D31B1C75D2DBCF6C1A4BABB2E687770>

120229(00)(1~3).indd

Transcription:

15-07 2015. 12. 7 인공지능의 규범이슈와 정책적 시사점 이 원 태 정보통신정책연구원 연구위원 요약문 1. 서 론 2. 인공지능의 규범적 이슈 및 3. 주요내용 3. 인공지능 규범체계 정립을 위한 3. 정책과제 4. 결론과 전망 1 2 5 12 25

인공지능의 규범이슈와 정책적 시사점 이 원 태 정보통신정책연구원 연구위원 *wtlee@kisdi.re.kr, 043-531-4051 *서강대학교 정치외교학과 학사 서강대학교 정치학과 석사 박사 * *현 정보통신정책연구원 정보사회분석실 인공지능의 규범이슈와 정책적 시사점 자율주행자동차, 의료분야 등에서 이미 인공지능, 로봇 기술이 상용화단계에 진입 하고 있으며, 머지않은 미래에 인공지능 기술은 단지 인간의 생활을 조력하는 단계를 넘어 인간의 삶의 일부로 편입되는 이른바 포스트휴먼(post-human) 의 시대가 도래 할 것이다. 그러나 단순히 집적된 데이터의 활용을 넘어서서, 스스로 데이터를 분석 및 학습하고 이에 기반해 특정 목표를 실행에 옮길 것으로 예견되는 인공지능의 확산은 규범 환경 또는 구조적 측면에서 과거와는 다른 새로운 차원의 문제를 제기 하면서 새로운 규범체계 정립의 필요성을 증대시킬 것으로 전망된다. 그동안 로봇윤리론 등 인공지능의 규범 연구를 둘러싼 논의는 인공지능 및 로봇의 자율성과 인간 주체의 통제권을 어떻게 조화시킬 것인가에 초점을 두고 다양하게 전개되었다. 인공적 도덕행위자(AMA: artificial moral agent) 의 예와 같이 로봇 및 인공지능의 윤리적 프로그래밍을 통해 이 문제를 해결하거나, 아니면 법제도 차원의 규제체계를 통해 문제를 해결하려는 시도까지 다양한 방식으로 모색되었다. 본고는 국내외 인공지능 규범 이슈 검토 결과를 토대로 인공지능 규범체계를 정립하기 위한 정책방향을 1) 학제간 연구기반 조성, 2) 법철학적 논의 활성화, 3) 사회적 기반 조성 등으로 구분, 이를 구체화하기 위해 인공지능과 로봇의 사회적 영향 분석 및 대응전략 마련을 위한 산학연 학제간 융합연구 네트워크 구축, 지능정보사회의 새로운 ICT 법체계 정립방안 마련, 인공지능 알고리즘의 시민적 통제권 확보, 인간고유의 창의적 능력을 제고하기 위한 교육정책 수립, 인공지능 윤리헌장 등 사회규범 재구성, 국제규범의 전략적 모색 등의 정책과제들을 제안 하였다. 물론 이러한 정책과제는 중장기적인 관점에서 1 인간의 존엄성과 권리 주체, 2책임배분의 문제, 3적법절차의 문제, 4규범적 법적 판단의 자동화 문제 등과 같은 법철학적 논의가 뒷받침되어야 한다.

인공지능의 규범이슈와 정책적 시사점 1. 서 론 지능정보사회가 오고 있다 정보통신기술(ICT) 에 인공지능 기술이 빠르게 접목되면서 소위 지능정보 혁명 본격화 - 특히 딥 러닝(deep learning) 과 같은 인공지능 알고리즘이 사물인터넷, 빅데이터, 로봇 등 여타 기술과 결합, 범용화되면서 인터넷 혁신의 새로운 자원으로 급부상( 최계영, 2015) 인공지능(AI) 이란 인간의 인지능력, 학습능력, 이해능력, 추론능력 등을 실현하는 기술로써, 반도체 기술의 발달로 컴퓨터의 소형화, 고속화, 대용량화 등 인공 지능의 하드웨어적 기반을 바탕으로 패턴인식, 기계학습, 전문가 시스템, 인공 신경망, 자연어처리 등 다양한 분야의 소프트웨어 기술과 융합하면서 더욱 발전 ( 현대경제연구원, 2014) - 자율주행자동차, 드론, 로봇 등 지능정보를 기반으로 한 새로운 산업에 대한 각국의 정책과 글로벌 경쟁도 가속화되고 있음 ICT 기업의 투자와 연구개발 등 국가간 - 자율주행자동차, 의료 등에서는 이미 인공지능, 로봇 기술이 상용화 단계에 진입했으며, 머지않아 인공지능이 단지 인간의 생활을 조력하는 단계를 넘어 인간의 삶의 일부로 편입될 것으로 기대 - 이처럼 향후 로봇, 인공지능 등이 산업 및 사회 전반에서 핵심적인 역할을 수행하는 지능정보사회 가 가까운 미래에 도래할 것으로 전망 인공지능 알고리즘에 의한 기술혁신의 대폭발은 산업구조 뿐 아니라 법정책, 사회규범, 경제제도 등 거시적 영역에도 커다란 영향을 미칠 것 으로 예상 2

1. 서 론 - 인공지능에 기반한 제품과 서비스가 증가하면서 인간의 역할을 기술과 기계가 대신하는 현상이 늘어나면서, 기존의 법 및 정책이 전제로 하는 가정에도 중요한 도전을 제기 - 로봇, 인공지능 기술이 의료, 법률은 물론 음악, 영화, 미술 등 창의성을 요구하는 인간 고유의 업무 영역에까지 침투하는 현상도 증가할 것으로 기대 - 또한 인공지능과 로봇의 확산은 사람과 사물 사이의 다차원적인 네트 워킹을 가능케 함으로써 비인간적(non-human) 사물들간의 소통도 중 요한 위치를 차지하는 방향으로 커뮤니케이션의 개념과 성격도 근본 적으로 변모( 이원태, 2015) - 심지어 인공지능과 로봇이 자율적으로 판단하고 행위할지도 모른다는 점에서 인간만이 향유했던 도덕적 행위자의 범위가 인간을 넘어 인공 지능 시스템으로까지 확대되어 인공적 도덕행위자(AMA: artificial moral agent) 라는 개념까지 등장( 월러치 & 알렌, 2014) 인공지능 시대의 새로운 규범체계 모색 불가피 지능정보사회 도래에 따른 사회문화적 파급효과에 대비한 규범체계 정립 요구 증대 - 인공지능 기술의 확산에 따라 인간의 규범( 가치) 적 판단과 행위기대가 기계적 알고리즘으로 대체될 것으로 예견되면서 기존 인간중심의 규범 체계도 근본적인 변화 불가피 - 더구나 인공지능, 로봇의 산업적사회적 활용에 따른 사고발생의 위험 성도 높아지고 있기 때문에 법적 책임 및 권리의 범위 혼선에 대비해서 라도 법률적, 규범적 접근이 중요해짐 3

인공지능의 규범이슈와 정책적 시사점 - 일부 법학자들은 로봇윤리 의 수준을 넘어 로봇과 인공지능이 기존의 인터넷과 본질적으로 다르다는 점에서 로봇법, AI 법 등과 같은 새로운 법적 규제의 필요성을 제기하기도 함 예컨대 무인자동차의 도입은 새로운 도로교통법을 요구하고 사고時 탑승자- 제조사- 개발자 ( 설계사)-보험사 간의 새로운 책임관계 설정을 요구함 인공지능 및 로봇의 확산은 규범 환경 또는 구조적 측면에서 과거와는 다른 새로운 차원의 문제를 제기하므로, 이에 최근 제기되고 있는 인공 지능 관련 규범 이슈들에 대한 비교 분석은 물론, 새로운 법규범 형태에 대한 학제적 연구가 요구됨 - 지능정보사회의 출현은 새로운 인간에 대한 규정, 가치관의 재정립, 새로운 사회상의 구성 등 다양한 인문사회적 변화에 대한 성찰도 요구함 - 그런 점에서 이글의 목적은 인공지능의 규범적 이슈들에 대한 검토를 통해 기존 규범체계의 변화 지점이 무엇인지를 살펴보고, 이른바 알고 리즘 책임성(algorithm accountability) 의 관점에서 인공지능 시대의 새로운 규범체계를 정립하는 데 필요한 정책과제들을 도출하는 것임 4

2. 인공지능의 규범적 이슈 및 주요 내용 2. 인공지능의 규범적 이슈 및 주요 내용 인공지능 규범 연구의 흐름 1942년 SF 소설가 아시모프(Asimov) 의 로봇 3 법칙 이후 최근까지 로봇 ( 인공지능) 알고리즘의 자율성과 인간생명의 존엄성 및 통제권이라는 두 축 사이에서 인공지능과 로봇의 윤리규범을 정립하려는 시도가 지속 - 2000년대에는 로봇과 인공지능이 인간과 대등한 자율적 주체인가를 둘러싸고 트롤리 문제(The Trolley Problem), 존 썰(John R. Searle) 의 중국어방 논증, 도덕적 튜링 테스트(moral Turing Test), 인공적 도덕주체(AMA: artificial moral agent) 의 법적 지위 등 이른바 로봇 윤리 논쟁이 다양하게 전개( 고인석, 2011) - 2004 년 미국 렌스레어공대 인공지능과 추론연구소 소장 셀머 브링스 조드(Selmer Bringsjord) 교수 등과 드 몽포르대의 스탈(Bernd Carsten Stahl) 교수는 로봇이 아무리 인간의 지능을 모방해도 자율적인 도덕 주체의 역할까지 수행할 수는 없다고 주장(Bringsjord & Arkoudas, 2004; Stahl, 2004) - 2009년에는 컴퓨터과학자 로빈 머피와 인지공학자 데이빗 우즈가 아시모프의 로봇3 법칙을 비판적으로 재구성한 책임있는 로봇 3법칙 (alternative three laws of resposible robotics) 을 제안 (Murphy & Woods, 2009) 1. 인간은 안전과 윤리에 관한 최고 수준의 법적-전문가적 기준을 충족 시키는 인간- 로봇 작업체계 없이 로봇을 작업에 배치해서는 안된다. 2. 로봇은 그것의 역할에 부합하는 방식으로 인간을 응대해야 한다. 3. 로봇에게는 스스로의 존재를 보호할 수 있게끔 하는 충분한 맥락적 자율성이 주어져야 한다. 단, 그런 보호는 앞의 두 법칙과 상충하지 않는 방식의 매끄러운 통제권 전이를 가능케 하는 것이어야 한다. 5

인공지능의 규범이슈와 정책적 시사점 그 이후 과학자, 법학자들은 윤리적 민감성과 자율성을 두 축으로 각각의 조합을 통해 로봇/ 인공지능의 도덕적, 윤리적 의사결정 시스템을 구축 하자는 쪽으로 논의의 성격 전환 - 예컨대 인공적 도덕 행위자(AMA: Artificial Moral Agent) 는 의도하지 않아도 도덕적 의사결정을 내릴 수 있는 기계나 소프트웨어 개발의 가능성을 부각시킨 대표적 개념임( 월러치 & 알렌, 2014) - 미국의 인공지능 전문가 엘리저 유드코프스키(Eliezer Yudkowsky) 는 우호적 인공지능 (friendly AI) 이라는 개념을 통해 인류를 로봇으로부터 보호하기 위해 인공지능 기계가 인간에게 우호적 감정을 갖도록 설계 되어야 한다는 이른바 우호이론(friendliness theory) 을 제안 (Yudkowsky, 2008) - 그래서 윤리적 로봇(ethical robotics) 등과 같이 로봇이나 인공지능의 설계단계에서 도덕적 기준을 알고리즘화 하는 방식과 관련하여 로봇과 소프트웨어의 윤리적 프로그래밍 방법론에 주목하기도 함 예컨대 메드에덱스 (MedEthEx) 는 특정한 상황에서 여러 의무가 상충할 때 과거의 구체적 사례에서 윤리적 추론을 이끌어내는 의학윤리 전문가 시스템으로, 환자의 결정이 극심하게 해로운데도 그 결정을 로봇이 수락하는 경우는 로봇이 환자를 보호할 의무를 저버렸다는 것을 의미함 6

2. 인공지능의 규범적 이슈 및 주요 내용 <그림1> 메드에덱스(MedEthEx)의 해악금지원칙 논리구조 < 1> 구분 주요 내용 및 대표 사례 주요 연구자 논리 기반 접근법 사례 기반 접근법 다중 행위자 접근법 - 생명은 소중하다 는 대원칙을 인공지능 프로그 래밍 한 후 로봇이 스스로 사고를 피하는 방향 으로 행동하게끔 유도 -예컨대 인공지능이 탑재된 돌봄로봇은 환자의 생명유지장치를 끌지 여부를 결정해야 하는 상황 에서 최대다수의 최대행복 이라는 공리주의 원칙에 따라 결정 -기존 사례에서 윤리적 추론을 끌어내는 방법 - 대표적 사례는 메드에덱스 의 해악금지원칙에 기반한 의학윤리 전문가 시스템으로, 여러 의무가 상충할 때 과거의 구체적 사례에서 인간 의료전문 가가 내린 결정을 참고해 자신의 의무들을 비교 평가, 균형을 잡게 함 -윤리적 판단을 할 수 있는 여러 행위자들의 상호 작용을 시뮬레이션하는 다중행위자 플랫폼 을 활용하는 방법 -대표적 사례가 비겔 교수가 개발한 소포랩 (SophoLab) 으로, 실제 사회와 같은 복잡한 네트워크에서 윤리적 판단을 유도함으로써 무인자동차 등 최근 인공지능 알고리즘 개발과정에도 적용 가능성 높음 * 출처: 월러치 & 알렌(2014)의 내용을 재구성 브링스요드 등 마이클 앤더슨, 수전 앤더슨 등 빈센트 비겔 등 7

인공지능의 규범이슈와 정책적 시사점 인공지능 및 로봇의 법제도적 규제 이슈 그러나, 킬러로봇의 군사적 이용, 드론 해킹 사고, 자율주행자동차 법 적용 논란 등 최근 인공지능과 로봇 확산에 따른 인간권리 침해 가능 성이 높아지면서 윤리적 디자인의 차원을 넘어 법제도적 규제체계를 마련해야 한다는 논의도 증가 - 전투로봇, 킬러로봇 등 이른바 치명적 자율무기시스템(LAWS: lethal autonomous weapons systems) 의 개발 및 이의 통제 불가능성에 대 한 사회적 우려 증대 이 때문에 2014년 4월 23 일, 로봇 및 인공지능 전문가들이 주도하는 휴먼라이츠 워치(HRW) 등 국제인권단체들은 킬러로봇과 같은 치명적 자동살상무기를 국제 협약으로 금지하기 위해 킬러로봇반대(Stop Killer Robot) 이라는 캠페인을 발족 (Human Rights Watch, 2015) - 또한 드론의 사용이 확산되면서 주요 국가들에서는 드론 운영과 관련한 위험 해결에 초점을 둔 새로운 규제 방안을 마련하기 시작 최근 유럽의회는 드론의 프라이버시 침해가능성을 막기 위한 데이터 보호 및 감독방안을 논의중이고, 미국 국토안보부는 불법적으로 운용되는 드론을 격추 하거나 포획할 수 있는 안티드론(anti-drone) 시스템 개발 계획을 발표 - 자율주행자동차의 법적 이슈는 사람에 의한 운전을 전제로 하는 도로 교통법, 교통사고의 책임주체와 관련해서는 자동차보험제도, 자동차의 사무공간화 등 스마트워크의 시공간적 확장에 따른 노동법 등 다양한 법규제 이슈가 파생되고 있음( 구태언, 2015) - 초기에는 전통적인 불법행위법(tort law) 의 틀에서 논의했지만 점차 그 규제 한계를 인식하면서 배상책임 규칙(liability rule) 중심으로 인공 지능 규제이슈 지형도 변화하고 있음 8

2. 인공지능의 규범적 이슈 및 주요 내용 기존 법체계가 인공지능 등 새로운 기술발전에 많이 뒤쳐져 있다는 반성 에서 규제체계의 근본적 개선과 함께 새로운 법제의 모색을 요구하는 목소리도 높아짐 - 미국 조지메이슨대 법학자 매튜 슈어러(Matthew Scherer) 교수는 Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies (2015)이라는 논문에서 인공지능에 대한 규제가 현실적 으로 어려운 가장 큰 이유로 규제주체들의 역량과 전략 부재를 지적 (Scherer, 2015) - 아일랜드 NUI Galway 대 법철학자 존 대너허(John Danaher) 교수도 입법부, 규제당국, 사법부 등 규제주체들의 인공지능 규제역량에 의문을 제기한 바 있음(Danaher, 2015) - 또한 미국 워싱턴대의 저명한 인공지능 법학자인 라이언 칼로(Lyan Calo) 교수는 현행 법체계로는 향후 도래할 로봇과 인공지능 시대에 효과적으로 대처하기 할 수 없기 때문에 로봇과 인공문제를 본격적으로 다룰 법제도의 마련이 시급하다고 주장(Calo, 2014, 2015a, 2015b) 라이언 칼로 교수가 말하는 인공지능 시대의 새로운 사이버 규범체계 o 향후 인공지능, 로봇의 확산은 새로운 기술과 기존 법률 간의 긴장을 더욱 고조시킬 것이므로 로봇과 인공지능을 규정한 법제도적 준비를 해야 함 - 특히 로봇과 인간 사이의 경계가 무의미해지면서 인공 지능, 로봇 이용에 따른 데이터 혼란이 인간의 육체적 상해를 입힐 가능성도 높아지므로 이에 대한 법률적 개입이 요구됨 o 로봇, 인공지능에 대한 정부 차원의 대응이 단편적인 차원에 머물러 있고 불만족스러운 결과를 낳고 있기 때문에 인공지능 로봇의 사회적 영향 및 관련 지원업무를 총괄하는 독립적 부처로서 가칭 연방로봇위원회(FRC: Federal Robotics Commission)를 창설할 필요가 있음 9

인공지능의 규범이슈와 정책적 시사점 < 2> / 규범적 이슈 주요 연구자들의 주장 및 핵심 내용 사람만이 헌법적 권리( 기본권 ) 를 가질 수 있고 인공지능은 감정적 결함 인공지능의 법적 ( 영혼의 부재 등) 이 존재하고 결국 제조자의 소유물일 수밖에 없는 등 결코 인격성 법적 인격성을 부여받을 수 없음(Solum, 1992) 생각하는 기계 로서의 인공지능의 윤리적 이슈는 결국 사람을 해치지 말 인공지능의 아야 하고 도덕적으로 설계되어야 하며 기계의 쓰임도 도덕적 상태에 있 투명한 거버넌스 어야 한다는 것인데, 이는 인공지능 시스템의 투명성, 예측가능성 확보를 통해서만 가능(Bostrom & Yudkowsky, 2011) 인공지능에 대한 3 가지 규제주체입법부사법부규제당국들의 (,, ) 규제역량 인공지능의 (competency) 이 개방성, 전문성, 반응성, 리더십 등의 여러 측면에서 미흡함 규제체계 (Scherer, 2015) 로봇 사용에 따른 피해를 최소화할 수 있는 가장 자연스런 방법은 기존 로봇의 윤리적 법제도 및 윤리의 코드에 따를 수 있도록 로봇을 프로그래밍 하는 것이어야 규범체계 함(Lin, Abney & Bekey, 2011) 인격화 및 간접적 감정유대를 느끼게 하는 소셜로봇의 법적 권리는 동물 로봇의 법적 권리 권과 유사한 방식으로 제2 차 권리 (second-order right) 로서 확장 가능 (Darling, 2012) 인간과 로봇 사이의 경계가 무의미해지면서 인공지능, 로봇 이용에 따른 로봇시대의 데이터 혼란이 인간의 육체적 상해를 입힐 가능성도 높아지므로 이에 대한 새로운 사이버 법률적 개입이 요구(Calo, 2015) 규범체계 로봇에 대한 정부 차원의 효과적 대응을 위한 연방로봇위원회 와 같은 전담기구를 설치해야 함(Calo, 2014) 전통적 법체계의 인공지능으로 무장한 자율로봇의 이용 증대는 전통적인 불법행위 한계점 (traditional tort) 및 법적 책임(liability) 의 개념을 변화시키고 있음(Karnow, 2013) 로봇규제에는 정부규제(FAA 의 드론 규제), 자율규제구글 ( 윤리위원회, 인간 중심적 디자인 방법론 등), 국제협약( 킬러로봇금지연대 등) 3가지가 있음 로봇은 파괴적 혁신기술로서 기존 법과 정책으로 규제하는 데 한계가 있음. 로봇의 사회규범 로봇과 인공지능을 위한 새로운 법률과 정책을 만들기 위해서는 사회규범 형성 (social norm) 부터 우선 형성되어야 함. 사회규범 없이 정치적 의지만으로 관련 법과 정책을 만들 수 없으며 이를 위해 다양한 분야 전문가들의 논의 를 통한 공론화가 요구(Asaro, 2015) HCI의 관점에서 로봇이나 인공지능 시스템이 인간과의 유사성이 너무 지 로봇/ 인공지능의 나쳐 이른바 불쾌한 골짜기 (uncanny valley) 가 생기지 않도록 디자인하여 사회적 설계 전략 인간 - 로봇 파트너십을 구현하는 전략을 마련 (Knight, 2014) - 이상과 같이 인공지능의 규범 이슈들은 인공지능 및 로봇의 자율성과 인간 주체의 통제권을 어떻게 조화시킬 것인가에 초점을 두고 다양한 논의와 방안들이 제시되어옴 10

2. 인공지능의 규범적 이슈 및 주요 내용 < 3> 구분 세부 이슈 주요 내용 - 로봇도 도덕주체(moral agent) 가 될 수 있는가, 즉 인공지능 로봇이 범죄를 저지를 경우 인간과 로봇/ 인공지능의 마찬가지로 로봇에게도 사법처리 가능한가 법적 책임 문제 - 로봇/ 인공지능 관련 기기의 법적 권리 여부를 검토하고 제조물 책임법 등 기존 법체계의 한계점 개선 방안 마련 - 의인화 기술의 발전에 의해 친밀감, 동질감을 로봇/ 인공지능의 제공하는 인공지능 로봇의 인격성을 어디까지 인격성 부여문제 인정해야 하는가 인공지능의 자율성 범위 인간의 권리침해 및 통제권 인공지능 알고리즘의 신뢰성 문제 인공지능의 안전성 문제 인공지능의 신뢰할만한 평가체계 구축문제 지능정보사회의 인권 개념 재정립 문제 사생활 침해 및 프라이버시 보호 문제 인공지능 알고리즘의 책임성 강화 문제 인공지능 관련 갈등조정 거버넌스 구축 문제 인공지능 확산에 따른 정보격차 해소문제 창의성 등 인간고유의 역량 강화 문제 -인공지능 알고리즘에 기반한 자율적 의사결정 ( 판단, 계약, 거래 등) 을 얼마나 신뢰할 수 있는가 -인공지능 관련 소프트웨어, 프로그램의 오류나 오작동의 문제를 기술적으로 최소화하고 이를 규제하기 위한 방안 마련 -인공지능의 사회문화적 영향을 체계적으로 평가하고 활용할 수 있는 가이드라인 마련 -인공지능, 로봇 등의 자율성 범위를 제한하거나 규정하기 위한 사회적 합의 틀 마련 -인공지능 확산에 따른 인간의 존엄성과 인권에 대한 가치 혼란이 발생하므로 지능정보사회를 살아가는 인간의 기본권 개념을 재정립할 필요 -인공지능 관련 데이터의 연결 및 공유가 확산 됨에 따른 프라이버시 침해를 최소화하고 피해를 보상하기 위한 기제 마련 -인공지능 관련 기술 및 제품 설계-생산과정 에서 알고리즘 자체의 도덕적 책임성을 적극 부과하는 원칙이나 기준 마련 -인공지능 규제와 관련한 이해당사자들 간의 이익갈등 및 권리상충 문제를 효율적으로 조정, 해결하기 위한 거버넌스( 법제도 등) 구축 -인공지능 활용에 따른 사회적 양극화 및 정보 격차를 해소하기 위해 코드 리터러시(code literacy) 함양 등 지능정보사회 교육체계 구축 -일상적 의사결정을 인공지능 기계에 위임할 경우 인간의 비판적 사고가 약화될 우려가 커 지므로 창의성, 통찰력 등 인간고유의 역량을 증대시키기 위한 정책 추진 11

인공지능의 규범이슈와 정책적 시사점 3. 인공지능 규범체계 정립을 위한 정책과제 로봇윤리 및 인공지능 규범의 미래에 대한 중장기 학제간 연구기반 조성 인공지능과 로봇의 사회적 영향 분석 및 대응전략을 종합적으로 마련 하기 위한 정부-민간 산학연 학제간 융합연구 네트워크를 구축할 필요 - 주요 국가들은 새로운 시장 창출 및 국가경쟁력 제고를 위해 인공 지능과 로봇을 활용하는 경제 산업정책 연구를 적극 추진 < 4> 국가 미국 영국 EU 일본 중국 인공지능 및 로봇 관련 주요 정책 A Roadmap for US Robotics (2009), National Robotics Initiative (2011) 등 국방성과 함께 DARPA, NSF 등 공공연구기관을 통해 지속적으로 추진 오바마 대통령, 미국 제조업 부흥 에 로봇을 적극 활용하는 첨단제조 파트너십 (AMP, Advanced Manufacturing Partnership) 발표(2013) 2013년 2 월 인간 뇌 구조를 분석하고 이를 컴퓨팅 시스템에 이식하는 브레인 이니셔티브(Brain Research through Advancing Innovative Neurotechnologies Initiative, BRAIN Initiative), DARPA는 인공지능 기술을 이용한 무인 항공기 개발에 주력 중 영국의 국책연구기관 공학 물리학 연구협의회(Engineering and Physical Sciences Research Council, EPSRC) 는 지난 5월 1 일, 영국의 로봇원칙(Principles of robotics) 발표 영국사회를 위한 일종의 로봇헌장으로 사생활 보호, 안전 등 로봇 개발 및 활용이 기존 법규범에 부합해야 한다는 등 로봇 관련 문제의 법적 책임도 포괄적으로 명시 유럽위원회(EC) 의 제6 차 다자간 공동기술개발연구프로그램(FP6) 일환으로 윤리로봇(ETHICBOTS) 이라는 프로젝트 추진(2005~2008) 로봇윤리 로드맵(2007): 유럽로봇연구네트워크(EURON) 의 2007년 ICRA((IEEE International Conference on Robotics and Automation) 회의를 통해 발표. 로봇윤리에 대한 실용적 접근전략으로 로봇 영역을 세분화하여 각 영역의 이익과 폐해를 균형적으로 비교 분석 RoboLaw(2014): 로봇과 인간의 법률적 관계에 대한 법안을 마련하기 위해 로봇공학 규제지침 (Guideline for Regulating Robotics) 제출 총무성은 인공지능의 사회적 영향을 종합적으로 전망하기 위해 관련 전문가를 모아 2045 연구회를 구성, 관련 연구 추진( 15.2) 아베총리는 신산업혁명 연설( 14.5 OECD 각료이사회) 을 통해 경제산업성 내에 로봇정책실 설치 ( 14.7), 로봇혁명실현회의 출범( 14.8), 20 도쿄올림픽에 맞춰 로봇올림픽 개최 추진 등 일련의 로봇혁명 추진계획 발표 일본재흥전략( 14.6) 에서 기술개발과 규제완화를 통해 2020 년까지 서비스로봇시장을 제조분야에서 현재의 2 배, 서비스 등 비제조분야에서 20대 확대하겠다고 발표 중국 로봇산업로드맵(2015): 중국의 로봇산업 13 차 5 개년 계획의 일환으로 작성, 로봇산업 표준화는 물론 산업로봇 발전전략을 포함 12

3. 인공지능 규범체계 정립을 위한 정책과제 - 특히 유럽연합의 로봇법(RoboLaw) 은 로봇 관련 법규 및 규제대응을 위한 정책연구 프로젝트 (2012.3-2014.3) 로 로봇규제 가이드라인(Guidlines on Regulating Robotics) 를 도출했음 EU 의 로봇법 프로젝트는 로봇기술의 법률적, 윤리적 이슈 검토를 통해 새로운 규범체계를 정립하고자 하는 연구목표 하에 이탈리아, 네덜란드, 영국, 독일 등 4개국 4 개 연구소가 참여했고 특히 자율주행차, 수술로봇, 로봇인공기관, 돌봄 로봇 등 4 가지 연구대상의 윤리적, 법률적 분석을 통해 규제정책의 근거를 마련 했음(www.robolae.eu) - 그러나 산업발전의 관점을 넘어 인공지능의 사회적 영향 및 윤리적 이슈를 중장기적으로 연구하는 움직임은 주로 일부 기업, 민간대학 및 연구기관을 중심으로 전개 - 구글(Goog le) 의 경우 인공지능업체인 Deep Mind 를 인수하면서 설립한 인공지능 윤리위원회 (AI Ethics Board) 를 통해 윤리강령을 제정, 이를 기술개발에 적용하겠다고 밝혔으나 윤리위원 명단 비공개 등 투명성의 문제를 노정시킴 13

인공지능의 규범이슈와 정책적 시사점 < 5> / 국가 단체 및 기관명 주요 연구 및 활동 내용 캐나다 미국 영국 Open Roboethics initiative (ORi) FLI (Future of Life Institute) IEET (institute for ethics and emerging technologies) MIRI (Machine Intelligence Research Institute) The One Hundred Year Study on Artificial Intelligence, AI100 (https://ai100.stanford.edu/) FHI (Future of Humanity Institute) CSER (Cambridge center for the study of existential risk) 로봇의 윤리적, 법적, 사회적 이슈에 대한 학제간 연구 및 사회적 공론화 기능 수행 오픈소스, 크라우드 소싱 기반의 전문가 협업을 통해 로봇윤리 알고리즘 개발에 필요한 아이디어 개발 및 공유 인공지능, 핵, 기후변화, 생명공학 등 인류의 실존적 위협이 되는 첨단기술의 영향에 대한 연구개발 지원 2004년 설립된 트랜스휴머니즘 비영리 단체로 인공지능, 로봇 등 포스트휴먼 기술의 사회적 영향 및 사회발전 미래비전 연구 버클리대 소재의 연구소로 인간친화적 인공지능을 위한 구체적 기술을 연구 특히 인공지능의 통제와 안전 분야에 대한 연구 강조 2014년말 에릭 호비츠 MS 레드먼드 연 구소 총괄책임자의 제안에 따라 미국 스탠퍼드대, 하바드대, 카네기멜론대 등을 중심으로 인공지능의 혜택과 위 험성에 대한 균형있는 연구를 지향하는 등 인공지능의 사회적 파급효과에 대한 인문사회 학제간 연구체계를 구축 인공지능의 기술적 발전방향에 대한 예측에서부터 프라이버시, 민주주의, 법, 윤리, 경제, 전쟁, 안전, 심리, 철학 등 8가지 주제에 걸쳐 연구 추진 옥스퍼드대 소재 연구소로 인공지능으로 인한 인류의 다양한 실존적 위험들에 대한 학제간 연구 수행 캠브리지대 소재. FHI 와 유사한 연구 수행 실존적 위험 중 하나로 인공지능을 선정 하고 인공지능 로봇의 위험성에 대한 학제간 연구 수행 주요 연구자 및 활동가 문정아 박사 Max Tegmark, Erik Brynjolfsson 등 James Hughes, Nick Bostrom 등 Stuart J. Russell, Ben Goertzel, Joel Pitt 등 Eric Horvitz, Russ Altman, Barbara Grosz, Yoav Shoham, Tom Mitchell 등 Nick Bostrom Stephen Hawking, Stuart Russell 등 14

3. 인공지능 규범체계 정립을 위한 정책과제 현재 국내의 인공지능 관련 연구체계가 단기적 결과 중심, 정부과제 위주의 쏠림 현상이 두드러지므로( 조근희, 2015), 민간기관과의 협업, 미래사회 융합연구와의 연계 등 기초적이고 중장기적인 지원 및 연구 체계가 필요 - 딥러닝 등 인공지능 전문가들의 협업적 네트워크를 구축하여 다양한 사회 문제해결에 적용하는 연구와 개발 활성화를 위해 학제간 융합연구 체계가 필요 - 인공지능의 기술적사회적 위험성을 체계적으로 연구하는 프로젝트 및 관련 연구기관들을 지원, 육성하는 정책 프로그램도 필요함 - 예컨대 영국 케임브리지대 실존위협연구센터, 영국 옥스퍼드대 인류 미래연구소, 미국 미래의 삶 연구소 등과 같이 인공지능의 혜택과 위험에 대한 예측 및 대응을 위한 연구기반을 서둘러 조성할 필요 - 또한 세계적인 로봇 학술행사로 유명한 We Robot Conference 와 같이 로봇 전문가들의 글로벌 네트워크 구축을 통해 인문사회 학제적 연구 기반을 조성하려는 정책적 노력도 필요 We Robot Conference: 로봇 분야의 법률 및 정책 이슈에 관한 국제 연례 컨퍼 런스로 로봇 개발자, 사업가 및 연구자들 간의 대화와 교류를 촉진하고 로봇이 기존 규범에 미치는 영향은 물론 로봇에 관한 공학, 법학, 윤리, 사회, 정책 등 다양한 분야의 학제적 연구를 도모하기 위해 있음 2012년부터 매년 개최하고 - 로봇과 인공지능의 공적/ 사회적 활용 가치를 높이기 위해 기계가 학습 하고 분석할 있는 지식이나 데이터를 한데 모아 공유하는 거대한 지식 저장소를 구축하는 작업이 매우 중요 코넬대, 스탠퍼드대, 브라운대, UCLA, 버클리대 등 미국의 주요 대학교 로봇 연구진이 참여하는 합동 프로젝트인 로보 브레인(Robo Brain) 은 로봇이 필요로 하는 데이터를 클라우드 형태로 구축한 거대한 지식저장소의 대표적 예. 현재 아마존 웹서비스(AWS) 의 퍼블릭 클라우드에 구현되어 있음 15

인공지능의 규범이슈와 정책적 시사점 - 로봇윤리 로드맵 등과 같이 가치상충 및 윤리적 딜레마를 다각적으로 해결하기 위한 윤리적 설계방법론 개발 및 연구는 향후 지능정보사회의 새로운 윤리 및 규범 기반을 형성하는데 중요한 이론적실증적 자원이 될 수 있음 - 따라서 인공지능과 로봇의 도덕적 설계 및 윤리적 프로그래밍을 위한 방법론에 대한 인문-기술공학적 융합연구 및 실험을 지속적으로 지원 할 수 있는 체계도 마련할 필요 인공지능의 규범정립을 위한 법철학적 논의 활성화 인공지능과 관련한 3가지 법철학적 쟁점 영역 - 인공지능의 규범과 관련한 법철학적 쟁점을 도출하기 위해서는 1) 인공 지능 및 로봇 기술을 설계, 이용하는 문제, 2) 인공지능 및 로봇 자체의 자율적 행동 문제, 3) 인공지능 및 로봇 자체의 존재론적윤리적 책임성 문제로 나누어 고찰할 필요가 있음 - 1) 과 2) 는 인간의 윤리, 혹은 인간을 위한 인공지능 및 로봇의 행동 강령을 의미하므로 사실상 인간윤리의 문제로 귀착되는 반면, 3) 은 인공 지능 및 로봇의 인격주체성을 인정하는 문제로서, 미래 지능정보사회의 ( 법) 철학적 쟁점이 될 것으로 판단됨 - 물론, 인공지능의 인격주체성 및 그에 따른 책임주체성 인정여부에 따라, 1) 과 2) 의 규범이슈는 다시 인간중심적인 논의의 인식틀을 극복해야 한다는 순환적인 주제영역이라고도 할 수 있음 -1)과 관련해서는 인공지능 설계자 및 이용자의 윤리적 문제가 쟁점인데, 프라이버시 침해와 같은 전통적인 이슈를 비롯해서 윤리적법적으로 허용되지 않는 설계 및 이용에 대한 규제문제가 중요한 쟁점으로 부각 될 것으로 보임 16

3. 인공지능 규범체계 정립을 위한 정책과제 -2와 ) 관련해서는 1 자동화된 결정 (automated decision) 에 있어서 법적 책임 소재 문제, 2 법적 자료축적, 법적 판단에서 있어서 정보기술 및 인공지능의 활용가능성과 그 한계에 관한 논의인 법정보학 (legal informatics) 문제로 인공지능, 로봇 기술 활용과 관련된 논의들이 존재 - 다만, 향후 이러한 쟁점은 전통적인 법리만으로 해결할 수 없는 다양 한 문제점을 드러낼 것으로 보이는데, 단적으로 이른바 포스트휴먼 (post-human) 으로 표현되는 인간과 인공지능의 정서적물리적 결합 현상은 윤리적, 법적 책임이라는 쟁점을 더욱 불분명하게 만들 것임 ( 김경환, 2015) - 따라서 클라우드 컴퓨팅, 빅데이터 분석 등과 같은 정보 집적처리 기술의 발달은 법적판단에 있어서 인공지능을 포함한 정보기술의 활용을 어느 정도까지 신뢰하고 그 한계는 무엇인지에 관한 논의를 심화시킬 것으로 전망함 - 요컨대, 2) 의 쟁점과 관련해서는 전통적인 책임 개념, 현존하는 법리 로는 해결할 수 없는 문제들이 등장할 것으로 보이는 바, 책임 개념 및 판단기준의 재정립, 현존하는 법리의 수정 등이 논의되어야 함 - 또한 3) 의 쟁점은 현재의 윤리적, 법적 패러다임을 넘어서는 것으로서, 인공지능, 로봇의 인격주체성, 책임주체성을 인정할 수 있는가라는 근 원적인 철학적윤리학적 쟁점인 동시에 자연의 권리 등이 논의되는 ( 법) 철학적 담론을 원용하여 새롭게 성찰할 필요도 있음 17

인공지능의 규범이슈와 정책적 시사점 인간의 존엄성과 권리 주체 문제 - 인공지능 로봇, 사물인터넷 등 초연결사회의 도래에 따라 인간 이외의 사물이나 기계의 융복합적 권리 및 책임문제와 관련해서 인간을 넘어선 인격성(personhood beyond human) 에 관한 법철학적 연구가 다각적 으로 선행되어야 함 포스트휴먼(post-human) 기술 및 윤리의 학제간 연구단체로 유명한 for Ethics and Emerging Technologies) 는 IEET(Institute The Personhood Beyond the Human conference 라는 세미나를 개최, 비인간적 존재의 인격성 에 대한 학제적 연구 및 실험을 지속적으로 추진중 - 사물인터넷, 인공지능, 로봇 알고리즘 등 비인간(non-human) 행위자 들의 네트워크가 고도화되면서 법제도적, 규범적 주체성의 문제가 제기 되면서 위험(risk) 의 책임주체가 인간에서 사물로 이동함. - 전통적인 법철학적 사고는 인간이 이성과 판단력을 가진다는 측면에서 그 주체성과 존엄성을 인정하는 측면이 있는데, 머신러닝 또는 딥러닝이 전제된 인공지능의 출현은 권리 주체의 개념적 범주를 어떻게 설정할 것인지에 관한 다소 근원적인 문제를 제기 - 이러한 이슈는 자연스럽게 기존 인간중심의 규범체계에서 인공지능, 로봇 등 사물과의 공존과 대체를 고려한 새로운 법적 기반 및 규범체계 정립을 요구함 - 특히 비실정적(non-positivistic) 성격의 인권 개념이 전통적 법철학의 역사적 과정에서 어떻게 변화했는지를 탐색하면서, 향후 인공지능 시대 에서 헌법 및 법률상의 권리 등 실정적 권리의 성격 변화를 예측하는 연구도 필요 18

3. 인공지능 규범체계 정립을 위한 정책과제 책임배분의 문제 - 인공지능을 갖춘 로봇의 등장은 스스로의 판단 하에 움직이는 새로운 개체 또는 주체의 출현을 의미하는데 이러한 로봇이 타인의 생명, 신체 및 재산권 등을 침해하는 경우에 대한 책임을 누구에게 지울 것인지 여부를 규범적 차원에서 정립해야 함 - 인간의 내면적 동기의 일환이라고 할 수 있는 고의 또는 과실 책임 이라는 전통적인 책임법리가 인간이 아닌 로봇에게 적용되는 것이 타당 한지 여부에 대해 논의할 필요가 있고, 또한 민사법적 차원에서 제조물 책임 의 인정범위는 어떻게 설정할 수 있는지 여부가 심층적으로 논의 되어야 함 적법절차의 원리 문제 - 적법절차의 원리는 기본적으로 신체의 자유와 밀접한 관련성을 가지는 것으로 국가 작용은 실질적으로 적법한 절차에 근거해야 한다는 것인데, 인공지능 및 로봇을 통한 데이터 분석 결과( 특히, 예측결과 등) 가 범죄 수사 및 국가작용에 활용되는 경우 전통적인 관점에서의 적법절차를 보장하기 힘든 측면이 있음 - 따라서 단순한 빅데이터 분석을 넘어서는 인공지능 사회에서는 적법 절차의 원리를 어떠한 형태로 변형시켜 발전시킬 수 있을 것인지, 아니면 그러한 원리를 포기하고 새로운 기본권 패러다임을 수용해야하는지 등에 대한 논의가 이루어질 필요가 있음 19

인공지능의 규범이슈와 정책적 시사점 규범적 법적 판단의 자동화 문제 - 이상의 규범적 이슈와 달리, 인공지능 그 자체를 활용한 자동화된 규범적 법적 판단의 문제도 논의할 필요가 있는 바, 이는 인공지능과 법적논증 ( Artificial Intelligence and Legal Argumentation) 이라는 주제로 비교적 오랫동안 연구되어옴 - 규범적 법적 판단의 자동화는 합법과 불법의 명확한 형식 논리적 구분 을 전제로 하는 것이 아니라, 궁극적으로 경합 또는 충돌하는 가치간 의 형량(balancing) 을 통해 이루어지는 것이기 때문에 인공지능이 이 러한 형량에서 어떤 기능을 할 수 있는지 여부에 대한 검토가 필요함 인공지능 시대의 새로운 방향 새로운 법규범 형태에 관한 연구와 준비 ICT 법체계 정립을 위한 논의의 - 인간과 기계의 이분법적 구분을 전제로 한 기존의 법체계로는 인공 지능을 매개로 한 다양한 문제들에 효과적으로 대응하지 못하는 사례가 빈번해지고 있음( 한국산업기술진흥원, 2014) - 따라서 인공지능, 사물 ( 事 物 ) 등 인간 이외의 존재나 비인간(non-human) 행위자 네트워크의 영향력이 증대함에 따라 사람과 사물의 간격을 메울 수 있는 중간적 규제사항 을 적극 도입하는 등 초연결사회 법제개편의 필요성 제기 가능( 김형준, 2015) - 앞으로 인공지능은 해당 규범의 사안별 적용즉 ( 사법적 판결 ) 뿐만 아니라 사안들의 비교 분석을 통한 규범 형성 ( 즉 입법) 에도 상당한 영향을 미칠 것으로 예상됨 20

3. 인공지능 규범체계 정립을 위한 정책과제 - 특히 ICT 분야와 밀접한 연관성을 가지면서 발전해 온 소위 연성법 (soft-law) 관념이 과거와는 다른 형태로 더욱 보편화될 가능성도 있기 때문에, 인공지능 시대의 새로운 법규범 형태에 관한 선제적 연구를 수행할 필요가 있음 - 인공지능, 로봇, 심지어 사이보그 등 새로운 지능적 존재의 법적 지위, 권리 및 민형사 책임의 범위를 어떻게 설정한 것인지 등 현행 법체계 검토 등 실정법적 접근 뿐만 아니라 기술과 인간의 상호작용에 대한 법철학적 연구 및 사회적 공론화가 더 요구됨 전통법과 사이버법의 중간영역으로서 새로운 융합 법체계로써 이른바 포스트 휴먼법 을 모색하자는 논의도 제기( 김경환, 2015) - 인공지능, 로봇 등 초연결 지능화된 기술이 향후 ICT혁신의 핵심기반 으로 자리잡을 경우에 대비해서 기존의 협소한 ICT 개념과 정책영역을 넘어서는 초연결 사회 및 지능정보사회의 새로운 방향에 대한 연구에 착수해야 함 ICT 법체계 정립 - 그외에 인공지능 규제체계의 방식( 자율규제, 오픈소스 등), 규제감독 기구의 성격과 역할, 입법부, 사법부, 행정부 등 각 규제주체의 역할 등에 대한 법제화도 고려할 필요 - 물론 인공지능의 기술적 적용 및 활용이 보편화함에 따라 웨어러블 기기, 드론, 무인자동차, 소셜로봇 등 생활 서비스화된 기계나 기술의 오남용에 따른 사생활 침해, 감시 등의 문제를 규제하기 위한 입법적 제도적 장치도 마련되어야 함 인공지능 알고리즘( 또는 아키텍처) 의 시민적 통제권한 확보 - 인공지능은 설계단계에서 설정된 알고리즘을 통해 각종 판단을 자율 적으로 수행하며 더 나아가 그 알고리즘 조차 스스로의 학습을 통해 구성해 나가는 기술이기 때문에 알고리즘에 대한 통제권을 어떻게 확보 하고 활용할 것인지가 매우 중요한 규범이슈로 대두 21

인공지능의 규범이슈와 정책적 시사점 - 안전, 보안, 신뢰의 관점에서 인공지능 알고리즘에 대한 시민적 통제 가능성 및 제도화 방안을 구체적으로 명시하여 소위 알고리즘 책임성 (algorithmic accountability) 을 구현할 필요 - 예컨대 우선순위 결정, 분류, 군집화, 연관성, 필터링 등 알고리즘의 기술적 구현과정에 대한 공개성, 투명성, 책임성의 원리가 작동할 수 있도록 설계 가이드라인을 수립 - 단, 기술 및 제품 설계 단계의 협업, 규범체계 변화대응, 시장창출 동기 등 다양한 가치들 간의 조화와 균형에 입각한 알고리즘 책임성 체계를 지향해야 함 알고리즘 반감 (algorithm aversion), 알고리즘 회피 (algorithm avoidance) 라고도 불리는 로봇과 인공지능에 대한 사용자들의 불신을 해소하기 위해 개발/ 연구 단계에서 로봇의 인간화 등 보다 인간친화적인 디자인 전략도 수립할 필요 인공지능과 로봇의 규범체계를 정립하기 위한 사회적 기반 조성 (사회적 논의기구의 설치) 인공지능의 발전은 기술. 산업을 넘어 인간의 삶/ 생존의 문제와 직결되므로 사회적 논의기구를 통해 이른바 지능정보 사회의 본격화에 대비한 중장기 연구 및 국가전략을 협의 - 따라서 법제도 뿐만 아니라 교육체계, 의식과 문화 등의 사회적 차원 에서도 이에 대비한 정책과제를 고려해야 함 - 인공지능의 사회문화적 기반을 조성하는 문제는 결국 인간의 복리 및 삶의 질 향상을 위해 사전예방원칙(precautionary principle) 의 관점에서 인공지능의 잠재적 위험으로부터 사회시스템을 보호하려는 정책 방향과 관련됨 22

3. 인공지능 규범체계 정립을 위한 정책과제 - 따라서 사전예방적 조치, 억제, 규제 등의 필요성을 판단함에 있어서, 단순히 산업경제적인 측면에서 비용/ 편익 분석에 의존하는 전문가 주의를 극복하고, 기술민주주의적 시각에서 미래를 결정하는데 일반 인의 인식을 반영하려는 태도가 필요함 - 전문가, 일반인, 정부, 업계 등이 참여하는 지능정보사회 국가전략위 원회 를 구성하여, 인공지능/ 로봇의 설계 및 이용과 관련한 지침을 결정 하도록 하는 방안이 강구될 필요가 있음 아직까지 규제주체의 전반적 전문성 부족은 인공지능 및 로봇지능기술의 규제 체계 정립을 지체시키는 요인으로 지적된 바 있음(Scherer, 2015) 라이언 칼로 (Ryan Calo) 교수가 제안한 연방로봇위원회 와 같은 독립적 정부 기구 형태보다는 기술적 이슈 외 사회적, 법적, 철학적, 경제적 관점까지도 포괄적으로 논의할 수 있는 사회적 논의 기구형태가 지능정보사회를 대비한 한시적 컨트롤 타워의 역할 수행 가능 ( 윤리헌장 등 사회규범의 재구성) 지능정보사회의 새로운 사회규범을 형성한다는 차원에서 기존의 로봇윤리헌장을 개선한 지능정보사회 윤리 헌장 과 같은 사회적 논의체계를 구축할 필요 -인공지능과 로봇 시대를 살아가는 국민들이 기술적 적응방법 못지 않게 윤리적으로 대비할 수 있는 규범역량을 제고하기 위한 프로그램 개발 및 확산 요구됨 - 아시모프의 로봇윤리규범을 대신할 수 있는 새로운 사회규범을 모색 하는 방안으로, 지금은 유명무실화된 지능형 로봇 개발 및 보급 촉진법 제18 조의 지능형 로봇윤리헌장을 재논의, 보다 실효성있는 가이드라인 이나 지침으로 구체화하는 방안 고려 23

인공지능의 규범이슈와 정책적 시사점 ( 미래지향적 교육체계 수립 ) 알고리즘 책무성의 사회적 형성이라는 관점 에서 볼 때 로봇시대의 새로운 사회규범은 인간 고유의 능력을 향상시 키는 교육체계 수립과 분리해서 생각할 수 없음 - 따라서 인공지능의 설계도인 알고리즘 통제권이 소수의 프로그램 개발자 에게만 집중되는 정보비대칭 상황을 극복하기 위한 사회정책, 즉 알고 리즘의 힘과 속성을 이해하는 능력을 의미하는 코드 리터러시(code literacy) 를 증대시키기 위한 교육학습체계 구축도 고려( 구본권, 2015) - 미래 교육체계는 코드 리터러시의 차원을 넘어 인간에게 고유하고 자동화 되기 어려운 역량들, 즉 감성, 사회성, 창의성, 열정, 협업력 등을 강화, 발전시키는 방향으로 전환할 필요 (국제규범의 모색) 킬러 로봇의 국가간 거래, 원격조종에 의한 범죄로봇의 입국 등 일국 차원에서 해결하기 어려운 인공지능 및 로봇 규범이슈에 대해서는 국제협력을 다각적으로 준비해야 함 - 현재 로봇, 인공지능에 대한 개별국가들간의 규제체계 및 이익이 크게 상충하므로 규범의 상호운용성(legal interoperability) 관점에서 지금 부터라도 국제협력의 틀 모색할 필요( 김경환, 2015) 킬러로봇금지조약 등은 인공지능과 로봇의 글로벌 규제 거버넌스 형성을 위한 국제협력의 대표적 사례 - 특히 향후 국제적 이슈로 급부상할 것으로 예상되는 킬러로봇의 법적 정의, 킬러로봇에 대한 국제규범 방향 및 제재 방안, 이 과정에서 우리 나라의 능동적 역할 등에 대한 논의와 준비가 이루어져야 함 24

4. 결론과 전망 4. 결론과 전망 로봇시대를 살아가는 인간의 두가지 길 로봇 시대를 살아가는 인간의 두가지 길 은 실존의 관점에서 생각 하는 기계 로서의 인공지능과 로봇이 쉽게 모방/ 대체할 수 없는 인간만의 고유한 가치나 역할을 고양시키는 것, 그리고 인공지능, 로봇과 같은 자동화된 기술을 인류/ 인간중심의 관점에서 제도적 / 규범적으로 통제하는 것임( 구본권, 2015) - 전자는 인간 고유의 능력을 키우기 위한 교육시스템 및 관련 정책을 통해 실천해야 할 문제이지만, 후자는 인공지능의 자율성을 제한하고 인간주체의 통제력을 제고하는 법제도 적용의 문제라 할 수 있음 - 인공지능의 압도적 영향력으로부터 인간 본연의 길을 찾기 위해서는 신경생물학, 신경과학, 심리학 등의 다양한 연구성과를 활용해서 인간 본연의 의식 형성 과정, 즉 인간다움 이 어떻게 이루어지는 지에 대한 더 많은 연구와 노력이 필요( 한상기, 2015) 지능화로 인해 인류에게 편의성과 생산성의 획기적 증대, 새로운 산업의 창출을 가져다 주겠지만 동시에 사회시스템의 근본적 재편과 머신의 인간 대체라는 유례없는 위협이 나타날 수 있음 - 그러나 인공지능은 인간의 한계를 뛰어넘는 새로운 가능성들을 창출 하고 다양한 사회문제들을 해결하는데 적극 활용되면서 더욱 진화를 거듭할 전망 - 우리가 인공지능의 규범적 이슈에 관한 체계적 논의를 하는 이유는 그러한 논의가 장기적으로 인류가 직면한 실존적 위험을 줄이는데 그나마 도움을 줄 수 있기 때문임(Danaher, 2015) 25

인공지능의 규범이슈와 정책적 시사점 - 따라서 윤리적 민감성을 지닌 규범체계 및 규제 메커니즘을 통해 인공 지능이 제공하는 기회와 위험, 즉 위험(risk) 과 보상(reward) 의 비율을 균형있게 조율, 조정하도록 노력해야 함 인공지능 규범체계 정립의 선결적 과제 인공지능 규범체계 구축은 포스트 정보사회의 새로운 비전으로 제기되는 소위 ' 지능정보사회를 ' 대비한 새로운 규범체계의 구성요소 및 내용을 마련하는 작업 - 이를 통해 인공지능, 로봇 등 새로운 기술혁신을 수용하는 과정에서 갈등과 보완이 불가피한 현행 규범체계에 대한 문제점( 입법적 공백) 을 분석하고, - 인공지능 등 고도화된 프로그램 및 기술의 윤리적/ 도적적 알고리즘 책무성을 강화하는 방향에서 대안적 규범체계를 제시해야 함 - 또한 인공지능이 로봇저널리즘 뿐만 아니라 모바일 기기의 가상비서 (Virtual Assistant), 증강/ 가상현실 등 미디어 영역에까지 확장되므로 관련 미디어 법제에 미치는 영향 및 이슈에 대한 분석적 검토 및 규범 체계 연구도 병행할 필요 그러나, 법제도 연구와 대안 마련보다 선결되어야 하는 과제는 인공 지능에 대한 공포와 두려움을 의식과 문화 차원에서 극복하는 것임 - 일자리 감소 등 인공지능에 대한 국민들의 불신이나 불안이 여전하기 때문에 사용자 친화적 서비스 제공 뿐만 아니라 일상생활에서의 활용 도를 높이려는 문화적 접근도 필요함 - 원격현실 로봇에 헌법적 기본권을 부여할 가능성에 대한 한국인들의 인식조사에서 로봇을 접한 경험이 많은 사용자일수록 로봇의 법적 지위 부여에 대해 긍정적이라는 조사결과에 주목할 필요( 배일한, 2015) 26

4. 결론과 전망 < 2> 출처: 배일한 (2015) - 따라서 인간과 사회에 유용한 혜택과 기회를 제공하는 인공지능의 사회 문화적 가치를 폭넓게 공유하는 인식 체계를 구축할 필요 - 산업적 혁신의 가치 뿐만 아니라 안전성, 사회문제 해결 등 보다 안전 하고 책임있는 인공지능 개발 및 활용의 가치를 부각시킬 수 있는 사례 발굴 및 확산을 전략적으로 준비할 필요 - 인공지능을 단순히 산업적 활용의 수준을 넘어 당면한 다양한 사회문제 해결의 수단으로 적극 활용함으로써 인공지능의 사회적 가치를 제고 하기 위한 정책 연구도 아울러 요구됨 - 그외에도 산업사회형 인력양성에서 지능사회형 인재양성 체계로의 교육시스템 전환을 하는 방안, 지능화된 정보선택 능력의 격차 해소를 위한 데이터 리터러시 또는 알고리즘 리터러시 제고 및 지능정보시 민의 육성 방안, 섹스로봇 등 인간관계 약화와 관련한 사회문화적 이슈에 대한 학제간 연구 및 사회정책 제시 등도 고려해야 선결과제임 27

인공지능의 규범이슈와 정책적 시사점 참 고 문 헌 고인석(2011), 아시모프의 로봇 3 법칙 다시 보기: 윤리적인 로봇 만들기, 철학연구 제93 권, 철학연구회. 구본권(2015), 로봇시대, 인간의 일, 서울: 어크로스. 구태언( 2015), 자율주행자동차 시대, 사고 나면 누구 책임일까, TECH M, 제31 호(2015년 11 월호), 머니투데이. 김경환( 2015), 포스트휴먼법의 체계와 이슈, 한국포스트휴먼학회 창립기념 공개강연회 발표자료(http://krposthuman.com). 김형준(2015), 초연결사회 법제 개편방향 및 이슈, 한국정보사회학회 2015 년 하반기 정기학술대회 발표문. 배일한(2015), 원격로봇에 기본권 부여, 가능한가: 로봇 텔레프레즌스의 정치 실험 연구 ICT 인문사회 융합동향 제11 호, 정보통신정책연구원. 월러치, 웬델 & 알렌, 콜린(2014), 왜 로봇의 도덕인가: 스스로 판단하는 인공지능 시대에 필요한 컴퓨터 윤리의 모든 것, 노태복 옮김, 서울: 메디치. 이원태(2015), 포스트휴먼시대 인간과 기술의 소통모델 : 네트워크 사이보그, Future Horizon, 제26 호(2015 년 가을호), 과학기술정책연구원 조근희(2015), 국내 인공지능(AI) 실태조사: 국내 기업/ 대학/ 연구소 현황 및 애로사항을 중심으로, 2015 ICT Spot Issue. 정보통신기술 진흥센터 최계영(2015), 인공지능: 파괴적 혁신과 인터넷 플랫폼의 진화, KISDI Premium Report 제15-05 호, 정보통신정책연구원 한국산업기술진흥원 (2014), 로봇시대의 도래가 법제도 및 정책에 주는 시 사점, 산업기술정책 브리프 2014-51 호. 한상기(2015), 인공지능에 대한 사회적 합의와 윤리 논의가 필요한 이유, ICT 인문사회 융합동향 제10 호, 정보통신정책연구원. 현대경제연구원(2014), 인공지능(AI) 관련 유망산업 동향 및 시사점, 지속가능한 성장을 위한 VIP 리포트, 14-33( 통권 584 호). 28

참고문헌 Asaro, Peter(2015), Regulating Robots: Approaches to Developing Robot Policy and Technology, Presented at WeRobot 2015, University of Washington, April 10, 2015.http://www.werobot2015.org/wpcontent/uploads/2015/04/Asaro_Regulating_Robots_WeRobot_201 5.pdf Bostrom, Nick & Yudkowsky, Eliezer(2011), The Ethics of Artificial Intelligence, Cambridge Hanbook of Artificial Intelligence, William Ramsey and Keith Frankish(eds.), Cambridge University Press. Bringsjord, Selmer & Arkoudas, Konstantine(2004), The modal argument for hypercomputing minds, Theoretical Computer Science, Vol. 317, June 2004, 167 190. Calo, Tyan(2015a), Robotics and the Lessons of Cyberlaw, California Law Review, Vol. 103. Calo, Ryan(2015b), Robotics and the New Cyberlaw, California Law Review, Vol. 103, No. 3, pp. 513-63 (2015) Calo, Ryan(2014), The Case for a Federal Robotics Commission, Center fo Technological Innovation at Brookings, September 2014. Danaher, John(2015), Is Anyone Competent to Regulate Artificial Intelligence?, http://philosophicaldisquisitions.blogspot.kr/2015/ 11/is-anyone-competent-to-regulate.html Darling, Kate(2012), Extending Legal Rights to Social Robots, Presented at We Robot Conference. April 2012 Human Rights Watch(2015), Mind the Gap: The Lack of Accountability for Killer Robots. https://www.hrw.org/sites/default/files/reports/ arms0415_forupload_0.pdf Karnow, Curtis E.A.(2013), The Application of Traditional Tort Theory to Embodied Machine Intelligence, Paper presented at The Robotics and the Law Conference, Center for Internet and Society (Stanford Law School), April 2013. http://works.bepress.com/ curtis_karnow/9/ 29

인공지능의 규범이슈와 정책적 시사점 Knight, Kate(2014), How Humans Respond to Robotics: Building Public Policy through Good Design, Center fo Technological Innovation at Brookings, July 2014. Lin, Patrick, Bekey, George & Abney, Keith (eds.) (2011), Robot Ethics: The Ethical and Social Implications of Robotics, MIT Press. Murphy, Robin R.& Woods, David D.(2009), Beyond Asimov: The Three Laws of Responsible Robotics, IEEE Intelligent System, Vol.24, No.4, July/August 2009, pp.14-20. http://www.inf.ufrgs.br/ ~prestes/courses/robotics/beyond%20asimov.pdf Scherer, Mathew U.(2015), Regulating Artificial Systems: Risks, Challenges, Competencies, and Strategies, Harvard Journal of Law and Technology, Vol. 29, No. 2. Solum, Lawrence B.(1992), Legal Personhood for Artificial Intelligence, North Carolina Law Review, Vol. 70. Stahl, Bernd Carsten(2004), Information, Ethics, and Computers: The Problem of Autonomous Moral Agents, Minds and Machines, Vol.14 No.1, February 2004, pp.67-83, Yudkowsky, E.(2008), Artificial Intelligence as a Positive and Negative Factor in Global Risk. In Global Catastrophic Risks, Oxford University Press. 30