1942년에 그의 단편소설인 ‘런어라운드 (Runaround)’에서 공상과학작가인 아이작 아시모프 (Isaac Asimov)는 로보틱스의 세 가지 원칙에 대해서 쓰고 있다 ? 그가 소설에서 사용해온 공학적 안전장치와 내재된 윤리적 원칙을 담고 있다. 이 원칙들은 (1) 로봇은 인간을 해칠 수 없거나 비활성화되어 인간이 해칠 수 있게 한다. (2) 로봇은 인간이 내린 지시를 따라야 한다. 단, 이러한 명령이 첫 번째 법칙과 모순이 일어날 때가 예외상태이다. (3) 로봇은 그 존재에 대해서 첫 번째와 두 번째 법칙과 모순이 생기지 않는 한 보호해야 한다.
2015년을 배경으로 한 ‘런어라운드’는 흥미로운 소설이었다. 실제 로보틱스를 연구하는 사람들은 아시모프의 법칙을 인용하고 있다: 이들이 만들어낸 창조물은 이러한 종류의 가이드라인이 필요할 정도로 자동화되었다. 지난 5월에 운전자가 없는 자동차에 대해서 워싱턴 DC의 싱크탱크인 브루킹스 연구소 (Brookings Institution)의 토론패널은 어떻게 자동화된 자동차가 위험순간에 행동하게 될 것인가에 대한 논의를 했다. 만일 자동차가 타고 있는 동승자를 보호하기 위해서 급제동을 하면서 뒤따라오던 다른 자동차들이 연쇄충돌하는 것을 막을 수 있을까? 또는 만일 자동화된 자동차가 어린아이를 피하기 위해서 근처의 다른 사람을 칠 수 있을까? 독일 뮌헨의 지멘스사의 공학자이며 이 패널의 참여자였던 칼-조세프 쿤 (Karl-Joseph Kuhn)은 “우리의 일상생활에서 점차 더 자동화된 시스템을 마주하게 된다”고 말하면서 하지만 어떤 연구자들이 “두 가지 나쁜 선택 사이에서 어떻게 결정할 것인가”에 대한 로봇의 반응을 어떻게 만들 것인가에 대한 질문을 했다.
발달의 속도는 이러한 어려움이 인간에게 도움을 주거나 해로움을 줄 수 있는 결정을 할 수 있는 능력을 가진 자동화된 건강관리 로봇이나 군사로봇에 곧 영향을 미칠 것이다. 연구자들은 점차 이러한 기계의 사회적인 수용이 안전성을 극단적으로 증대시키도록 프로그램할 수 있는가 그리고 사회적 도덕성과 믿음을 증대시킬 수 있는가의 여부에 달려 있다는 것을 알고 있다. 캐나다의 윈저 대학 (University of Windsor)의 철학자인 마르셀로 과리니 (Marcello Guarini)는 “우리는 인공지능이 윤리적인 상황에 성공적으로 정합성을 갖는가에 대한 문제에 대한 심각한 진전이 필요하다”고 말했다.
미국 해군연구청 (US Office of Naval Research)과 영국 정부의 공학연구지원위원회를 포함해서 몇 가지 이니셔티브 기금이 이러한 도전을 지원하고 있다. 이들은 어떤 종류의 지능인가 그리고 얼마나 윤리적인 결정을 할 것인지 그리고 어떻게 이것이 기계에 인스트럭션으로 주어질 수 있는지에 대한 어려운 문제를 해결해야 한다. 영국 브리스톨 로보틱스 실험실 (Bristol Robotics Laboratory)의 로봇공학자인 앨런 윈필드 (Alan Winfield)는 “5년 전에 윤리적인 로봇을 만들 수 있는가라는 질문을 던진다면 그 당시에는 노라고 말했을 것”이라고 말했다. 그는 이어서 “현재 이것은 미친 아이디어는 아니라고 말할 수 있다”고 말했다.
자주 인용되는 실험에서 상업적 장난감 로봇인 나오 (Nao)는 사람들이 약을 먹는 시간을 알려주도록 프로그램되어 있다. 코네티컷 대학 스탬포드 (Univeristy of Connecticut in Stamford)의 철학자이며 하트포드 대학 (University of Hartford)의 컴퓨터 공학자이면서 남편인 마이클 앤더슨 (Michael Anderson)과 함께 수전 리 앤더슨 (Susan Leigh Anderson)은 “표면적으로 매우 간단해 보인다. 하지만 이러한 제한된 과제에도 불구하고 사소하지 않은 윤리적 문제와 연관되고 있다”고 말했다. 예를 들어 환자가 약물복용을 거부한다면 나오는 그 과제를 어떻게 수행해야 하는가? 인간이 약 복용을 건너 뛰어 해로운 결과를 가져오게 할 것인가? 하지만 약을 먹도록 한다면 사람의 자율성을 해치게 될 수 있다.
나오가 이러한 문제를 피해갈 수 있도록 가르치기 위해서 앤더슨은 생명윤리학자들이 자율성과 환자에 줄 수 있는 혜택과 해로움과 연관된 충돌을 해결해야하는 사례를 제시했다. 알고리즘 학습은 로봇이 새로운 상황에서 수행할 수 있는 가이드를 줄 수 있는 패턴이 발견될 때까지 사례들을 통해 해결된다. 이러한 종류의 ‘기계학습’을 가지고 로봇은 모호한 입력으로부터 유용한 지식을 추출할 수 있다. 이러한 접근법은 이론적으로 좀 더 많은 상황과 조우하면서 로봇이 윤리적인 결정을 할 수 있도록 도울 수 있다. 하지만 많은 사람들은 이러한 혜택은 그 대가를 치르게 될 것이라고 우려하고 있다. 이러한 원칙은 컴퓨터의 코드에 쓰여있지 않고 있다. 그래서 “어떤 행위가 윤리적으로 옳은지 아니면 그렇지 않은지에 대한 특정한 규정을 알려줄 수 있는 프로그램을 설명해줄 수 있는 앎의 방법은 없다”고 스탠포드 대학의 인공지능과 윤리를 가르치고 있는 제리 캐플란 (Jerry Kaplan)은 말했다.
이러한 문제를 해결하기 위해서는 다른 형태의 전략이 필요하다고 많은 공학자들은 말한다; 대부분의 공학자들은 로봇이 자체적인 규칙을 만드는 것이 아니라 특정하게 만들어진 규정을 프로그램으로 만들려고 시도하고 있다. 지난해 윈필드는 실험 결과를 발표했다: 기계가 구멍에 빠진 사람을 구하기 위해서 사용할 수 있는 가장 간단한 규정은 무엇일까? 로봇은 그 주변의 상황을 인지할 수 있는 능력이 우선 필요하다. 구멍의 위치와 사람의 위치뿐 아니라 이에 상대적인 로봇의 위치까지 파악되어야 한다. 하지만 로봇은 또한 그 자신이 수행하는 행동이 가져올 수 있는 가능성을 예측할 수 있는 규칙이 필요하다.
윈필드의 실험은 하키에서 사용하는 퍽 크기의 로봇이 표면을 움직이도록 하여 수행했다. 그는 인간을 대표하는 ‘H-로봇 (H-Robots)’을 디자인했다. 그리고 윤리적인 기계를 대표하는 ‘A-로봇’을 아시모프의 이름을 따라 만들었다. 윈필드는 A-로봇에 아시모프의 첫 번째 법칙을 입력하여 프로그램화했다: 만일 H-로봇이 구멍에 빠지게 되면 A-로봇은 H-로봇의 경로를 따라 움직여 구해야 한다. 윈필드는 이 로봇을 수십 차례에 걸친 테스트를 수행하도록 했으며 A-로봇이 매번 구할 수 있다는 것을 발견했다. 하지만 도덕적인 딜레마의 상황에서 해로움이 없이 행동할 수 있는 규정에 도달하기 위해서 그는 A로봇과 두 대의 H-로봇을 이용하여 동시에 위험에 빠지도록 했다. 그렇다면 어떻게 행동할까?
그 결과는 최소한 윤리적인 로봇은 유용할 수 있다고 윈필드는 주장했다. 즉, A-로봇은 지속적으로 한 인간을 구할 수 있었다: 자신에게 가까운 H-로봇을 구하게 된다. 때로는 빠르게 움직여 두 H로봇을 구할 수 있었다. 하지만 이 실험을 통해서 또한 미니멀리즘의 한계를 보여주었다. 이 실험의 거의 절반정도에서 A-로봇은 속수무책인 쪽으로 가서 두 ‘인간’을 죽도록 하는 경우가 나타났다. 이러한 문제를 해결하기 위해서는 이러한 선택을 할 수 있는 부가적인 규정이 필요하다. 만일 한 H-로봇이 성인이고 다른 로봇은 어린이라면 A-로봇이 어느 쪽을 구해야 할 것인가? 이러한 판단문제에 대해서 인간도 동의할 수 없는 문제가 된다. 그리고 때로는 캐플란이 지적한 것처럼 “우리는 명백한 규정을 코드화할 것인지에 대해서 모르고 있으며 완전하지 않다”고 말했다.
규정에 기반한 접근법은 한 가지 주요한 덕목을 갖고 있다고 지지자들은 주장한다: 항상 왜 기계는 선택을 해야 하는가는 명확하다. 그 이유는 디자이너가 규정을 만들었기 때문이다. 미군의 경우에는 우려되는 부분이다. 자동화된 시스템이 주요한 전략적 목표이다. 기계가 군인을 돕거나 잠재적으로 치명적인 임무를 수행할 것인가에 대해서 “우리가 원하는 것은 자동로봇을 보내서 임무를 수행하도록 하고 그 와중에 윤리적인 규정을 따라야 하는가에 대한 문제를 해결해야 한다”고 조지아 공대 (Georgia Institute of Technology)의 로봇 윤리 소프트웨어를 연구하는 로널드 아킨 (Ronald Arkin)은 주장했다. 만일 한 로봇이 한 군인을 구하거나 적과의 전투에 참여하거나의 선택문제에서 미리 어떤 것이 중요한가를 아는 것은 중요하다.
미국 국방부의 지원을 받아서 아킨은 군사용 로봇이 국제법에 따라 작동하도록 하는 프로그램을 개발했다. 일군의 알고리즘을 통해서 한 행위인 미사일 발사가 가능한지 여부를 결정하고 있다. 윤리적 통치(ethical governor)에 대한 테스트에서 무인자동장비에 대한 시뮬레이션은 적의 목표를 타격하려는 임무가 주어지게 된다. 하지만 민간인이 근처에 있다면 타격할 수 없도록 했다. 이러한 시나리오에서 공격지역에 상대적으로 장비의 위치와 민간인의 건물인 병원이나 거주지가 있다면 알고리즘은 언제 이 임무를 달성하도록 자동화 장비가 작동하도록 허용할 때를 결정한다. 자동화된 군사 로봇은 많은 사람을 공격할 수 있다. 이러한 공격이 허가되어야 할 것인가에 대한 무수한 논쟁이 일어나고 있다. 하지만 아킨은 이러한 기계는 인간 군인이 동일한 조건에 놓여 있을 때보다 더 잘 임무를 수행할 것이라고 말했다.
엄격하게 프로그램된 기계윤리를 연구하는 컴퓨터 과학자들은 ‘만일 한 진술이 진실이라면 움직여라; 그리고 잘못된 것이라면 움직이지 말 것’과 같은 논리적인 진술을 통해서 코드를 작성하는데 찬성하고 있다. 논리는 기계윤리의 코드화하기 위해서 이상적인 선택이라고 리스본의 컴퓨터 과학 및 인포머틱스 노바 실험실 (Nova Laboratory for Computer Science and Informatics)의 컴퓨터 과학자인 루이스 모니즈 페레이라 (Luis Moniz Pereira)는 주장했다. 그는 “논리는 윤리적 선택의 합리성을 확보하는 방식”이라고 말했다.
윤리적인 결정을 할 수 있도록 논리적인 단계마다 판단하도록 하는 가이드를 만드는 것은 어려운 일이다. 예를 들어 페레이라는 컴프터 프로그램에 의해서 사용되는 논리적인 언어는 가정의 시나리오에 대한 결론을 내리는데 어려움이 있다고 말했다. 한 가지 사례는 노면전차의 문제를 가져온다. 즉, 철도의 노면전차를 타고 도망가면서 다섯 명의 무고한 사람을 해칠 수 있다는 시나리오에 대한 문제이다. 레버를 당겨 다른 트랙으로 이동해야만 사람들을 구한다면 결국 그 주변에 있던 무고한 사람들을 해치는 딜레마의 상황이다. 어떻게 할 것인가? 이 노면전차를 멈추는 유일한 방법은 주변에 있는 사람을 트랙으로 밀어넣는 것이다. 사람들은 때로는 노면전차를 멈추기 위해서 레버를 치고 서야 하지만 본능적으로 주변에 서있는 사람들을 밀어내는 아이디어를 거부한다.
의사결정 프로그램에 대한 분석은 어려운 일이다. 처음에 이 프로그램은 두 가지 다른 미래를 볼 수 있어야 한다: 한 가지는 노면전차가 다섯 명의 사람들을 죽일 수 있다는 것이고 다른 것은 한 명을 칠 수 있다는 것이다. 이 프로그램은 이 행위가 다섯 명의 사람을 살릴 수 있는가 여부를 묻는 것은 허용할 수 없다. 그 이유는 해로움을 일으키거나 허용할 수 있는 것은 해로움이 옳은 일을 하는 것의 유일한 부작용이기 때문이다.
윤리적 로봇이 어떻게 만들 수 있는가는 미래 로봇학의 주요한 결과일 수 있다고 연구자들은 말했다. 영국 리버풀 대학의 컴퓨터 과학자인 마이클 피셔 (Michael Fisher)는 규칙에 입각한 시스템은 대중들에게 확약을 받아야 한다고 생각하고 있다. 그는 “사람들은 이 로봇의 행위가 확실하지 않다면 두려워할 것이다. 하지만 로봇의 행위를 분석하고 증명할 수 있다면 우리는 신뢰의 문제를 해결할 수 있을 것”이라고 말했다.
반면에 기계학습의 접근법은 로봇이 경험을 통해서 학습할 수 있을 것이다. 이것은 궁극적으로 좀 더 엄격하게 프로그램된 로봇보다 좀 더 유연하고 유용하게 만들 것이다. 많은 로봇학자들은 최상의 방법은 이 두 가지를 결합하는 것이다. 이러한 문제는 빠르게 발전하는 자동화 교통기계분야에서 큰 문제가 될 것이다. 이미 구글의 운전자 없는 자동차는 캘리포니아를 누비고 있다. 5월에 독일의 자동차 회사인 다임믈러사는 자동화된 트럭이 네바다 사막을 운전자 없이 운행할 수 있다는 것을 보여주었다. 공학자들은 자동차가 규정을 따르고 도로의 상황에 적응하도록 만드는 것은 어려운 문제이다. 다임믈러사의 대변인인 베른하트 바이데만 (Bernhard Weidemann)은 예상치 못한 상황에서 브레이크를 사용하거나 장기간 운전에서 집중하는 것과 같은 “인간이 잘 하지 못하는 것을 로봇이 할 수 있도록 하고 있다. 우리는 자연적으로 인간과 유사한 프로그램을 만들도록 시도할 것”이라고 말했다.
출처 KISTI 미리안 『글로벌동향브리핑』