[보일스님이 들려주는 4차 산업혁명 이야기] <11> 인공지능의 윤리와 규범①
[보일스님이 들려주는 4차 산업혁명 이야기] <11> 인공지능의 윤리와 규범①
  • 보일스님 해인총림 해인사승가대학 학감
  • 승인 2019.10.04 23:14
  • 댓글 0
이 기사를 공유합니다

수행으로 체득된 윤리관
인공지능 훈련 알고리즘에
새로운 원천 제공 ‘기대’
보일스님
보일스님

➲ ‘해인사를 폭격하라’

“해인사를 폭격하라!” 작전명령을 받은 한 젊은 전투기 조종사가 갈등하기 시작한다. 6ㆍ25 전쟁이 한창이던 1951년 9월18일 오전, 약 900여 명에 이르는 인민군 패잔병들의 주둔지이자 된 은신처가 해인사는 군사 공격의 표적이 되었다. 앞서 이륙한 정찰기는 4대로 편성된 비행편대에게 백색 연막을 통해 선명하게 공격목표를 가리켰다. 바로 해인사 대적광전 앞마당이었다. 각각 엄청난 화력으로 중무장한 비행편대의 조종사들은 최종명령만을 기다리면서 발사 버튼을 만지작거렸다. 

그때였다. 편대장기가 급상승하면서 명령이 전달된다. “각기는 편대장의 뒤를 따르되, 편대장의 지시 없이는 절대로 폭탄을 사용하지 말라. 기관총만으로 해인사 주변의 능선을 소사 공격하라.” 폭탄으로 무장한 채, 산악지형을 급강하 저공비행 하면서 기총소사를 한다는 것은 마치 섶을 지고 불로 뛰어드는 것처럼 매우 위험한 기동이었다. 하지만, 편대기 대원 누구도 이의를 제기하지 않았고, 편대장의 명령을 따랐다.

다시 정찰기로부터 독촉하는 날카로운 음성의 무전이 들려왔다. “해인사를 네이팜탄과 폭탄으로 공격하라, 편대장은 뭘 하고 있나?” 그러나 이 무전을 받고 이어진 편대장의 명령은 엉뚱하기만 했다. “전원 일체 공격을 중지하라!” 편대장기는 급반전 급강하하면서 해인사 대적광전 용마루를 초저공으로 스치는 듯하면서 지나갔다. 뒤이어 2, 3, 4번기도 차례로 그 뒤를 이었다.

이 상황은 당시 공군 제10 전투비행대장이었던 고 김영환(金英煥) 장군(당시 대령)의 실제 이야기이다. (출처 : 지관스님, <가야산 해인사지(誌)>) 이렇게 해인사 팔만대장경은 전쟁의 참화를 비껴갔다. 만약 김영환 장군의 지혜로운 결단과 통찰이 아니었더라면, 팔만대장경은 한순간에 잿더미로 변해버렸을 것이다.

군인으로서 상부의 명령에 따라 적군의 은폐장소가 될 해인사를 폭격할 수도 있었지만, 인류문명의 정수를 담고 있는 팔만대장경까지 모두 소실시킨다는 것은 엄청난 비극임이 틀림없었을 것이다. 그런데도, 당시 상황에서 김영환 장군은 군인으로서의 명령을 따라야 하는 의무감과 문화유산을 파괴해서는 안 된다는 인류 보편적 양심 사이에서 매우 어려운 선택을 해야 했을 것이다. 일종의 딜레마이다.

김영환 장군이 개인적 신변의 위험을 감수하면서까지 지키려 했던 신념은 무엇이었을까. 폭력과 증오만이 생존의 힘이 되는 전시에 보다 높은 수준의 고등 감성과 이성이 발휘되는 것은 매우 어려운 일이다. 그리고 폭력과 야만의 시대에 이성과 문명을 택한다는 것은 그리 낭만적일 수만은 없는 법이다. 대가가 혹독하다. 전시에 명령 불복종은 항명이고 가장 무거운 형벌에 처할 수 있기 때문이다. 인간들은 특수한 상황에서 종종 그 드물고 어려운 결단과 실천을 하고, 역사는 그것을 기록한다. 그렇다면 이러한 판단과 결단은 인간만이 가능한 것일까. 

인공지능을 만드는 것은 현대의 과학기술로 얼마든지 혹은 우려스러울 정도의 수준으로 잘 만들어 낼 수 있다. 하지만, 그 인공지능을 통해 실현하려는 가치와 도덕의 문제는 간단한 문제가 아니다. 인공지능이 탑재된 미래의 무인 드론 폭격기들이라면 그러한 도덕적 딜레마에서 어떻게 반응할까.

김영환 장군과 같은 고도의 도덕적 판단을 할 수 있을까. 가능하다면 그 도덕은 어느 쪽의 가치를 대변할 것인가. 바미안 석불을 파괴한 탈레반들도 자신들의 도덕적 우월성을 주장하긴 마찬가지이다. 그리고 어느 쪽의 도덕 알고리즘이 되었든 간에, 과연 그것이 진정 인공지능의 윤리라고 할 수 있을까. 인간의 가치가 반영된 도덕 알고리즘을 탑재한다고 해서 인간의 윤리가 인공지능의 윤리가 되는 것은 아니기 때문이다. 
 

자율주행자동차에 어떤 윤리적 가치를 지향하는 알고리즘을 탑재시키느냐에 따라 인공지능은 위험한 사고 상황에서 그에 따른 선택적 반응을 하게 된다. 다수의 생명을 구한다는 이익을 위해 운전자 한 명을 희생시킬 수도 있고 반대로 자신의 주인인 운전자를 살리기 위해 다른 보행자를 희생시키는 잠재적 흉기가 될 수도 있을 것이다. 출처=www.shutterstock.com
자율주행자동차에 어떤 윤리적 가치를 지향하는 알고리즘을 탑재시키느냐에 따라 인공지능은 위험한 사고 상황에서 그에 따른 선택적 반응을 하게 된다. 다수의 생명을 구한다는 이익을 위해 운전자 한 명을 희생시킬 수도 있고 반대로 자신의 주인인 운전자를 살리기 위해 다른 보행자를 희생시키는 잠재적 흉기가 될 수도 있을 것이다. 출처=www.shutterstock.com

➲ 트롤리 딜레마(Trolley dilemma)

현재 또는 미래에 인공지능의 걸림돌은 무엇일까. ‘인공지능의 겨울’이라는 말이 의미하듯이 인류가 가진 과학기술의 한계를 떠올릴 것이다. 그러나 사실은 인간의 윤리와 도덕이 가장 큰 넘기 힘든 벽이 될 것이다. 첨단 과학기술의 도입에 철학과 윤리가 필요한 이유를 설명할 수 있는 간단한 예를 들어보자.

국내에는 <정의란 무엇인가>라는 책으로 유명한 마이클 샌델(Michael Sandel) 교수에 의해 많이 알려진 윤리학 실험이 있다. 물론 앞으로 제시될 세 가지 상황에 대한 기본 전제는 법적 책임을 묻지 않는다는 가정 아래에서 진행된다. 참고로 여기서 언급되는 ‘트롤리(Trolley)’는 광산 등지에서 석탄을 실어서 옮기는데 쓰는 광차(鑛車) 또는 손수레를 뜻한다. 편의상 전차라고 하겠다.

(A) 상황 : 전차가 운행 중 고장이 발생해 제어할 수 없게 되었다. 이대로 진행하면 이 상황을 모르고 선로에 중간에서 일하고 있는 5명의 인부가 치어 죽게 된다. 유일하게 작동되는 것은 선로를 변환해서 다른 선로로 갈 수 있게 하는 것인데 그 방향 역시 한 명이 인부가 일하고 있다. 당신은 어떤 선택을 할 것인가?

이 상황에 대해서는 대부분의 사람이 선로를 변경해서 한 명을 희생시키는 대신, 다섯 명의 인부를 구하겠다고 대답한다. 대다수의 이익을 위한 판단이라는 점에서는 공리주의에 가깝다. 그러면 이번에는 상황을 살짝 바꿔보자. 

(B)상황 : 이전과 동일한 상황인데, 다른 점은 선로는 하나뿐이어서 방향을 바꿀 수는 없다. 다만 그 철로 위로 육교가 있는데, 두 명의 사람이 이 상황을 목격하고 있다. 이때, 한 사람이 다른 뚱뚱한 사람을 밀어서 선로 위로 떨어지게 하면, 그 전차를 막을 수 있다고 가정한다. 당신은 이 다른 사람을 밀어서 5명의 인부를 살릴 것인가?

이 경우 보통의 사람들은 옆 사람을 밀지 않을 것이라고 선택한다. 왜냐하면 이것은 사실상 그 뚱뚱한 사람에 대한 살인이라고 생각하기 때문이다. 대부분의 사람은 (A)상황은 윤리적으로 용서받을 수 있다고 생각하는 반면, (B) 상황에서는 소수의 사람들만이 윤리적으로 허용될 수 있다고 판단했다. 이러한 윤리적 딜레마는 자율주행 자동차에도 그대로 적용될 수 있다.

이제 (C)상황을 가정해본다. 자율주행자동차의 운전자가 잠깐 졸고 있는 사이에 그 자율주행자동차를 보지 못하고, 건널목을 건너는 5명의 어린이가 있다. 자율주행자동차가 이들을 피하고자 작동된다면, 도로 옆 건물을 들이받거나 점포로 돌진하여 운전자 혹은 주인이 죽을 수도 있다. 인공지능은 어떤 선택을 하게 될 것인가? 

만일 대다수 사람이 선호하는 생각처럼 자율주행자동차에 공리주의적 알고리즘을 탑재시킨다면, 자율주행자동차는 주인인 당신이 알아차리지도 못하는 사이에 당신의 목숨을 위험한 상황에 부닥치게 할 수도 있을 것이다. 다시 말해, 다수의 생명을 구한다는 이익을 위해 운전자 한 명을 희생시킬 수도 있다는 말이다. 반대로 자율주행자동차의 주인 또는 운전자의 안전을 최우선으로 여기는 알고리즘이라면, 여지없이 그 다섯 명의 어린이들은 사고를 피할 수 없을 것이다.

자율주행자동차에 탑재된 인공지능은 자신의 주인을 살리기 위해 다른 보행자를 죽일 수도 있는 잠재적 흉기가 될 것이다. 이 경우 사람들은 인공지능에 살해당하지 않기 위해 도로를 걸을 때조차도 불안감을 떨치기가 어려울 것이다. 만약 당신이 자율주행자동차에 탑재될 인공지능 알고리즘의 선택 권한이 있다면 어떤 내용을 선택할 것인가? 

➲ 스님들이 인공지능 훈련시키면?

만약에 스님들이 인공지능을 훈련한다면 어떻게 될까? 그 인공지능은 선택의 순간마다 어떤 결단을 내리게 될까? 하버드대학교의 죠수아 그린(Joshua Greene) 교수는 흥미로운 연구를 진행했다. 그 연구는 소위 ‘트롤리 딜레마’ 상황에서 다양한 배경을 가진 사람들의 선택과 결단이 각각 다를 수 있다는 생각에서 출발한다.

앞서 상황(C)에서 육교 위에서 전차를 막기 위해 옆에 있는 뚱뚱한 사람을 밀어서 떨어뜨릴 사람이 몇이나 될까? 그린 교수는 설문조사가 시작되기 전 “그런 사람이 있다면, 사이코패스 이거나 경제학자일거”라고 농담을 했다. 그럴 정도로 그 선택은 대다수 사람의 상식적 판단과는 거리가 있다.

조사는 라사 근처의 수행승과 한족 그리고 미국인 등 서로 다른 문화적 배경을 가진 사람들을 대상으로 이루어졌다. 그 결과는 놀라웠다. 옆에 있는 뚱뚱한 사람을 육교 아래로 밀겠다고 대답한 비율이 스님들 집단에서 다른 조사 집단에 비해 압도적으로 많았다고 한다. 스님들은 그 이유에 대해서 ”누군가를 죽이는 것은 끔찍한 일이라고 생각하지만, 만약 행위자의 의도가 순수하고 더 큰 선행을 위해 행해지며, 행위자 자신이나 그의 가족을 위해서가 아니라면 정당화 될 수 있다“고 대답했다.

일반의 예상을 비껴가는 결과이지만, 그 이유를 듣고 보면 나름의 논리가 있다. 표면적으로는 공리주의나 결과주의의 입장처럼 보이지만, 사실은 불교가 윤리적 책임에 대한 의도성을 얼마나 강조하는지를 알 수 있다.

그러나 이러한 관점은 불교 윤리를 서양의 사고 체계에 맞추려는 시도라는 문제가 있다. 스님들의 대답에서 알 수 있듯이 그들의 관점은 특정의 철학 체계만으로 설명하기 곤란하다. 이러한 불교 관점의 유연성과 고유성이 다양한 개념의 윤리적 문제들에 새롭고 다양한 시각을 제공할 수 있는 알고리즘이 될 수 있을 것이다. 여기서 한 걸음 더 나아가 스님들의 이러한 윤리적 직관을 알고리즘에 적용해서 인공지능을 훈련한다면 그 인공지능의 결단과 실행에 대한 인간들의 평가는 어떨까.

인간이 직접 실행한 행동과 또 다른 윤리 정서가 발생되는 것이다. 이래서 인공지능의 윤리가 어려운 것인지도 모르겠다. 향후 윤리적 직관에 대한 소프트웨어는 인공지능에 적용될 수밖에 없을 것이다. 그러기 위해서는 일종의 윤리적 감각이 훈련되어야만 한다. 불교 수행을 통해 체득된 윤리적 직관은 인공지능의 훈련 알고리즘에 새로운 원천을 제공할 것으로 기대된다. 

[불교신문3523호/2019년10월5일자]


관련기사

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.