[보일스님이 들려주는 4차 산업혁명 이야기] <26> 인공지능 살상로봇과 불교②
[보일스님이 들려주는 4차 산업혁명 이야기] <26> 인공지능 살상로봇과 불교②
  • 보일스님 해인총림 해인사승가대학 학장 대행
  • 승인 2020.03.06 23:46
  • 댓글 0
이 기사를 공유합니다

킬러 로봇 연구 자체가 악업을 쌓는 것이다

“인공지능 기술은 인류 문명사 최악의 사건이 될 수도 있다.”
- 스티븐 호킹

 

보일스님
보일스님

➲ “킬러 로봇 개발을 중단하라”

“킬러 로봇 개발을 중단하라.” 지난해 4월 토비 월시, 제프리 힌턴 등을 비롯한 세계의 저명 인공지능 로봇 연구자 57명은 한국과학기술원(KAIST)에 메일을 보내왔다. “KAIST가 킬러 로봇 연구를 중단하지 않는다면, 그들은 KAIST에 방문하지도 않을 것이며, KAIST 연구자를 초청하지도 않을 것이며, KAIST와 연관되어 있는 연구에 어떠한 기여도 하지 않겠다”는 보이콧 선언이었다.

이후에 KAIST 총장이 직접 “KAIST는 ‘킬러 로봇’이나 치명적인 자율무기시스템에 대한 개발 계획이 전혀 없으며, 인공지능 기술을 적용하는 데 있어 윤리적인 우려를 충분히 인지하고 있다”고 해명하고 그 외국학자들이 보이콧을 철회하면서 상황은 정리됐다.

일종의 해프닝으로 끝났지만, 뒤끝은 개운치 않다. 한반도가 군사적 대치 상황에 있어서 대한민국이 주목받는 면은 이해가 되지만, 킬러 로봇에 대한 현재 우리나라의 윤리적 무감각이 사태를 초래한 것은 아닌지 되새겨 볼 만한 사례이다. 인공지능과 전쟁 무기가 결합할 경우의 파괴성은 인간의 상상력을 뛰어넘는다.

이 때문에 전 세계의 인공지능 연구자와 로봇 공학자들이 이 문제를 심각하게 인식하는 것은 단순한 기우가 아니다. UN에서도 킬러 로봇 규제 문제는 지속해서 논의되어 왔다. 이미 지난 2016년 UN 회의에서 ‘킬러 로봇’ 규제에 관해서 유엔 안보리 상임이사국 중 중국은 찬성했지만, 미국 러시아 등은 여전히 회의적이다.

군사 강대국들은 자국이 확실히 비교 우위를 가진 킬러 로봇 분야를 포기할 생각이 없는 듯하다. 오히려 미국은 최근에 무기용 인공지능 개발을 국방 전략의 핵심으로 삼고 더욱 열을 올리고 있다. 러시아도 영화 ‘터미네이터’를 본떠서 만든 전투 로봇 ‘이반 터미네이너(Ivan Terminator)’를 공개하면서 자국의 킬러 로봇 기술을 과시하기에 바쁘다.

보다 압도적이고 효과적인 살상 무기 개발을 위해 과거 군비경쟁 시절로 회귀하고 있는 현실이다. 이대로 간다면 인류는 다시 새로운 냉전의 시대로 들어가고 핵전쟁이 아닌 킬러 로봇의 공포 속에서 살아가게 될 것이다.

과장이라고 생각할지도 모르겠다. 하지만 지금도 파키스탄의 ‘와지리스탄’에는 공격용 드론이 하늘을 날고 있다. 탈레반 소탕을 명분으로 수많은 아이들과 여인들을 비롯한 비무장 민간인이 마사일에 희생당하고 있다. ‘와지리스탄’의 아이들은 말한다. 맑은 하늘보다는 구름이 잔뜩 낀 흐린 날이 더 좋다고.

날씨가 좋을수록 그들과 그들의 가족들이 순식간에 사라져버릴 확률이 더 높아지기 때문이다. 구름이 껴서 하늘에서 그들을 식별하기 어려워야 아이들은 마음 놓고 축구도 하고 엄마 손 잡고 시장에도 갈 수 있다. 전쟁이 일상화되는 시대, 전투와 일상이 공존하는 생활 터전, 그 한복판에 킬러 로봇이 등장하고 있다. 

➲ 무엇이 문제인가…찬반 논쟁

킬러 로봇을 만들거나 실전에 배치하는 것이 무엇이 문제일까. 종전까지만 하더라도, 정확히 말하자면 인공지능 기술이 비약적으로 발전하기 전만 하더라도, ‘킬러 로봇’ 문제는 그다지 위협적인 문제가 아니었다. 왜냐하면 기술적으로 완전 자율로봇 형태는 기대하기가 어려웠기 때문이다. 인간의 개입 여지가 클 뿐만 아니라, 자동화 정도에 머무르는 수준이었다. 그러나 딥러닝을 탑재한 인공지능 기술이 개발되면서부터는 상황이 심각해지기 시작했다.

독자적으로 판단하고 자율적으로 움직이면서 전장을 누비는 킬러 로봇이 더 이상 공상이 아닌 현실이 된 것이다. 영화관 스크린이 아니라 벙커 상황실 스크린에서도 똑같은 그림을 확인할 수 있게 되었다. 어쩌면 영화보다 더 영화 같은 현실이 눈앞에 펼쳐지고 있는 것이다. 기본적으로 사람이 직접 사람을 해치든, 인공지능 킬러 로봇을 통해 해치든 윤리적으로 용납될 수 없기는 마찬가지이다.

인공지능 킬러 로봇의 개발과 관련해서는 첨예하게 입장이 대립한다. 찬성하는 입장에서는, 인명피해 측면이 문제라면 차라리 로봇이 더 인도적이라고 본다. 그들은 인간 대신 로봇을 위험한 전투에 투입함으로써 인명 손실을 최소화한다고 주장한다. 다분히 결과주의적 논변이다.

예를 들어, 지뢰밭 수색 임무를 인간 군인이 직접 하기에는 너무나 큰 위험이 따른다. 실제로 많은 피해 사례가 발생하고 있다. 이 경우 로봇이 훨씬 임무 수행을 정확히 해 내고 사고 발생도 줄일 수 있다고 본다. 일반 전투병들을 킬러 로봇으로 대체해서 전투를 시키면 인명 손실을 줄일 수 있다는 것이다.

그리고, 전쟁범죄 방지 등과 관련한 국제법 준수 문제에 대해서도 인공지능이 인간보다 더 낫다고 주장한다. 과거 미국이 주도했던 이라크와 아프가니스탄 전쟁에서 엄청난 수의 민간인 사상자 발생은 대부분 인간의 잘못된 판단에서 비롯되었다고 본다. 오히려 전쟁이라는 극한 상황 속에서 인간이 인공지능 보다 훨씬 나약한 정신 상태를 보이는 경우가 허다하다. 한 마디로 로봇이 인간보다 결함이 없다는 것이다.

인간은 위기 상황에서 냉정하고 이성적인 판단보다는 분노나 복수심 또는 순간적인 판단착오로 인해서 자제력을 잃고 살상을 저지를 위험성이 더 클 수 있다는 점이다. 반면 킬러 로봇은 미리 프로그래밍이 된 상황에 적절하게 대응할 수 있다는 것이다. 사적인 감정 없이 말이다. 정말 그럴까?

킬러 로봇을 반대하는 입장에서는 그 무차별적 파괴성과 위험성을 주로 이유로 든다. 공격용 무인 드론에서 자주 발생하는 사례인 비무장 민간인에 대한 오폭 내지는 심지어 살상반경 내에 들어온 아동, 여성에 대한 살상을 부수적 피해 정도로 간주하는 교전 수칙은 인간성 자체에 대한 회의감을 갖게 하기에 충분하다. 그리고 킬러 로봇이 일반 무기처럼 테러리스트나 독재자들에게 밀거래될 경우, 고전적인 의미의 대규모 군대를 거느리지 않고도 손쉽게 전쟁을 일으킬 수 있게 될 것이다. 
 

킬러 로봇은 연구는, 그 자체로써 악업을 쌓아가는 것이다. 더군다나 통제력을 상실하거나 인간 개입의 여지가 없는 킬러 로봇의 경쟁적 개발과 제조는 인간 존엄성에 대한 중대한 도전이 될 것이 틀림없기에 중단돼야 한다. 출처=www.shutterstock.com
킬러 로봇은 연구는, 그 자체로써 악업을 쌓아가는 것이다. 더군다나 통제력을 상실하거나 인간 개입의 여지가 없는 킬러 로봇의 경쟁적 개발과 제조는 인간 존엄성에 대한 중대한 도전이 될 것이 틀림없기에 중단돼야 한다. 출처=www.shutterstock.com

누가 책임을 질 것인가?

로봇은 살인해도 죄가 되지 않을까? 킬러 로봇의 무차별적 살상에 대한 윤리적 책임 문제가 대두되고 있다. 세계적인 인권감시기구인 ‘휴먼라이트워치(Human right watch)’는 2013년부터 전 세계의 다양한 비정부기구들과 함께 ’킬러 로봇 중지 캠페인’을 벌이고 있다.

특히 그들은 UN 무기 관련 다자회의에 ‘살인 로봇 책임 부재(The Lack of Accountability for Killer Robots)’라는 보고서를 제출하면서 “전자동 살상 무기가 갖는 특성상 민·형사상 책임을 묻기가 어려운 상황이 발생할 수 있다”고 강조했다.

예를 들어, 킬러 로봇이 저지른 비무장 민간인에 대한 공격과 살상에 대해서 누가 책임을 질 것인가? 이 문제와 관련한 매우 흥미로운 논증을 하나 소개한다.

‘전제1. 책임질 수 있음은 교전법의 선제조건이다. 전제2. 전쟁에서 군사 로봇을 사용할 때 그리고 그것이 해로운 결과를 야기했을 때, 책임을 질 수 있는 주체는 셋 중 하나이다. 바로 군사 로봇의 설계자, 지휘관, 그리고 로봇 자신이다. 전제3. 세 후보 가운데 어느 쪽에도 군사 로봇이 발생시킨 해로운 결과에 대해 온전한 법적, 혹은 윤리적 책임을 물을 수 없다. 결론. 따라서, 자율적 군사 로봇의 사용은 비윤리적이다.’

이 논증은 스패로(Sparrow)의 ‘트릴레마’ 논변으로 불린다.( 천현득, <‘킬러 로봇’을 넘어: 자율적 군사 로봇의 윤리적 문제들>에서 인용) 한 마디로, 군사 로봇이 초래한 결과에 대해 누구에게도 온전히 책임을 물을 수 없다면 그 킬러 로봇의 사용 자체가 비윤리적이라는 것이다.

인간은 어렵고 힘든 결정이나, 직접 하기 싫은 윤리적 딜레마를 회피하고자 하는 경향이 있다. 오히려 공격 결정에 대한 승인 권한을 인간이 가진다는 사실에 안도하기보다는 경우에 따라서는 그 문제로부터 도피하여 그냥 킬러 로봇이 자율적으로 결정해서 수행하기를 더욱 원할지도 모른다. 한 마디로 ‘알아서 해 줬으면…’하는 생각이 들 수도 있는 것이다.

인간 자신은 킬러 로봇에게 그 정도까지 원하지 않았다고 하면, 킬러 로봇 관리 소홀 또는 주의의무 위반의 과실 정도로 끝날지도 모른다고 기대하기 때문이다. 결국 킬러 로봇 개발을 용인한다는 것은 책임지지 않거나 책임 지울 수 없는 일이 눈앞에서 벌어지고 있음에도 외면하거나 묵인하는 것이나 다름없다. 

킬러 로봇과 불살생계

국제인도법(International Humanitarian Law)에 따르면, 불법적 무기의 사용을 금지하면서, 금지의 원칙을 제시한다. “전투에 참여하는 전투 요원과 그렇지 않은 자를 구별하지 못하거나, 불필요한 살상과 고통을 초래하거나, 환경에 심각하고 장기적인 손상을 야기하는 무기는 금지된다”고 규정하고 있다. ‘킬러 로봇’이야말로 이러한 금지원칙과 정면으로 위배되는 무기라고 할 수 있다.

불교적 관점에서 본다면, 불필요한 살상과 필요한 살상이 따로 있지 않다. 살상은 그 자체로 허용될 수 없는 것이다. 불교에서 업(業)을 의미하는 팔리어 ‘Kamma’와 산스크리트어 표현인 ‘Karma’는 그 단어 안에 ‘의지적 행위’ 또는 ‘의도적 행위’라는 의미를 담고 있다. 인간의 행동을 만들어내는 것은 그 ‘의지’나 ‘의도’이다.

이미 저질러진 악업에 더해 타인에게 고통을 주기 위한 더욱 더 파괴적이고 잔인한 형태의 모든 폭력 의도는 단호하게 거부돼야 한다. 집단적 고통을 초래할 극한의 살의를 예비하는 킬러 로봇의 연구 단계부터가 이미 그 자체로서 악업을 쌓아가는 것이다. 더군다나 통제력을 상실하거나 애초에 인간 개입의 여지가 없는 킬러 로봇의 경쟁적 개발과 제조는 인간 존엄성에 대한 중대한 도전이 될 것임이 틀림없다.

더 늦기 전에 대담한 조치가 필요하다. 현재 속도로 인공지능 킬러 로봇 기술이 발전해 간다면, 인간과 인공지능의 경계가 모호해지는 상황을 피해갈 수 없을 것이다. 킬러 로봇 연구개발과 관련한 세부적인 로봇 윤리헌장을 비롯한 규제 법률의 제정과 국제법의 확립이 시급하다. 이를 위해서 세간의 윤리적, 철학적 논의와 더불어 불살생계를 표방하는 불교의 종교 윤리적 입장정리도 선행돼야 할 것이다. 

[불교신문3563호/2020년3월7일자]


관련기사

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.