로봇시민법, 개발자 책임회피 수단 안 되려면…

‘인공지능 윤리’는 단순히
특정집단·문화 대변하는
‘데이터의 집적’이 아니라

변화하는 세상의 가치와
질서에 걸맞게 평등하고
인류보편 가치 담아내야

“우리가 현실적으로 걱정해야 할 부분은 로봇이 인간에게 가할 위해가 아니라 인간이 로봇에게 가할 위협일 것이다.
지금 로봇은 단지 하나의 제품에 불과하다.
그런데 로봇이 점점 진화하여 감정을 느끼게 된다면?
결국 인간의 두뇌도 아주 정교한 기계가 아니던가?
기계에 의식이란 게 생긴다면 우리는 로봇의 감정을 고려해야 할 것인가?
지금까지 인류가 의식을 지닌 유일한 대상인 동물들과 맺어온 관계의 역사를 고려할 때 로봇을 도덕적 차원에서 바라봐야 할 대상으로 인정할 것 같지는 않다.” 

- 피터 싱어(Peter Singer)의 <더 나은 세상> 중에서. 

 

보일스님
보일스님

자율주행차 로드킬 시나리오

“화재가 발생했을 때, 같은 공간에 있는 할머니와 아이 중에서 한 명만 구해야 한다면, 누구를 먼저 구하겠는가?” 기자가 인공지능 로봇인 ‘소피아’에게 질문했다. “그 질문은 마치 엄마, 아빠 중 누가 좋은 지 묻는 것과 같군요. 난 윤리적으로 생각하도록 프로그램 되어있지 않기 때문에 논리적으로 출입구 가까이에 있는 사람부터 구해야 합니다”라고 대답했다. 이분법적 윤리적 사고의 틀 안에 갇히지 않았을 경우, 오히려 합리적 대안이 나올 수도 있다.

이런 경우는 또 어떨까. 뉴스를 보려는 아빠와 드라마를 보려는 엄마가 채널 선택을 놓고 리모컨 쟁탈전을 벌인다. 이때 로봇이 누구에게 리모컨을 주는 것이 좋을지를 판단하고 선택한다. 그간의 리모컨 점유 시간을 계산해서 계량적으로 판단하는 것보다, 가정이라는 특수성을 고려한다.

각자의 취향을 데이터화시켜 저장했다가, 한 사람에게는 리모컨을 주는 대신 다른 사람에게는 신간 도서를 권하게 한다면 보다 수긍할 수 있는 해결책이 나올 수도 있을 것이다. 윤리적 선택과 실천이 일상 속에서 드러나는 순간이다. 이러한 인공지능의 판단은 인간에게 있어서 딜레마가 주는 선택의 긴장 대신 매우 편안한 느낌을 줄 수 있다.

이런 이야기는 일상적이고 평범하지만, 앞으로 인공지능 시대에 직면하게 될 여러 윤리적 딜레마를 해결하는 시도의 열쇠가 될 수도 있을 것이다. 한 마디로 윤리적 인공지능을 설계하면서 철학자들이 일상 속에서 겪게 되는 윤리적 문제들을 더욱 깊이 있게 성찰하게 한다. 터프츠 대학의 대니얼 데넷(Daniel Dennet)은 이러한 변화에 대해 “인공지능이 철학을 정직하게 만든다”고 정리한다.

그러나 현실은 그리 간단치가 않다. 제3의 대안이 있거나 만들어 낼 수 있다면 다행이지만, 어쩔 수 없이 선택을 강요받는 경우가 있기 때문이다. 앞서 논의된 ‘트롤리 딜레마’ 같은 경우가 그렇다. 또는 자율주행자동차가 주행 중 맞닥뜨리는 상황 즉 갑자기 뛰어드는 동물이나 인간, 고속도로에 떨어진 적재물 등을 피할 경우 어느 방향으로 핸들을 돌리게 할 것인지를 결정해야 한다. 물론 기술의 발전을 통해 이 모든 상황을 파악하고 통제할 수 있다면 로드킬(road kill) 자체가 아예 발생하지 않을 수도 있다.

현재는 이런 상황들에 대한 해결책으로 난해한 선택을 시나리오로 만들어 사전에 설정된 인공지능 시스템 통제 권한 규정에 따라 칩에 이식시키는 방법이 고려되고 있다. 만약 그것이 가능하다면 그것을 인공지능의 윤리 문제는 중요하게 다뤄져야 하고 어떤 철학과 문화, 역사적 배경 속에서 만들어진 시나리오를 탑재시킬 것인지를 선택하면서 논란이 예상된다. 
 

인공지능은 향후 어떤 도덕적, 법적 위상을 갖게 될까? 지난 2017년 유럽 의회에서는 로봇공학 민법 규칙(European Civil Law Rules In Robotics)을 발표했다. 최초로 인공지능을 가진 로봇의 법적 지위를 ‘전자인간’으로 인정하고, ‘로봇시민법’으로 발전시킬 구상을 선보였다. 출처=www.shutterstock.com
인공지능은 향후 어떤 도덕적, 법적 위상을 갖게 될까? 지난 2017년 유럽 의회에서는 로봇공학 민법 규칙(European Civil Law Rules In Robotics)을 발표했다. 최초로 인공지능을 가진 로봇의 법적 지위를 ‘전자인간’으로 인정하고, ‘로봇시민법’으로 발전시킬 구상을 선보였다. 출처=www.shutterstock.com

뇌 윤리학과 인공지능

인공지능을 논하기에 앞서 우선 사람의 두뇌에 대한 인위적 조작의 윤리적 문제에 대해 알아보자. 최근 의학계에서는 ‘뇌 윤리(Neuroethics)’라는 논의가 한창이다. ‘뇌 윤리학’이란 뇌에 대한 과학적 발견이 임상의료, 법적 해석, 건강과 사회정책에 적용될 때 발생하는 윤리적, 법적 사회적 문제들에 대한 연구이다.

뇌 촬영술의 발달, 즉 CT(컴퓨터 단층 촬영) 나 fMRI(기능적 자기 공명 영상) 같은 기술은 신경정신과 질병들이 증상이 나타나기 전에 조기에 질병을 진단할 수 있게 해 주고, 치료 약물의 효과도 측정할 수 있게 한다.

예를 들어, 인간 두뇌의 해마를 제거함으로써 간질 발작을 없애거나, 동시에 기억도 없애게 하는 경우를 들 수 있다. 사이코패스인 경우는 뇌의 앞부분인 전전두엽이 일반인 보다 매우 위축되어 있기 때문에 이들 기술을 통해 미리 발병가능성을 파악할 수 있다는 것이다. 또는 두뇌의 특정 부분에 전극을 이식 또는 자극함으로써 파킨슨병과 같은 행동조절환자들에게 스스로 신체를 통제할 수 있도록 회복시켜주는 것이 가능해진다.

이렇게 인위적으로 두뇌에 치료목적을 넘어서는 개입과 즉 두뇌 능력의 증강을 위해 이러한 기술을 사용하는 것이 윤리적으로 허용될 것인지의 문제가 발생한다. 이것은 인간 본연의 두뇌에 감정과 기억능력에 대한 인위적 개입 내지 조작이라는 위험성을 안고 있다. 뇌 윤리를 언급하는 이유는 여기에 있다.

이제 인간에서 인공지능으로 논의를 넓혀가 보자. 종전까지는 인공지능 개발자 즉 인공지능 알고리즘 전문가의 윤리가 논의의 중심이었다면, 딥러닝 기술의 등장으로 이제 인공지능 알고리즘 자체의 윤리도 논의하지 않을 수 없게 되었다. 

딥러닝의 윤리

딥러닝은 달리 표현하자면, 알고리즘을 만들어내는 알고리즘이라고 할 수 있다. 알고리즘 윤리는 기본적으로 개발자 즉 알고리즘 전문가의 윤리 또는 도덕성을 바탕으로 출발한다. 문제는 알고리즘이 작동하는 연산 과정이 ‘비가시성(invisibility)을 지닌다는 점이다.

예를 들어, ‘아마존(amazon)’은 인공지능 기반의 직원 채용프로그램을 개발했다. 10여 년이 넘는 데이터에 기초해 직원 선발을 하도록 했는데, 압도적으로 남자 직원을 선호하는 경향을 보였다.

물론 아마존은 사회적 영향과 기업 이미지를 위해 이 인공지능 프로그램을 막대한 투자금에도 불구하고 폐기했지만, 무슨 이유로 어떤 과정을 거쳐 그러한 결론에 이르렀는지는 명확히 알 수 없다. 연산 과정 어느 단계에서 누군가의 편견에 의해 어떤 데이터가 부당하게 적용됐는지 모호하기 때문에 또 다른 두려움을 낳는 원인이 되고 있다.

최근의 딥러닝 기술에 적용되는 알고리즘은 더욱 비가시성이 높은 수준이다. 그래서 딥러닝 전문가들의 개인적 윤리는 의사 윤리만큼이나 중요하다. 이전의 제한된 기술을 연구하고 실험하는 공학자로서의 연구 윤리를 넘어서서 실험실 밖의 세상과 연결된 연기적 관점에서 새로운 윤리 규범이 수립되고 준수돼야 할 것이다. 이 부분이 윤리적으로 취약한 이유는 인간은 기본적으로 집단의 일원이 되는 순간 또는 여러 단계를 거쳐 의도가 실현되는 경우 그 윤리 의식이 희미해지거나 무감각해지는 경우가 허다하기 때문이다.

예를 들어, 딥러닝 알고리즘 개발자가 편견이 개입된 알고리즘을 은밀히 작동되도록 숨겨놓는다면, 몇 단계의 알고리즘의 재생과 반복 생산을 거치면서 최종 알고리즘을 통해 심각한 형사 문제가 발생할 수도 있다. 개발자의 최초 의도의 비윤리성이 희석되고 자신도 책임이 줄어든다고 생각할 여지가 큰 것이다. 이미 자신의 최초 의도는 인공지능이 탑재된 로봇 또는 이와 유사한 시스템에 의해서 외형적으로 단절되었다고 합리화할 여지가 있는 것이다. 

인공지능의 도덕적 위상

인공지능에도 존엄성이 있는가? 인간만이 존엄한가? 동물은 존엄성을 인정받아서는 안 되는가? 인류에게 있어서 일종의 절대 가치로 여겨지는 ‘인간의 존엄성’이라는 개념도 사실은 서양의 근대 이후의 역사적 산물이다.

인공지능이 자극에 반응하고 제한된 기억을 활용하며 나름의 고유한 구조와 특정을 가진 자의식을 갖게 된다면, 인간과 같은 윤리적 지위를 부여할 수 있는지는 여전히 논쟁거리이다. 그 와중에 지난 2017년 유럽 의회에서는 로봇공학 민법 규칙(European Civil Law Rules In Robotics)을 발표했다. 핵심은 인공지능을 가진 로봇의 법적 지위를 ‘전자인간’으로 인정하고, 이를 ‘로봇 시민법’으로 발전시킨다는 것이다.

프랑스 인권선언 이후, 200여 년이 훨씬 지난 지금에도 인권 문제가 세계적 이유로 남아있지만, 로봇의 기본원칙을 선언했다는 의미가 있다. 인공지능 로봇에 대한 무분별한 개발과 착취, 폭력과 파괴의 대상으로 삼는 행위에 반대할 수 있는 근거가 생긴 셈이다. 그러나 동시에 인공지능 시스템을 ‘전자 인간’으로 간주한다면 인공지능 개발자들의 책임을 회피할 수 있는 근거가 될 것이다.

얼핏 보면 인공지능 시스템을 인간과 동일한 수준의 도덕적 위상을 갖춘 행위자로 격상시켜준 것처럼 보이지만, 실상은 그 도덕적, 윤리적 부담을 인공지능 시스템에 전가하기 위한 것이라는 비난도 무시할 수 없는 것이 사실이다. 이러한 문제를 예방하기 위해서 여러 방법이 있지만, 우선 인공지능 알고리즘은 지속적 보완과 수정이 가능할 수 있도록 개방적 구조를 가져야 할 것이다.

인공지능의 윤리는 단순히 특정 집단이나 문화를 대변하는 데이터의 집적이 아니라 변화하는 세상의 가치와 질서에 맞게 평등하고 인류의 보편적 가치를 담아내는 내용이어야 할 것이다. 이를 위해서 인공지능 알고리즘 개발자와 전문가들은 시대의 윤리적 요구에 이전보다 더욱더 깊은 성찰과 이해가 필요하다.

[불교신문3527호/2019년10월19일자]

저작권자 © 불교신문 무단전재 및 재배포 금지
개의 댓글
0 / 400
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400
내 댓글 모음