뛰어난 기술의 발전으로 우리의 인류의 생활 속 움직임이 축소 되었다. 우리는 굳이 계단을 오르지 않아도 엘리베이터를 타고 고층으로 갈 수 있고, 매장에 가서 직접 상품을 구입하지 않아도 우리는 우리가 원하는 것을 얻을 수 있고, 우리가 직접 정보를 찾지 않아도 알려주는 세상이 되었다. 이에 대한 또 다른 예가 바로 자율주행자동차이다.
자율주행차란, 운전자가 핸들과 가속페달, 브레이크 등을 조작하지 않아도 정밀한 지도와 위성항법시스템(GPS) 등 차량의 각종 센서로 상황을 파악해 스스로 목적지까지 찾아가는 자동차를 말한다. 따라서, 이런 의미에서 사람이 타지 않은 상태에서 움직이는 무인자동차와 다르지만 실제론 혼용되고 있다고 한다.
또 자율주행은 몇가지 단계로 나뉘는데 자율주행기능이 없으면 0단계, 운전자의 개입 없이 완전자율주행을 할 수 있는 차량을 4단계라고 명시한다. 심지어, 한국에선 테슬라 보다 30년 앞선 한 대학에서 개발한 자율주행차 즉 무인자동차가 있었다. 그러나 이런 자율주행자동차들은 사람이 아닌 시스템 즉 인공지능과 컴퓨터가 주행상황을 파악해 대처하기 때문에 이에 대한 많은 문제가 제기되고 발생한다.
가장 먼저 자율주행의 윤리적 쟁점이다. 이를 또한 윤리적 딜레마라고 하는데 예는 이런 것이다. 한 자율주행차가 있다고 가정해보자 이 차의 앞에는 위험물이 있고 양 옆에는 어린이와 노인이 있거나, 운전자가 있는 자율주행자동차에서 만약 사고가 난다면 운전자를 구할지 아님 밖의 사람 다수이거나 혼자를 구할 지가 있다.
이런 내용을 생각하면 ‘트롤리의 딜레마’가 떠오른다. 트롤리의 딜레마는 윤리학적 분야에서의 사고실험인데 사례는 트롤리 전차가 5명의 사람에게 빠르게 돌진한다. 그래서 당신은 레일 변환기에 서있다. 그리고 다른 쪽의 레일에는 사람 한명이 있다. 레일은 5명을 위해 바꾸는 것이 옳은 것일까?라는 내용이다. 결과적으로 정작 자율주행자동차의 사고에 대한 판단은 도덕적으로 단정짓는 것은 어려운 것이라는 의문이 든다.
또 다른 윤리적 쟁점은 ‘만약 자율주행차가 사고를 유발했을 때 누가 책임을 져야 할까?’에 대한 문제제기이다. 먼저 자율주행차의 사고의 예는 2018년 미국의 40대 여성이 자전거로 도로를 건너고 있었는데 한 차량이 65km의 속도로 부딪힌 사건과 고속도로에서 한 차량이 중앙 분리대에 출동한 후 연달아 충돌한 사건이 있다. 이 사건은 센서의 오작동, 인공지능의 오작동과 각종 구동장치의 문제가 있었다. 그럼 이 사고의 책임은 자율주행자동차를 만든 회사가 져야 할까? 이 사고는 탑승자의 적합하지 못한 행동을 포함한다. 그렇다면 운전자가 책임을 져야 할까? 이처럼 책임의 분배는 고려해야 할 것이 너무 많다.
앞으로의 발전 상황을 예측해 본다면 이러한 자율주행차의 윤리 문제는 매우 작은 소재가 될 수도 있다. 기술의 발전은 끝이 없고 새로운 기술의 등장은 그 기술에 대한 인간과의 관계에서 이러한 윤리적 쟁점을 낳을 수도 있다. 그때마다 이러한 관점들은 계속해서 나타날 것이고 이에 따른 결과도 종결 지을 수 있을 것이라 생각한다.
학생기자 이상오(상해한국학교 10)
ⓒ 상하이방(http://www.shanghaibang.com), 무단전재 및 재배포 금지