자율주행의 윤리적 고민, 트롤리 딜레마,

여러분은 만약 운전 중 여러 사람을 위험에 빠뜨리는 상황이 발생했을 때, 자신과 다른 사람의 생명 중 하나만 선택해야 하는 순간에 직면한다면 어떤 선택을 할까요?

“나를 희생하고 남을 구할 것인지, 어떤 희생을 무릅쓰고라도 내 생명을 지킬 것인지는 누구에게나 어려운 선택이 될 것입니다.”

그러면 인공지능은 어떨까요?운전자와 다른 차량이나 보행자의 생명 중 어느 쪽을 먼저 지키려는 것일까요?

오늘은 자율주행차의 장점과 단점을 이야기할 때 빠지지 않고 등장하는 위와 같은 골칫거리, 트롤리 딜레마를 살펴보겠습니다.

트롤리 딜레마란 무엇이죠?트롤리 딜레마(Trolley Problem)라는 실험을 들어보셨나요? 열차가 선로를 따라 달리고 있고 양쪽으로 갈라지는 선로에는 한쪽에 5명이 묶여 있고 반대쪽은 1명이 묶여 있어요. 우리에게는 열차 선로를 바꿀 수 있는 전환기가 있습니다. 5명을 구하기 위해 선로를 바꾸는 전기를 끌면 좋겠지만, 불행히도 다른 선로에 있는 사람 한 명은 죽고 맙니다. 이것은 5명을 구하기 위해 1명을 희생하는 행위가 도덕적으로 허용되는지를 묻는 윤리적 실험입니다. 물론 많은 사람들이 선택을 위한 고민이 아니라 이런 까다로운 상황에 처한 출제자의 성격에 문제가 있다라는 결론을 내리지만, 이런 이상한 실험들이 인공지능 자율주행자동차와 밀접하게 관련된 문제입니다.

AI가 누군가를 죽이도록 설계된다?> MIT 테크놀로지 리뷰 중에 ‘자율주행차가 누군가를 죽이도록 설계되어야 하는 이유(Why Self-Driving Cars Must be Programmed to Kill)’라는 논문이 있습니다. 이 논문은 자율주행차가 불가피한 사고를 당했을 때를 상정하여 문제를 제기합니다.A. 직진하면 10명을 치는데 방향을 급격히 돌면 그 방향에 있던 한 명을 치게 된다.B. 직진하면 보행자를 치게 되지만 급격하게 방향을 바꾸면 운전자가 죽을 수도 있다.C. 계속 직진하면 많은 사람이 크게 다치거나 사망하거나 급격하게 방향을 바꾸면 운전자가 죽을 수 있다.각각의 경우, 자율주행 자동차는 어떤 판단을 하는 것인지 알려 주시겠습니까? 자율주행차의 경우 트롤리 딜레마를 포함하여 주행 중 마주칠 수 있는 다양한 상황에 맞는 도덕적 결단을 미리 내려놓아야 하기 때문에 문제는 더욱 복잡해집니다.

<각각 다르게 적용된 ‘도덕적 판단’> 2018년 10월 24일 세계적 과학저널 ‘네이처’에서는 미국 매사추세츠공과대학 미디어랩이 ‘도덕적 기계’로 명명된 온라인 조사 플랫폼을 통해 233개국 230만 명을 대상으로 트롤리 딜레마를 조사.분석한 결과를 실었는데, 도덕적 기계는 2016년 11월부터 2017년 3월까지 3961만 개에 달하는 윤리적 선택의 빅데이터를 수집했습니다. 자율주행차 AI의 윤리적 문제에 대한 역대 최대 규모의 연구입니다. 연구팀은 탑승자와 보행자의 성별과 숫자, 애완견 동승 등을 조건으로 13가지 시나리오를 작성해 상황에 따른 응답자 선택을 조사했습니다.설문 결과 대개 1. 남자보다 여자 2. 성인 남자보다 어린이와 임산부 3. 동물보다 사람 4. 소수보다 다수 5. 노인보다 젊은 사람 6. 무단횡단자보다 준법보행자 7. 뚱뚱한 사람보다 운동선수를 구해야 한다는 선택이 많아 동서양의 응답자 선택 추세에 차이가 두드러졌습니다. 서구권에서는 인원이 많아 아이나 몸집이 작은 사람을 찾는 게 선호됐지만 동양권에서는 인원과 상관없이 보행자와 교통규칙을 지키는 게 더 안전해야 한다는 선택을 했습니다.

“인간처럼 판단하는 AI로 학습” 안전과 법적윤리적 측면에서 글로벌 기준이 명확하게 마련되지 않으면 자율주행차의 완전 상용화는 어렵다는 견해가 있습니다. AI가 운행하는 차량이 더 안전하다는 믿음 자체가 잘못됐다는 지적이 나오고 있습니다. 2016년 구글 웨이모의 자율주행 차량은 차선 변경 도중 옆 차선의 버스가 양보한다고 오판해 충돌 사고를 냈고, 테슬라 모델 S는 흰색 트레일러를 장애물이 아닌 ‘밝게 빛나는 하늘’로 인지하고 브레이크를 밟지 않은 채 인명 사고를 냈습니다. 잇따른 인명 사고에 그동안 선점 경쟁을 벌여온 자율주행업체들은 상용화 목표를 늦추는 분위기가 되고 있습니다. 자율주행 상용화는 운행 기술, 교통 법규, 소비자 선택이라는 세 가지 고비를 넘겨야 하는데 첫 단계인 기술에서 안전성에 제동이 걸렸기 때문으로 분석됩니다. 자율주행 AI의 윤리적인 문제는 사회적 합의만 없을 뿐 결국 차를 제조하는 기업이 어떤 알고리즘을 만들느냐에 달려 있습니다. 딥러닝 기반의 AI가 도덕관을 포함한 판단까지 스스로 학습한다면 결국 사람의 판단과 다를 바 없다는 주장입니다. 이 때문에 사람의 조작을 완전히 배제한 레벨5 수준의 자율주행차가 상용화되지 않을 것이라는 전망도 있습니다. 그 근거로 자동운전 업계의 한 관계자가 “탑승자가 운전석에 앉지 않고 자율주행차 운행에 전혀 개입하지 않게 되면 업체는 사고의 책임을 완전히 져야 한다”며 운전자가 업체로 보험 비용이 전가되는 것에 부담을 느낀다는 점을 들 수 있습니다.

‘자율주행차 윤리 가이드라인’ 2019년 12월 국토교통부는 ‘자율주행차 윤리 가이드라인’을 발표했지만 ‘재산보다 인간의 생명을 최우선으로 보호할 것’ ‘사고 회피가 불가능한 경우 인명 피해를 최소화할 것’ 등 권고 성격의 선언적 기준을 정했습니다. 또, 행위의 주체를 설계자.제작자 이용자관리자.서비스 제공자로 제시하였습니다. 그들이 지켜야 할 행위의 준칙으로서 투명성, 제어 가능성, 책무성, 안전성, 보안성등을 들고 있습니다. 국토부는 윤리 가이드라인에 대한 의견 수렴을 거쳐 초안을 수정했다.보완해서 최종안을 고시할 예정입니다. 전문가들은 윤리적으로 상식적으로 이해할 수 없는 사안이 발생하는 자율주행의 현실에 대한 인식 제고가 필요하다며 해킹 방지와 사고 발생 후 원인을 정확히 밝힐 수 있는 자율주행 자동차용 블랙박스의 탑재 등 대책을 마련해야 한다고 말했습니다.

그동안 트롤리 딜레마가 자율주행 자동차와 관련해 어떤 작용을 하는지 살펴봤습니다.

자율주행자동차가 상용화되면 이런 가정은 이론이 아니라 우리 눈앞에서 펼쳐지는 현실이 될 것입니다.’ 실제로 일어나기 전에 최대한 많은 사람이 공감할 수 있는 사회적 합의가 이루어지길 기대하며 글을 마칩니다.

error: Content is protected !!