1) 자율주행자동차의 윤리 문제는 “자율주행자동차 운행 중 사고를 회피할 수 없는 상황을 접했을 때 법을 준수한 소수와 법을 어긴 다수 중 어느 쪽을 희생시킬 것인가”와 같은 트롤리 딜레마 상황을 비롯하여 신호등 고장, 차량사고 현장을 회피하여 통행을 진행하기 위해서는 불가피하게 법을 어기고 중앙선을 넘어야 하는 경우와 같은 위기관리 상황 등 다양하게 나타나기 때문에 상황별로 판단 기준을 관련법이나 규칙을 통해 사전적·명시적으로 규정하기는 어려움.

2) 트롤리 딜레마 상황과 같이 자율주행자동차 운행 시 피할 수 없는 사고가발생하여 윤리적 판단을 내려야하는 경우에는 자율주행자동차가 어떠한 선택을 하든지 필연적으로 인적·물적 피해를 발생시킬 가능성이 큼. 따라서 이러한 피할 수 없는 사고와 그에 따른 윤리적 선택 상황이 발생하지 않도록 예방 조치를 취하는 것이 중요함.

3) 본 윤리 가이드라인은 자율주행자동차 운행에 관련된 윤리적 명제에 대한 결론을 내리는 것보다는 상용화에 걸림돌이 될 수 있는 윤리적 문제의 방지를 위한 방향을 제시한다는 차원에서 제정 의의가 있음.

4) 긍정적 효과를 증진하고 부정적 효과를 감소시키는 것이 앞서 언급된 손실 발생의 예방과 함께 본 가이드라인이 공리주의적 원칙을 따르고 있다는 의미로 해석되기 때문에 ‘공리주의’ 원칙을 표면화하자는 주장도 있지만, 이 경우 교통약자나 사회적 약자들에게 불리한 형평성 문제 를 초래할 가능성이 있어서 이를 반영하기는 어려움.

5) 자율주행자동차가 사물이어서 스스로 책임을 질 수 없기 때문에 사고 또는 문제 발생 시 자율주행자동차 관련 설계자, 제작자, 관리자, 서비스 제공자 및 이용자 등 행위 주체들이 책임의 주체가 됨.

6) 본 가이드라인의 적용 대상인 자율주행자동차는 주변상황과 도로 정보 등을 스스로 인지하고 판단하여 자동차를 운행할 수 있게 하는 자율주행시스템을 통해 작동되는 것으로, 인간의 개입 없이 자체적인 인지·판단을 통해 상황에 대응한다는 점에서 AI/로봇의 특성을 공유한다고 볼 수 있음. 이에 따라, 기본가치 제정 시 그동안 국내외 유수 기관의 ‘AI/로봇 윤리가이드라인’에서 제시된 관련 내용을 일부 반영하였음.

이제까지 공표된 국내외 AI/로봇 윤리 가이드라인(한국공학한림원, 2019)이 추구하는 기본가치의 핵심 내용은 ① 인간은 존엄하기 때문에 인간의 명령에 따라야 하고, ② 인간의 행복을 추구하여야 하며, ③ 인간의 생명을 보호하고 공공선을 추구하며, ④ 환경적, 사회적으로 지속가능한 발전을 추구해야 함 등임. 7) 자율주행자동차 행위주체들이 기본가치 구현을 위해 준수해야 할 행동원칙은 ① 투명성, ② 제어 가능성, ③ 책임성, ④ 안전성, ⑤ 보안성 등 크게 5가지로 구성됨. 8) 본 가이드라인은 행위주체들에게 의무사항을 강제하기 위한 것이 아니라, 우리 사회에 이미 정립된 윤리를 바탕으로 한 자율주행자동차의 기본가치, 행동원칙 등을 공개적으로 제시하여 행위주체들이 이를 고려하여 행동할 수 있도록 하고 자발적으로 책임성을 확보할 수 있도록 하려는 것임.

 

자율주행자동차_윤리_가이드라인_국토부.pdf
1.07MB

 

 

댓글을 달아 주세요