편집자주
가속화한 인공지능 시대. 인간 모두를 위한, 인류 모두를 위한 AI를 만드는 방법은? AI 신기술과 그 이면의 문제들, 그리고 이를 해결할 방법과 Good AI의 필요충분조건.
우리가 보통 '인공지능 윤리' 하면 가장 많이 드는 사례가 바로 '트롤리 딜레마(Trolley dilemma)'이다. 트롤리는 전차라는 뜻인데, 전차가 선로에서 어떤 윤리적 딜레마 상황에 처했을 때 과연 우리는 어떠한 선택을 해야 하는지에 대한 연구이다. 이 트롤리 딜레마는 최근 인공지능 윤리 분야에서 '자율주행차의 윤리적 딜레마' 상황을 설명하기 위한 사례로 많이 활용되고 있다. 오늘은 자율주행차의 윤리 알고리즘의 핵심인 트롤리 딜레마부터 이야기해보도록 하겠다.
2015년 프랑스 툴루즈 경제대학교의 장 프랑수아 보네퐁 교수팀은 '자율주행차도 윤리적 실험이 필요하다'는 제목의 논문을 발표했는데, 여기에서 다음과 같은 상황을 제시하며 자율주행차가 어떻게 움직여야 할지를 물었다.
내가 타고 가는 자율주행차의 브레이크가 고장이 났다. 그런데 앞쪽에는 길을 건너고 있는 많은 시민들이 있었다. 만약 이러한 경우 자율주행차의 알고리즘이 핸들을 그대로 유지하면 앞쪽에 있는 많은 사람이 죽게 되고, 만약 핸들을 틀어서 경로를 변경하면 앞쪽의 여러 사람은 살지만 탑승자인 내가 죽는다고 가정할 때, 과연 자율주행차는 어떤 알고리즘으로 프로그래밍 하는 것이 맞겠는가?
이와 같은 윤리적 질문에 대해서는 정확한 정답이 없기 때문에, 교수팀은 시민들을 대상으로 설문조사를 했다. 그 결과, '76%'의 시민들이 핸들을 꺾도록 프로그래밍 하는 것이 맞다고 답변했다. 비록 탑승자인 내가 죽더라도 앞에 있는 많은 사람들을 살리는 게 낫다는 '공리주의'적인 답변이다.
그런데, 이렇게 대답한 시민들을 대상으로, "그렇다면 당신은 이런 상황에서 탑승자가 죽을 수 있도록 프로그래밍 된 자율주행차를 사겠는가?"라고 다시 한번 물었더니, '50%'의 시민들이 "절대 사지 않겠다"고 답변했다. 자신이 옳다고 생각하는 자율주행차의 윤리 알고리즘과는 달리, 실제 그런 알고리즘이 적용된 자율주행차는 사지 않겠다는 모순적 양상을 보인 것이다.
이와 같이 자율주행차의 윤리 알고리즘은 간단하지가 않다. 시민들의 설문조사로 해결할 수도 없고, 그렇다고 기업이나 개발자가 일방적으로 결정할 수도 없다. 심지어 국회나 정부가 법과 제도로 정해버린다고 해결되는 문제도 아니다.
그렇다면 이러한 자율주행차의 윤리 문제는 어떻게 해결해야 할까? 결국 모든 관련 주체들이 모여 이 문제를 논의하고, 합의하고, 결정하고, 실천하는 과정이 필요하다. '윤리' 문제에는 정답이 없기 때문이다. 윤리는 시대와 세대마다 다르고, 문화권별로 다르며, 나라마다도 다르다. 심지어 시간과 역사가 흐름에 따라 지금 윤리적으로 옳은 일이 나중에는 비윤리적이 되기도 하고, 지금 비윤리적인 일이 윤리적으로 인정받기도 한다.
따라서, 이러한 자율주행차의 윤리 알고리즘 문제는 논의와 합의의 과정이 필수적이다. AI와 자율주행차에 관한 모든 주체들이 모여 '자율주행차 윤리 가이드라인'을 논의하고 만들어 보는 과정부터 출발해야 한다. 실제로 2017년 8월, 독일 연방 교통디지털인프라부는 세계 최초로 '자율주행차 윤리 가이드라인'을 제시하기도 했으며, 우리나라도 2020년 12월, 국토교통부와 한국교통안전공단, 한국교통연구원, 한국인공지능윤리협회(현 국제인공지능&윤리협회), 한국자동차안전학회 등 공공과 학계, 민간이 함께 '자율주행자동차 윤리 가이드라인'을 발표하기도 했다.
이러한 자율주행차 윤리 가이드라인은 향후 실제 자율주행차 개발 시 자율주행차 윤리 알고리즘 적용의 기준으로 작용할 수 있다. 또 도로교통법, 관련 보험법의 제·개정의 근거가 될 수 있다. 하지만 자율주행차 윤리 가이드라인은 절대적이지 않기 때문에 지속적인 연구와 보완이 필요함은 당연하다.
기사 URL이 복사되었습니다.
댓글0