인간의 확증편향 성향 노리는 가짜뉴스
자기합리화 보다 자아성찰 통한 대응을
가짜뉴스 생산자 불이익 큰 제도 확립도
서로가 상대방이 가짜뉴스를 확산시키고 있다고 주장하는 현실 앞에서 우리는 혼란스럽기만 하다. 최근 들어 지금까지와는 차원이 다른 가짜뉴스까지 등장하고 있다. 인공지능(AI) 기술로 소리와 영상을 조작해 만든 가짜 영상인 ‘딥페이크(deep-fakes)’는 진위 구분이 어렵다. 여론 조작, 윤리적 폭력, 나아가 전쟁마저도 딥페이크에 의해 쉽게 촉발될 수 있다. 이러다 보니 우리는 마주치는 동영상 하나하나에 대해 진위를 살펴야 하는 힘든 현실을 마주하게 되었다.
딥페이크 발달에 맞춰 이를 가려낼 기술도 함께 발전하고 있다. 미국 국방부는 딥페이크 대응팀을 만들어 이를 가려낼 계획이라고 한다. 하지만 관련 연구에 따르면 대응 기술이 발전하더라도 근본적인 해결책이 되기는 어렵다고 한다. 딥페이크가 사람들에게 잘 먹히는 이유가 기술보다는 인간지능(HIᆞHuman Intelligence)을 움직이는 알고리즘(본능)의 특성이기 때문이다. 인간 뇌의 특성을 이용하면 조잡한 딥페이크도 엄청난 파괴력을 발휘할 수 있고, 심지어 가짜정보로 인간의 기억마저도 조작할 수 있다고 한다.
우리는 성장 과정에서 다양한 경험을 통해 세상과 사람을 이해하기 위한 나름의 인식틀을 갖게 된다. 이 인식틀은 정보 인식만이 아니라 해석, 저장, 그리고 재생에서도 중요한 역할을 한다. 심리학자 데이비드 퍼킨스(David Perkins)에 따르면 우리는 인식틀에 맞는 그럴싸한 증거를 찾아내면 생각을 멈추는 특성을 가지고 있다. 그 과정에서 자신은 합리적이며 객관적인 존재이고 자기와 다른 생각을 가진 사람은 비합리적인 존재라고까지 생각하게 된다. 이러한 성향을 확증편향성이라고 한다. 확증편향으로부터 벗어나려면 온라인상의 정보의 진위를 제대로 파악할 디지털 문해력과 인간 다양성을 인내하고 포용하는 역량을 향상시켜야 한다. 그리고 살아오면서 이미 다양한 편견을 갖게 되었음을 깨닫고 여기에서 벗어나기 위한 비학습(unlearning) 활동에도 관심을 가져야 한다.
그런데 이 또한 한계가 있다고 한다. 엉성한 딥페이크가 사람들에게 잘 먹히는 또 다른 이유는 사람들이 자신을 실제보다 훨씬 더 바람직하고 도덕적인 사람이라고 믿는 자기 중심 편향성과 도덕적 편향성 때문이다. 이로 인해 자기는 그 기준에 부합하지 못하면서도 타인, 특히 사회적으로 관심 대상인 사람이 비도덕적이거나 공정성 기준에 어긋나는 행동을 했다는 뉴스를 접하면 쉽게 믿고 분노하며 이를 적극 유포하게 된다.
뇌 연구에 따르면 인간은 외모만 비슷해도 우호적이 되고, 역으로 외모만 달라도 적대감을 품게 되기도 한다. 심리학자 제이슨 미첼(Jason Mitchell)에 따르면 자신과 유사한 사람에 대해 생각할 때와 다른 특성을 가진 사람에 대해 생각할 때 심지어 사용하는 뇌 부위마저 달라진다. 자신의 문제는 모두 이해가 되지만 상대방 문제에는 분노하는 ‘내로남불’은 뇌의 이러한 특성 때문에 생기는 현상의 하나이다.
다양한 연구를 통해 인간에게 장착된 알고리즘이 밝혀지고 있다. 그런데 다행히도 우리의 뇌는 AI와 달리 우리를 지배하는 알고리즘을 이해하고 이를 극복할 수 있는 역량과 가소성도 가지고 있다. AI 탓에 속은 거라고 자기를 합리화하는 대신 자유의지 및 자아성찰 역량을 발휘하기 위해 노력하면 우리는 정치ᆞ이익집단에 의해 조종되는 좀비에서 벗어난 깨어 있는 존재가 될 수 있다. 물론 바른 정보 소비자로서의 역량 발휘 책임을 개인에게만 지울 것이 아니라 온라인 서비스 제공자, 국가와 사회, 그리고 교육기관이 힘을 모아 관련 교육프로그램을 만들고 운영해야 한다. 정부는 표현의 자유는 지키면서도 가짜 정보 생산자가 얻을 이익보다 불이익이 크도록 제도를 보완할 필요가 있다. 가짜뉴스 논쟁에 불을 지핀 ‘조국 사태’를 계기로 우리가 깨어난다면 갈등과 분노가 극으로 치닫는 좀비사회가 아닌 서로를 이해하는 대통합의 사회로 한 발 나아가게 될 것이다.
박남기 전 광주교대 총장ㆍ대한교육법학회장
기사 URL이 복사되었습니다.
댓글0