<호모 사피엔스 씨의 위험한 고민>

원종우 필자 소개: 필명 파토. 대학에서 철학을 전공하다가 록 뮤지션으로 데뷔하고 음악평론가로도 활동했다. 2008년 SBS 창사 특집 환경 다큐멘터리 〈코난의 시대〉 작가로 휴스턴 영화제 대상을 받았다. 최근에는 과학 팟캐스트 방송 〈파토의 과학하고 앉아있네〉로 대중의 뜨거운 관심을 받고 있다. 저서로 《과학하고 앉아있네》 《태양계 연대기》 《조금은 삐딱한 세계사》가 있다.

앞으로의 로봇은 사람과의 관련성을 증진시키는 방향으로 나아갈 것입니다. 사람이 테이블 위에 올려놓고 쳐다보며 대화를 할 수 있게 만들어진 사회적 로봇(social robot)이라는 것도 개발됩니다. 독거노인의 말동무용으로 만들어진 것입니다. 처음 발표했을 때엔 노인들이 이런 이상한 기계를 왜 가져오냐고 말했습니다. 그래서 이 로봇을 개발한 회사에서 한 달 동안 실험을 했습니다. 한 달 동안 이 기계를 대여해주고 회수를 하러 간 겁니다. 그런데 할머니들이 못 가져가게 막습니다. 아들딸보다 훨씬 낫다고 말하면서 말입니다. 애착 현상을 강하게 보여주는 겁니다. 일본에서도 이와 비슷한 경험을 바탕으로 해서 상품화시킨 로봇이 있습니다. 물범처럼 생긴 로봇인데, 이상하게 할아버지들은 별 반응이 없고 할머니들이 애정을 많이 보여주시더랍니다.

이 로봇을 집에 놓는다고 하면 어떤 기분이 들까요? 원래 로봇은 기계처럼 생겼습니다. 이게 인간과 외형이 점차 비슷해지면 비슷해질수록 거부감이 점점 사라집니다. 거부감이 줄어들다가 어느 순간 인간과 형상이 닮았어도 기괴한 부분이 발견되면 마치 좀비를 본 것처럼 다시 거부감이 올라갑니다. 이것을 '불쾌한 골짜기(uncanny valley)'라고 하는데, 사람은 아니지만 사람의 모습을 하고 있기 때문에 꺼려지는 겁니다. 그러다가 완전히 사람하고 똑같아지면 다시 거부감이 줄어들고 선호도가 올라갑니다.

불쾌한 골짜기에 해당하는 가상의 존재들
불쾌한 골짜기에 해당하는 가상의 존재들

◆ 개발자에게 걷어차인 로봇과 작전 중 부상당한 로봇에 대한 연민

로봇의 인권과 윤리에 대해 고민하다가 보스턴 다이나믹스(boston dynamics)라는 세계 최고의 로봇 제작 회사에서 만든 로봇, '스팟(Spot)'이 떠올랐습니다. 2014년에 구글은 8개의 로봇 회사를 인수했는데, 그중 한 회사가 이 '스팟'을 만든 보스턴 다이나믹스입니다. 이 로봇은 어디에 무엇이 있는지를 인식할 수 있습니다. 거친 지형에서도 균형을 잡을 수 있고, 계단도 넘어지지 않고 올라갈 수 있습니다. 뛸 수도 있어서 같이 조깅도 할 수 있습니다. 마치 강아지처럼 움직이거든요. 마침 크기도 대형견 사이즈입니다.
여러 마리가 협업을 할 수도 있고 열 맞추어 뛰는 것도 가능합니다. 지형과 관계없이 수송할 수 있는 황소 같은 로봇입니다. 보스턴에서는 이 로봇의 균형 감각을 자랑하기 위해서 발로 차도 '스팟'이 넘어지지 않는 동영상을 올렸습니다. 그런데 예상치 못하게 댓글 게시판에서 난리가 났습니다. 댓글의 내용을 보면 '이런 걸 홍보라고 올린 거냐', '왜 발로 차느냐' 하는 내용이 주를 이룹니다. 로봇을 발로 차는 것에 대해서 사람들이 분노하고 어떻게 그럴 수 있냐고 비난합니다. 참 묘하지 않습니까?

 사족보행 로봇 스팟은 주위 환경을 인식하는 능력과 균형을 잡는 능력이 매우 뛰어나다. 이를 증명하기 위해 개발자가 스팟을 발로 차는 영상이 공개되었는데 본의 아니게 로봇 학대 논란이 불거졌다. 만약 미래에 우리가 안드로이드 하녀를 발로 차면 잔인한 것일까?
사족보행 로봇 스팟은 주위 환경을 인식하는 능력과 균형을 잡는 능력이 매우 뛰어나다. 이를 증명하기 위해 개발자가 스팟을 발로 차는 영상이 공개되었는데 본의 아니게 로봇 학대 논란이 불거졌다. 만약 미래에 우리가 안드로이드 하녀를 발로 차면 잔인한 것일까?

지뢰 제거 로봇에 대한 일화도 매우 흥미롭습니다. 1인 1로봇 1조로 이루어진 팀이 지뢰를 제거합니다. 한 지뢰 제거 로봇은 72번 임무에 투입되어 그때마다 지뢰를 성공적으로 제거했습니다. 그런데 73번째 임무에 투입되었다가 실수로 부상을 입었어요. 그러니까 고장이 난거죠. 그러자 같이 임무를 수행해왔던 파트너 병사가 울며불며 이 로봇을 살려달라고 하는 겁니다. 이런 사건들이 벌어지면서 미국에서는 본격적으로 로봇의 윤리와 인권에 대해 고민하기 시작했습니다. 로봇에게 자율성을 주려면 먼저 로봇이 무엇이 옳고 무엇이 그른 것인지를 알아야 합니다. 그것을 구분하지 못한다면 자율성을 부여하기가 힘들죠. 이 때문에 현재 학계는 옳고 그름에 대한 연구를 진행하고 있습니다.

이것을 'AMA'라고 합니다. '인공적 도덕 행위자(Artificial Moral Agent)'의 약자인데, 이것을 어떻게 구현할 것인지 연구하기 시작한 겁니다. 먼저 '톱다운(Top-down)' 방식이라고 하는 것이 있습니다. 정의란 무엇이고 윤리란 무엇인지, 또 도덕이란 무엇인지에 대해 인간이 지금까지 철학 분야에서 해왔던 여러 연구 내용들이 있지 않습니까?

인간들이 해놨던 옳고 그름에 대한 판단을 입력해서 여러 복잡한 문제를 해결하게 만들자는 제안이 있었습니다. 그런데 이것이 생각처럼 잘되지가 않았습니다. 이유가 뭘까요? 서로 부딪치는 상황이 지나치게 많기 때문입니다. 상황에 따라 다르다 보니 답을 내릴 수 있는 케이스가 너무 적습니다. 그리고 가장 결정적인 문제점이, 바로 인간도 잘 지키지 않는다는 겁니다. 인간은 이렇게 올바르게 사는 생물이 아닙니다.

지뢰 제거 로봇이 작전 중 '부상을 입었다.' 그러자 파트너였던 군인이 울며불며 '살려달라'고 말했다고 한다. 미국은 프레테터와 지뢰 제거 로봇을 보며 로봇의 윤리와 인권에 대해 심각하게 고민하기 시작했다.
지뢰 제거 로봇이 작전 중 '부상을 입었다.' 그러자 파트너였던 군인이 울며불며 '살려달라'고 말했다고 한다. 미국은 프레테터와 지뢰 제거 로봇을 보며 로봇의 윤리와 인권에 대해 심각하게 고민하기 시작했다.

◆ 기계가 인간다워질 때, 휴머니즘은 어디서 찾을 수 있을까?

우습게도 로봇이나 인공지능이 발전할수록 인간은 무엇인지에 대해 계속해서 질문을 던지게 됩니다. 이 질문에 대한 답을 찾으면서 로봇이나 인공지능도 발전할 수 있게 되는 겁니다. 이제는 로봇과 인공지능을 사용하는 사람들 중에서도 그런 질문을 던지게 되리라 생각합니다. 기술이 발전할 때 기술 자체에 주목하는 사람들보다는 오히려 더 인간과 자연에 대해 되짚어보는 사람들이 늘어난다는 이야기입니다. 이런 현상은 기술 발전에 긍정적인 영향을 끼칩니다.

우리나라 같은 경우에는 기술과 인간을 분리해서 봅니다. 하지만 실제로 는 분리해서 볼 수 있는 것이 아닙니다. 기술이라는 것은 결국 인간과 함께 존재하는 것입니다. 기술과 인간이 공존하기 위해서는 모두가 힘을 합쳐서 합의를 이끌어내는 과정이 반드시 필요하다는 사실을 우리는 잊지 말아야 합니다.

저작권자 © 헬로디디 무단전재 및 재배포 금지