관리 메뉴

ICT와 미래(ICT and Future) 티스토리 블로그

인간이 이해 못하는 인공지능, 믿어도 되나 본문

강한인공지능시대

인간이 이해 못하는 인공지능, 믿어도 되나

천아1234 2017. 7. 19. 20:43

인간이 이해 못하는 인공지능, 믿어도 되나

지난해 ‘알파고 충격’으로 우리에게 각인됐던 인공지능(AI)이 어느새 꽤 익숙한 단어가 됐다. 산업계와 학계, 출판계, 미디어 모두 AI에 대한 논의를 쏟아내기 여념이 없다. 기술유토피아적인 시선과 우려의 눈초리가 혼재된 이 논의들에는 공통점이 있다. 머신러닝 알고리즘을 지닌 AI가 어느 지점에서 인간의 능력을 뛰어넘는다는 것이다. 사실 이는 이미 반세기 전 예고됐다.

초지능 기계는 가장 영리한 사람의 모든 지적 활동을 능가할 정도로 영리하다. 기계의 설계도 지적 활동에 속하므로, 초지능 기계는 더 똑똑한 기계를 만들어낼 수 있다. 그러면 초지능 기계의 지능이 폭발적으로 증가하고 인간의 지능은 뒤처질 것이다. 최초의 초지능 기계는 사람이 만들게 될 마지막 발명품이다.

영국의 통계학자 어빙 존 굿이 1965년 예측한 내용이다. 오늘날 AI 공학자들은 ‘딥러닝’ 기술로 초지능 기계를 현실에 소환했다. 뇌의 신경망을 본떠 만들어진 딥러닝의 인공 신경망은 스스로 학습하고, 그 내용을 기반으로 작동한다. 현재까지 가장 고도화된 머신러닝 기술이다.

딥러닝 기술은 음성 인식, 번역 등 여러 분야에서 뛰어난 문제 해결 능력을 갖췄다. 이제 사람들은 이 기술에 질병 진단, 무역 결제 등 보다 고도화된 의사 결정 영역에서 활약해주길 기대하고 있다. AI에 이런 의사 결정을 맡기는 것이 가능할까. 또 바람직할까. <MIT테크놀로지리뷰>는 4월11일 ‘AI의 어두운 비밀‘이라는 글에서 이 물음에 대해 “딥러닝을 제대로 이해할 방법을 찾지 않는 한 이런 일은 일어날 수 없고, 일어나서도 안 된다”라는 답변을 내놓았다.

그 누구도 AI에 탑재된 고도화된 알고리즘이 어떻게 작동하는지 제대로 알지 못한다. 알고리즘을 설계한 개발자조차 AI가 어떻게 결과를 도출하는지 정확히 이해하지 못하고 있다. AI의 작동 방식에 이해 불가능한 ‘블랙박스’가 존재하는 것이다. AI의 블랙박스를 잘 보여주는 사례가 2015년 미국에서 개발된 ‘딥 페이션트’ 다. 딥 페이션트는 딥러닝 기술을 활용해 환자의 의료 기록을 분석해 질병이 발생할 가능성이 높은 환자를 판별하는 도구로, 발병 가능성을 예측하는 데 뛰어난 성과를 보였다. 하지만 그 가능성을 내놓게 된 ‘단서’를 제공하지는 못했다. 딥 페이션트 개발팀을 이끈 조엘 더들리는 “우리가 이 모델을 개발했지만, 우리도 이게 어떻게 작동하는지 모른다”라고 말했다. 딥 페이션트가 실질적으로 의사와 환자에게 도움을 주기 위해서는 예측 결과에 대한 논리적 단서를 내놓아야 한다. 그래야 의사가 그 예측을 신뢰하고 처방전에 변화를 줄 수 있기 때문이다.

미군도 같은 문제를 겪고 있다. 미군은 자율주행모드로 차량과 비행기를 조종하며 표적을 식별하는 기술을 위한 프로젝트에 막대한 자금을 쏟아붓고 있다. 이 프로젝트가 직면한 과제는 AI 알고리즘의 수수께끼를 푸는 것이다. 군인들이 자동으로 작동되면서도 그 작동법에 대해 설명하지 못하는 ‘로봇 탱크’에 타고 안전하다고 느끼기란 어렵다. 군사 전문가들도 추론 과정을 알 수 없는 정보를 믿고 군사적 판단을 내리길 꺼린다.

물론 인간의 사고와 행동 역시 100% 설명할 수 있진 않다. 미국 와이오밍 대학의 제프 클룬 부교수는 “자신의 사고에 대해 부분적으로만 합리적 설명이 가능한 것은 ‘지능’의 특성일 수 있다”라며 “지능이 사고하는 방식 일부는 본능이나 잠재의식의 영역이어서 이해하기 어려울 수 있다”라고 했다. 완벽한 설명이 불가능하다는 점이 인간의 지능과 인공지능의 공통분모일 수 있다.  차이점은 인간 간 의사소통에서 합리적 설명이 불가능한 지점이 발생했을 때, 우리가 상대방이 신뢰 가능한 사람인지 판단할 수 있는 직관적 방법들을 익혀왔다는 점이다. 인간-AI 의사소통에서는 미지의 영역을 극복할 이런 방법이 없다.

결국 ‘신뢰’의 문제다. 애플의 AI 연구 책임자인 루슬란 살라쿠트디노브 카네기 멜론 대학 부교수는 AI 알고리즘에 ‘설명 가능성’을 요구하는 문제에 대해 “인간과 AI의 관계에 신뢰를 도입하는 것”이라고 설명했다. 우리는 언제 AI의 판단을 신뢰하고 언제 신뢰하지 않아야 할지 고민해야 한다. AI가 사회의 규범에 부합하는 판단을 내놓도록 알고리즘을 설계하는 것 역시 필요하다.

여기서 우리는 기계에 ‘도덕 감정’이나 ‘공감 능력’을 구현해야 하는 과제에 직면한다. 이를 풀기 위해서는 철학적·공학적 다양한 접근이 필요하다. ‘로봇이 도덕적일 수 있는가’부터 ‘AI에 요구하는 도덕적 판단의 기준이 인간인가’까지 다양한 물음에 대한 사회적 합의가 이뤄져야 한다. 또 이와 함께 기술적 가능성을 고민해야 한다.

Comments