관리 메뉴

ICT와 미래(ICT and Future) 티스토리 블로그

딥러닝 본문

딥러닝

딥러닝

천아1234 2017. 9. 9. 17:50
인공 지능과 머신 러닝, 딥 러닝의 차이점을 알아보자
인공지능 기술의 탄생 및 성장
인공 지능이라는 개념은 1956년 미국 다트머스 대학에 있던 존 매카시 교수가 개최한 다트머스 회의에서 처음 등장했으며, 최근 몇 년 사이 폭발적으로 성장하고 있는 중이랍니다. 특히 2015년 이후 신속하고 강력한 병렬 처리 성능을 제공하는 GPU의 도입으로 더욱 가속화되고 있죠. 갈수록 폭발적으로 늘어나고 있는 저장 용량과 이미지, 텍스트, 매핑 데이터 등 모든 영역의 데이터가 범람하게 된 ‘빅데이터’ 시대의 도래도 이러한 성장세에 큰 영향을 미쳤습니다.
인공 지능: 인간의 지능을 기계로 구현하다
1956년 당시 인공 지능의 선구자들이 꿈꾼 것은 최종적으로 인간의 지능과 유사한 특성을 가진 복잡한 컴퓨터를 제작하는 것이었죠. 이렇듯 인간의 감각, 사고력을 지닌 채 인간처럼 생각하는 인공 지능을 ‘일반 AI(General AI)’라고 하지만, 현재의 기술 발전 수준에서 만들 수 있는 인공지능은 ‘좁은 AI(Narrow AI)’의 개념에 포함됩니다. 좁은 AI는 소셜 미디어의 이미지 분류 서비스나 얼굴 인식 기능 등과 같이 특정 작업을 인간 이상의 능력으로 해낼 수 있는 것이 특징이죠.
머신 러닝: 인공 지능을 구현하는 구체적 접근 방식
머신 러닝은 메일함의 스팸을 자동으로 걸러주는 역할을 합니다.
한편, 머신 러닝은 기본적으로 알고리즘을 이용해 데이터를 분석하고, 분석을 통해 학습하며, 학습한 내용을 기반으로 판단이나 예측을 합니다. 따라서 궁극적으로는 의사 결정 기준에 대한 구체적인 지침을 소프트웨어에 직접 코딩해 넣는 것이 아닌, 대량의 데이터와 알고리즘을 통해 컴퓨터 그 자체를 ‘학습’시켜 작업 수행 방법을 익히는 것을 목표로 한답니다.
머신 러닝은 초기 인공 지능 연구자들이 직접 제창한 개념에서 나온 것이며, 알고리즘 방식에는 의사 결정 트리 학습, 귀납 논리 프로그래밍, 클러스터링, 강화 학습, 베이지안(Bayesian) 네트워크 등이 포함됩니다. 그러나 이 중 어느 것도 최종 목표라 할 수 있는 일반 AI를 달성하진 못했으며, 초기의 머신 러닝 접근 방식으로는 좁은 AI조차 완성하기 어려운 경우도 많았던 것이 사실이죠.
현재 머신 러닝은 컴퓨터 비전 등의 분야에서 큰 성과를 이뤄내고 있으나, 구체적인 지침이 아니더라도 인공 지능을 구현하는 과정 전반에 일정량의 코딩 작업이 수반된다는 한계점에 봉착하기도 했는데요. 가령 머신 러닝 시스템을 기반으로 정지 표지판의 이미지를 인식할 경우, 개발자는 물체의 시작과 끝 부분을 프로그램으로 식별하는 경계 감지 필터, 물체의 면을 확인하는 형상 감지, ‘S-T-O-P’와 같은 문자를 인식하는 분류기 등을 직접 코딩으로 제작해야 합니다. 이처럼 머신 러닝은 ‘코딩’된 분류기로부터 이미지를 인식하고, 알고리즘을 통해 정지 표지판을 ‘학습’하는 방식으로 작동된답니다.
머신 러닝의 이미지 인식률은 상용화하기에 충분한 성능을 구현하지만, 안개가 끼거나 나무에 가려서 표지판이 잘 보이지 않는 특정 상황에서는 이미지 인식률이 떨어지기도 한답니다. 최근까지 컴퓨터 비전과 이미지 인식이 인간의 수준으로 올라오지 못한 이유는 이 같은 인식률 문제와 잦은 오류 때문이죠.
딥 러닝: 완전한 머신 러닝을 실현하는 기술
초기 머신 러닝 연구자들이 만들어 낸 또 다른 알고리즘인 인공 신경망(artificial neural network)에 영감을 준 것은 인간의 뇌가 지닌 생물학적 특성, 특히 뉴런의 연결 구조였습니다. 그러나 물리적으로 근접한 어떤 뉴런이든 상호 연결이 가능한 뇌와는 달리, 인공 신경망은 레이어 연결 및 데이터 전파 방향이 일정합니다.
예를 들어, 이미지를 수많은 타일로 잘라 신경망의 첫 번째 레이어에 입력하면, 그 뉴런들은 데이터를 다음 레이어로 전달하는 과정을 마지막 레이어에서 최종 출력이 생성될 때까지 반복합니다. 그리고 각 뉴런에는 수행하는 작업을 기준으로 입력의 정확도를 나타내는 가중치가 할당되며, 그 후 가중치를 모두 합산해 최종 출력이 결정됩니다.
정지 표지판의 경우, 팔각형 모양, 붉은 색상, 표시 문자, 크기, 움직임 여부 등 그 이미지의 특성이 잘게 잘려 뉴런에서 ‘검사’되며, 신경망의 임무는 이것이 정지 표지판인지 여부를 식별하는 것입니다. 여기서는 충분한 데이터를 바탕으로 가중치에 따라 결과를 예측하는 ‘확률 벡터(probability vector)’가 활용되죠.
딥 러닝은 인공신경망에서 발전한 형태의 인공 지능으로, 뇌의 뉴런과 유사한 정보 입출력 계층을 활용해 데이터를 학습합니다. 그러나 기본적인 신경망조차 굉장한 양의 연산을 필요로 하는 탓에 딥 러닝의 상용화는 초기부터 난관에 부딪혔죠. 그럼에도 토론토대의 제프리 힌튼(Geoffrey Hinton) 교수 연구팀과 같은 일부 기관에서는 연구를 지속했고, 슈퍼컴퓨터를 기반으로 딥 러닝 개념을 증명하는 알고리즘을 병렬화하는데 성공했습니다. 그리고 병렬 연산에 최적화된 GPU의 등장은 신경망의 연산 속도를 획기적으로 가속하며 진정한 딥 러닝 기반 인공 지능의 등장을 불러왔죠.
신경망 네트워크는 ‘학습’ 과정에서 수많은 오답을 낼 가능성이 큽니다. 정지 표지판의 예로 돌아가서, 기상 상태, 밤낮의 변화에 관계 없이 항상 정답을 낼 수 있을 정도로 정밀하게 뉴런 입력의 가중치를 조정하려면 수백, 수천, 어쩌면 수백만 개의 이미지를 학습해야 할지도 모르죠. 이 정도 수준의 정확도에 이르러서야 신경망이 정지 표지판을 제대로 학습했다고 볼 수 있습니다.
2012년, 구글과 스탠퍼드대 앤드류 응(Andrew NG) 교수는 1만6,000개의 컴퓨터로 약 10억 개 이상의 신경망으로 이뤄진 ‘심층신경망(Deep Neural Network)’을 구현했습니다. 이를 통해 유튜브에서 이미지 1,000만 개를 뽑아 분석한 뒤, 컴퓨터가 사람과 고양이 사진을 분류하도록 하는데 성공했습니다. 컴퓨터가 영상에 나온 고양이의 형태와 생김새를 인식하고 판단하는 과정을 스스로 학습하게 한 것이죠.
딥 러닝으로 훈련된 시스템의 이미지 인식 능력은 이미 인간을 앞서고 있습니다. 이 밖에도 딥 러닝의 영역에는 혈액의 암세포, MRI 스캔에서의 종양 식별 능력 등이 포함됩니다. 구글의 알파고는 바둑의 기초를 배우고, 자신과 같은 AI를 상대로 반복적으로 대국을 벌이는 과정에서 그 신경망을 더욱 강화해 나갔습니다.
딥 러닝으로 밝은 미래를 꿈꾸는 인공 지능
딥 러닝의 등장으로 인해 머신 러닝의 실용성은 강화됐고, 인공 지능의 영역은 확장됐죠. 딥 러닝은 컴퓨터 시스템을 통해 지원 가능한 모든 방식으로 작업을 세분화합니다. 운전자 없는 자동차, 더 나은 예방 의학, 더 정확한 영화 추천 등 딥 러닝 기반의 기술들은 우리 일상에서 이미 사용되고 있거나, 실용화를 앞두고 있습니다. 딥 러닝은 공상과학에서 등장했던 일반 AI를 실현할 수 있는 잠재력을 지닌 인공 지능의 현재이자, 미래로 평가 받고 있답니다.
요즘 뜬다는 ‘딥러닝’
딥러닝(deep learning)의 주가가 치솟고 있다. 가트너가 2014년 주목해야 할 기술로 딥러닝을 꼽은 이후 보도량도 늘어나고 있다. 트위터가 7월28일 인수한 기업도 딥러닝 기반의 이미지 검색 스타트업이고 지난 6월 김범수 카카오 의장이 케이큐브를 통해 투자한 회사도 딥러닝 기술을 보유하고 있는 기업이다.
네이버와 다음도 딥러닝에 적잖은 투자를 이어가고 있다. 네이버는 음성 검색에 딥러닝 알고리즘을 적용해 성능 향상을 경험했고 다음도 뒤질세라 꾸준히 연구에 나서고 있다. 딥러닝 알고리즘을 활용하는 스타트업도 서서히 늘어나고 있는 추세다. 일각에선 2017년이면 컴퓨터의 10%가 데이터 처리가 아닌 딥러닝으로 학습하고 있을 것이라는 전망도 제시한다.
딥러닝이 뭐지
딥러닝은 사물이나 데이터를 군집화하거나 분류(Classification)하는 데 사용되는 일종의 기술적 방법론이다. 잠시 예를 들어보자. 일반적으로 컴퓨터는 사진만을 놓고 고양이와 개를 구분하지 못한다. 물론 꽃의 종류도 영상이나 이미지만으로 파악하지는 못한다. 사람은 아주 쉽게 분별하는 작업을 컴퓨터는 매우 복잡한 과정을 거쳐야만 이해할 수 있다.
이를 위해 기계학습이라는 방법이 고안됐다. 많은 데이터를 컴퓨터에 입력해주면 비슷한 것들끼리 분류해서 개를 개로, 고양이를 고양이로 판독하도록 훈련시키는 방식이다. 컴퓨터가 스스로 훈련하면서 패턴을 찾아내 분류하는 기술적 방식, 이를 기계학습이라고 한다.
데이터를 어떻게 분류할 것인가를 놓고 이미 많은 기계학습 알고리즘들이 현재도 활용되고 있다. 대표적으로 의사결정나무, 베이지안망, 서포트벡터머신(SVM), 인공신경망 알고리즘을 들 수 있다. 각 알고리즘마다 장단점이 분명해 데이터의 속성, 형태에 따라 서로 다른 알고리즘이 동원된다. 딥러닝은 심화신경망(Deep Neural Network)를 활용한 기계학습을 딥러닝이라고 일컫는다.
딥러닝은 인공신경망의 한계를 극복하기 위해 제안된 기계학습 방법이다. 인공신경망은 높은 분류 정확도에 비해 속도가 느린 것이 단점이었다. 게다가 과적합(overfitting)도 웬만해선 해결되지 않는 과제였다. 이 때문에 비교적 오랜 기간 실무에선 배척 당하기도 했다. 하지만 최근 들어 이 분야를 깊숙이 고민해온 연구자들이 그에 대한 해법을 내놓으면서 다시 각광을 받기 시작했다. 그 핵심에 캐나다 대학의 제프리 힌튼, 뉴욕대 얀 리쿤 교수, 스탠포드 대학의 앤드류 응 교수 등이 있다.
1942년 의대 교수로부터 시작된 인공신경망 알고리즘
▲인공신경망 탄생을 알린 맥컬록-피츠의 1943년 논문
비유하자면 딥러닝은 인공신경망의 후손이다. 인공신경망의 한계를 넘어서기 위한 방편으로 도출된 알고리즘이다. 딥러닝의 역사는 그래서 인공신경망의 역사와 궤를 같이 한다. 인공신경망은 이미 알려져 있다시피, 뇌의 정보처리 방식을 기계에 적용해보자는 아이디어에서 도출됐다. 컴퓨터 과학과 의학, 심리학 등 여러 학문이 개입해 탄생한 융합적 결과물이다.
아이디어의 시작은 1942년으로 거슬러 올라간다. 미국 일리노이 의대 정신과 부교수였던 워렌 맥컬록은 당시 의대 학생이었던 제리 레트빈과 그의 월터 피츠를 자신의 랩으로 당겨왔다. 어느 정도 서먹함이 사라졌을 즈음인 그해 중순, 맬컬록 교수는 이 두 학생을 자신의 집으로 초대했다. 연구실 제자였던 피츠는 신경계에 유독 관심이 많았다.
맥컬록 교수와 피츠를 매개한 이는 이진법을 창안했던 17세기 독일 철학자이자 수학자였던 라이프니츠였다. 피츠는 이날 맥컬록 교수에게 모든 문제는 분석적인 계산으로 해결할 수 있다는 라이프니츠의 격언을 들려줬다. 이 당시는 앨런 튜링이 보편적 논리 엔진에 대한 논문을 발표(1937년)한 지 약 5년도 채 되지 않던 때이기도 했다.
맥컬록 교수와 피츠는 인간의 두뇌 특히 뉴런을 논리적 요소로 끌어들이면서 그 처리 과정을 들여다보게 됐다. 그 결과로 이듬해 ‘신경활동에 내재한 개념들의 논리적 계산’이라는 제목의 논문을 발표하게 된다. 이들은 이 논문에서 신경망을 ‘이진 스위칭’ 소자들이 복잡하게 연결된 네트워크로 모형화했다. 인공신경망을 개념화한 최초의 논문이 탄생한 순간이다.
이후 인공신경망 알고리즘은 흥망성쇠를 경험하게 된다. 유행처럼 붐이 일었다가 다시 무덤으로 들어가기를 반복했다. 딥러닝은 이러한 부침 속에서 탄생한 희망의 불씨였다.
딥러닝이 처음 제안된 때는 인공신경망이 탄생한 지 40여년이 지난 1980년대. 캘리포니아 대학 심리학자와 컴퓨터 관련 학자들의 신경망 연구를 요약한 PDP라는 저서가 등장하면서부터다. 여기에서 역전파(Backpropagation) 학습 알고리즘이 제안됐고 이것이 딥러닝의 모태가 됐다. 하지만 오래 가지는 못했다.
딥러닝이 부활의 신호탄을 쏘아올리게 된 건 2004년이다. 제프리 힌튼 교수가 RBM이라는 새로운 딥러닝 기반의 학습 알고리즘을 제안하면서 주목을 받기 시작했다. 곧바로 드롭아웃이라는 알고리즘도 등장해 고질적으로 비판받는 과적합 등을 해결할 수 있게 됐다. 이 작업에도 힌튼 교수는 빠지지 않았다.
딥러닝이 문제를 해결하는 방식
앞서 언급했듯, 딥러닝의 핵심은 분류를 통한 예측이다. 수많은 데이터 속에서 패턴을 발견해인간이 사물을 구분하듯 컴퓨터가 객체를 분별한다. 이 같은 분별 방식은 두 가지로 나뉜다. 지도 학습(supervised learning)과 비지도 학습(unsupervised learning)이다. 기존의 기계학습 알고리즘들은 대부분 지도 학습에 기초하고 있다. 지도 학습 방식은 컴퓨터에 먼저 ‘이런 이미지가 고양이야’라고 학습을 시켜주면, 학습된 결과를 바탕으로 고양이 사진을 판별하게 된다. 사전에 반드시 학습 데이터가 제공돼야만 한다. 사전 학습 데이터가 적으면 오류가 커지므로 데이터양도 충분해야만 한다.
반면 비지도 학습은 이 과정이 생략된다. ‘이런 이미지가 고양이야’라고 학습시키지 않아도 자율적으로 컴퓨터가 ‘이런 이미지가 고양이군’이라고 학습하게 된다. 지도 학습 방식보다 진일보한 방식이다. 그러나 고도의 연산 능력이 요구돼 웬만한 컴퓨팅 능력으로는 시도하기 쉽지 않았다. 리쿤 교수가 1989년 필기체 인식을 위해 심화 신경망 방식을 도입했을 때 연산에만 3일 걸렸다는 사실은 이미 잘 알려져있다. 구글 현재 비지도학습 방식으로 유튜브 내 고양이 이미지를 식별하는 딥러닝 기술을 개발한 상태다.
하지만 고성능의 GPU가 등장하고 데이터가 폭증하게 되면서 이 문제는 자연스럽게 해소되기 시작했다. 여기에 더해 RBM와 드롭아웃(Dropout)이라는 새로운 알고리즘이 개발되면서 당장의 활용 범위도 크게 늘어났다. 페이스북은 딥러닝을 뉴스피드와 이미지 인식 분야에 적용하고 있고, 구글은 음성 인식과 번역을 비롯해 로봇의 인공지능 시스템 개발에도 도입하고 있다.
페이스북 딥페이스, 네이버 음성인식이 이미 적용
딥러닝이 가장 보편적으로 활용되고 있는 분야를 꼽는다면 음성 인식과 이미지 인식이다. 데이터의 양 자체가 풍부한 데다 높은 확률적 정확성을 요구하고 있기 때문이다.
페이스북은 딥러닝을 적용해 딥페이스라는 얼굴 인식 알고리즘을 올해 3월 개발했다. 이 알고리즘 개발을 주도한 조직이 얀 리쿤 교수가 이끌고 있는 인공지능 그룹이다. 페이스북은 딥러닝이 적용된 딥페이스 알고리즘으로 전세계 이용자의 얼굴을 인식해 특정하고 있다. 인식 정확도는 97.25%로 인간 눈(97.53%)과 거의 차이가 없다. 페이스북은 이용자가 올린 이미지의 얼굴만 측면만 봐도, 어떤 이용자인지 판별해낼 수 있다.
네이버는 음성 인식을 비롯해 테스트 단계이긴 하지만 뉴스 요약, 이미지 분석에 적용하고 있다. 이미 네이버는 딥러닝 알고리즘으로 음성 인식의 오류 확률을 25%나 개선했다. 네이버 딥러닝랩의 김정희 부장은 지난해 데뷰2013에서 딥러닝을 적용하기 전과 후를 “청동기 시대와 철기 시대와 같다”로 비유하기도 했다. 그만큼 성능 향상이 뚜렷했다는 의미다.
뿐만 아니라 네이버는 야후의 썸리와 같은 뉴스 요약 서비스에도 딥러닝을 적용해 실험하고 있다. 기사에 제목이 있을 경우와 없을 경우를 분리해 기사를 정확히 요약해낼 수 있는 알고리즘을 개발하는데 이 방식이 활용되고 있다. 2D 이미지 분석에 적용하기 위해 랩 단위에서 현재 실험이기도 하다.
▲ 페이스북 딥페이스의 작동 구조
딥러닝이 갑작스럽게 각광받는 이유는 간단하다. 복잡한 구조를 처리할 수 있는 컴퓨팅 파워, 즉 연산 능력이 뒷받침되고 있기 때문이다. 강필성 서울과학기술대 교수는 “딥러닝은 새로운 것이 아니라 복잡한 인경망 구조를 지닌 것이 특징”이라며 “그동안은 이를 받쳐줄 만한 컴퓨팅 파워가 부재했는데 이 부분이 해결되면서 부상하고 있는 것”이라고 설명했다. 김정희 네이버 딥러닝 부장도 ▲새로운 알고리즘의 개발 ▲컴퓨팅 파워 ▲빅데이터를 딥러닝이 주목받는 이유로 들었다.
사라질 듯 사라지지 않은 딥러닝은 빅데이터 시대를 맞아 이렇게 다시 부활하고 있다. 인간의 뇌와 컴퓨팅 방식의 결합, 그 속에서 딥러닝은 서서히 자기 영역을 확장하고 있다. 이 과정에서 어쩌면 더 많은 학문들이 결합되고 융합될지도 모른다. 딥러닝의 부활은 여러모로 다양한 의미를 동시에 함축하고 있는 셈이다.
구글 “인공지능 검색엔진 개발중”
검색어를 입력하기도 전에 검색 의도를 파악해서 검색 결과를 알려준다. 사람의 생각을 읽는 검색엔진이 등장하는 것일까. 대용량 데이터를 다루고 처리하는 기술을 가진 구글에겐 멀지 않은 미래다.
테크크런치는 "최근 구글이 '사이버네틱 친구'라는, 언어를 이해하는 검색엔진을 만들고 있다"라고 전했다. 사이버네틱 친구는 검색자의 의도를 파악해 검색결과를 보여주는 기술로 지난해 12월17일 구글 엔지니어링 이사로 합류한 레이 커즈와일이 주도하고 있다.
커즈와일 이사는 기계학습과 언어처리 분야 전문가로 세계적으로 잘 알려진 인공지능 전문가이기도 하다. 그가 주도해서 검색엔진을 개발중이란 얘긴, 구글이 스스로 생각하고 판단하는 인공지능형 검색엔진을 만들고 있단 얘기로 이어진다.
이를 뒷받침하듯 최근 커즈와일 이사는 최근 싱귤래리티대학 나사 캠퍼스에서 열린 한 사교모임에서 "사이버네틱 친구는 검색자보다 더 검색의도를 잘 파악하는 기술로, 앞으로 몇년 안에 사람에 가까운 인공지능을 갖춘 검색엔진이 등장해 검색자의 질문 의도를 정확하게 판단해 대답할 것"이라며 "질문하지 않아도 검색자가 궁금해할 만한 요소를 미리 파악해 답할 수 있는 검색엔진 기술을 개발하기 위해 노력 중"이라고 말했다.
구글이 인공지능에 관심있다는 건 널리 알려진 얘기다. 2004년 TED 컨퍼런스에서 보았듯이 사람과 같은 생각을 하는 검색엔진, 하다못해 사람과 비슷한 사고를 하는 검색엔진을 만드는 게 구글의 창립자이자 최고경영자인 래리 페이지의 오랜 숙원이다.
이를 위해 1990년대까지만 해도 구글은 우선 사용자가 입력한 질문에 적절한 대답을 내놓을 수 있는 검색 알고리즘 만들기에 최선을 기울였다. 데이터를 수집하고 처리하는 일이 인공지능형 검색엔진을 만들기 위한 우선조건이라고 판단한 듯하다. 대용량 데이터 처리와 논문과 검색엔진 기술 논문 상당수가 이때 나왔다. 2000년대 들어 클라우드 컴퓨팅 기술 등장으로 대용량 데이터 처리가 보다 수월해지면서, 구글은 인공지능 분야 연구에 박차를 가했다.
지난해 6월 구글은 자사 블로그를 통해 사람과 같이 학습을 통해 판단을 내릴 수 있는 인공신경망을 개발했고, 세계적으로 잘 알려진 인공지능 전문가 커즈와일을 구글 엔지니어링 부문 이사로 영입했다고 밝혔다. 당시 래리 페이지 구글 최고경영자는 커즈와일 이사를 영입하면서 "인공지능 컴퓨터에 대한 욕심이 있다"라며 "커즈와일의 기술이 구글의 도움이 될 것으로 보인다"라고 말했다.
현재 커즈와일 이사는 기존의 시멘틱 검색 기술을 활용해 사이버네틱 친구의 인공지능을 만들고 있다. 그는 "언어야 말로 인공지능 기술의 핵심"이라며 "시멘틱 검색은 단어 뒤에 숨은 의미와 의도를 파악하는만큼, 이 기술을 발전시켜 검색엔진 스스로 생각할 수 있게끔 만드는 게 핵심이다"라고 설명했다.
사용자가 인터넷에 글을 남길 때 단순히 단어만 열거하는 것은 아니다. 여러 단어를 통해 자신이 무엇을 말하고 싶은지를 표현한다. 커즈와일 이사 표현에 따르면, 현재 검색엔진 기술은 단순히 나열된 각 단어의 의미를 파악하는 수준이다. 사람처럼 앞뒤 문맥을 모두 따져 숨겨진 의미를 파악하는 건 불가능하다.
커즈와일 이사는 "만약 검색자의 정보를 미리 안다면 그가 글에서 언급한 '눈싸움'이 겨울철 놀이 눈싸움인지, 서로 얼굴을 마주보며 눈을 깜박이지 않는 '눈싸움'인지를 파악할 수 있을 것"이라며 "사람이 생각하는 것과 컴퓨터가 생각하는 것의 차이, 간극을 줄이는 게 구글 검색엔진 기술의 핵심"이라고 덧붙였다.
구글, 스스로 학습하는 인공신경망 개발
미래 공상과학 소설이나 영화에서 빠지지 않는 단골 소재인 인공지능 로봇을 만날 날이 머지않아 보인다.
구글은 6월27일 자사 블로그를 통해 자사 비밀 연구소인 '구글X' 소속 과학자들이 사람과 같이 학습을 통해 판단을 내릴 수 있는 인공신경망을 개발했다고 발표했다. 이 인공신경망은 따로 '고양이'라는 단어를 입력해 학습시키지 않았음에도 불구하고, 유튜브 동영상 이미지에서 고양이를 스스로 구분해낸 것으로 알려졌다.
이번 프로젝트에 참여한 제프 딘 구글 수석 연구원과 앤드루 우 스탠퍼드 대학 컴퓨터 과학자는 "이번 인공신경망 개발을 위해 구글X 연구진은 구글 데이터센터를 활용해 1만6천개의 이르는 컴퓨터 중앙처리장치(CPU) 코어와 10억건 이상의 데이터 연결을 처리할 수 모델이 도입했다"라며 "인공신경망은 사람의 도움 없이 유튜브에서 찾은 이미지 1천만장 중 고양이를 정확히 식별해 내는 데 성공했다"라고 말했다.
지금까지 인공신경망이라고 하면 사람이 입력한 특정 정보를 기억해 그와 같은 조건의 이미지를 만났을 때 이미지 이름을 기억하는 식이었다. 예를 들어 눈이 2개고, 발이 4개며, 털이 있고, 코 주변에 수염, 귀가 뾰족하게 생겨서 머리 위에 자리잡고 있으면 고양이라고 정의한다는 식으로 컴퓨터에 입력하면, 위의 조건에 해당하는 그림을 고양이라고 인식하는 식이다.
그러나 구글 연구진은 유튜브 비디오에서 무작위로 추출한 1천만개의 이미지를 인공신경망에 인식한 다음 표준 기계 학습 방식을 통해 인공신경망이 스스로 이미지에 이름을 붙여 분류할 수 있도록 만들었다. 딘 수석 연구원은 "연구과정에서 이미지가 고양이라 절대 알려주지 않았다"라며 "인공신경망 스스로 고양이라는 개념을 정의한 것"이라고 설명했다. 우 과학자도 "이번 연구는 많은 양의 자료를 알고리즘에 던져주고 이로써 소프트웨어 스스로 식별 방안을 터득하도록 고안한 것"이라며 "2만개에 이르는 이미지 항목 가운데 고양이를 맞추는 정확도가 기존 학습 방식과 비교했을 때 70%에 가까운 개선을 보였다"라고 덧붙였다.
이번 연구는 대규모 분산 컴퓨팅 인프라가 사람의 뇌로 따졌을 때 뉴런과 같은 역할을 할 수 있다고 증명한 셈이다. 구글의 인공신경망 연구가 활성화될 경우 그동안 구글이 수집한 데이터를 바탕으로 학습한 인공지능이 나올지도 모를 일이다. 입력된 지식만은 단순하게 반복하는 인공지능이 아닌, 영화 'A.I'나 '아이.로봇'에서 만날 수 있는 생각하는 인공지능 로봇 말이다.
구글도 이와 관련된 연구 자체를 부정하진 않았다. 다만 우 과학자는 "현재의 알고리즘으로 모든 것을 수행할 수 있다면 좋겠지만 완전한 알고리즘을 정확히 찾아낸 것은 아직 아니다"라며 섣부른 인공지능 개발에 대해서는 조심스런 반응을 보였다. 딘 수석 연구원은 "향후 지속된 연구를 통해 인공신경망을 안정화 방법을 찾겠다"라고 말했다.
구글X는 증강현실 안경과 운전자 없이 인공지능으로 달리는 자동차를 개발하는 등 최첨단 기술을 실험하기 위해 구글이 운영하고 있는 연구소다. 이번 인공신경망 연구결과는 이번주 스코틀랜드 에든버러 학회에서 발표될 예정으로 자세한 연구 내용은 구글X 연구소 구글 플러스에서 볼 수 있다.

'딥러닝' 카테고리의 다른 글

4차 산업혁명은 없다  (0) 2017.09.30
Comments