최근 빅데이터 시대가 도래하면서 인공지능과 딥러닝 기술이 주목받고 있습니다. 인공지능과 딥러닝의 미래에 대한 기대감부터 우려까지 여러 의견과 생각이 엇갈리지만, 새로운 컴퓨팅 패러다임에서 우위를 점하기 위한 핵심 영역임이 분명하기 때문입니다. 인공지능과 딥러닝이 어떤 역사적 과정을 거쳐 대세로 자리잡게 됐는지, 인공지능과 딥러닝으로 무엇을 할 수 있고, 이를 위해 무엇을 준비해야 하는지를 살펴보겠습니다.
최근 수많은 기술 전문지 등 언론에서 끊임없이 인공지능 시대의 급부상을 이야기하고 있습니다.
동시에 엘론 머스크, 빌 게이츠, 스티브 호킹과 같은 몇몇 전문가와 학자의 우려 섞인 전망도 나오고 있습니다.
왜 이런 이야기가 쏟아져 나오는 것일까요?
인공지능 분야는 1956년 존 매카시, 마빈 민스키, 나다니엘 로체스터, 클로드 샤논 같은 당시 최고의 정보과학자들이
다트머스대학에 모여 창시했습니다. 이후 이 분야는 수많은 혁신과 좌절, 새로운
도전이 반복적으로 이뤄진 인간 지성의 도전 영역입니다.
물론 지능에 대한 연구와 추론 및 논증 능력에 대한 철학적 접근, 다양한 자동화기기 발명은 인간 문명과 함께 한 오래된 영역입니다. 하지만 우리가 이야기하는 인공지능은 컴퓨터 시대에 들어오면서 컴퓨터 과학자의 본격적 연구대상이 됐다고 볼 수 있습니다. 1950년 앨런 튜링이 '기계가 생각할 수 있는가?'라는 도발적 질문을 던진 '컴퓨팅 기계와 지능' 논문은 이후 지능을 갖는 기계에 대한 기초적 사유를 제시했습니다.
가장 유명한 '튜링 테스트'라는 이미테이션 게임은 이후 지능을 가진 개체를 판단하는 가장 기초적인 기준으로 제시되기도 했습니다. 그러나 1956년의 학회가 인공지능의 효시로 불리는 것은 당시 '학습과 기타 다른 지능의 특징을 기계가 시뮬레이션 할 수 있을 것이다'라는 선언에서 비롯합니다. 인공지능으로 명명한 연구분야가 시작된 것입니다.
1970년대까지 학자들은 검색을 통한 추론, 자연어 분석, 마이크로 세계에 대한 모델링을 통해 매우 긍정적 전망을 했습니다. 그러나 문제를 너무 쉽게 생각했다는 현실에 부딪치면서 첫 번째 인공지능의 겨울을 맞이했고, 모든 연구 지원이 끊겨 버렸습니다. 다시 1980년대에 들어오면서 인간의 지식을 여러 방식으로 저장하고 이를 기반으로 하는 논리적 추론기능을 첨가하면서 새로운 방식의 인공지능 접근이 이뤄졌습니다. 그럼에도 불구하고, 대부분의 노력이 난관에 부딪쳤고, 영국과 미국 등에서 투입한 막대한 자금도 더 이상 지속하지 못하면서 1990년대 초까지 다시 제2의 인공지능의 겨울이 찾아왔습니다.
1990년대까지 인공지능 접근방식은 인간의 지식을 저장하고 이를 추론하는 것은 하향식으로 지능을 구현하는 방식입니다. 그러나 우리는 어떤 지식을 다양한 경험과 데이터를 통한 학습과정으로 축적하는 경우가 많습니다. 이런 문제를 접근하는 것이 '머신러닝(Machine Learing)'입니다. 머신러닝은 결정 트리, 클러스터링, 베이지안 네트워크, 연관 규칙, 귀납적 논리 계획법, 유전 알고리즘 등 다양한 방식이 개발돼 왔습니다.
학습을 위한 또 다른 접근방식으로 '인공 뉴럴 네트워크(ANN)'라고 부르는 연결주의적 접근이 부침을 거듭하면서 성장했습니다.
ANN의 발상은 인간의 신경망 구조를 모방하면서 입력으로 들어오는 정보를 각각의 입력 노드에 배정하고, 이들을 주어진 함수를 표현하는 네트워크로 출력 노드를 통해 결과를 얻어낸다는 아이디어에서 출발했습니다. 1958년 프랭크 로젠블라트의 퍼셉트론이 등장하면서 주목을 받았습니다. 퍼셉트론은 학습과 의사결정을 하며, 언어를 번역할 수 있을 것이라고 기대를 모았습니다. 그러나 1969년 마빈 민스키와 세이무어 페퍼트가 펴낸 '퍼셉트론'이라는 책에서 퍼셉트론의 한계가 비판받으면서 이후 10년 간 이런 방식의 연결주의적 연구는 중단됐습니다.
그러나 1980년 쿠니히코 후쿠시마의 네오코그니트론, 1982년 존 홉필드, 데이비드 러멜하트 등에 의해 새로운 유형의 뉴럴 네트워크가 제안되면서 다시 연구 집단의 관심을 받기 시작했습니다. 특히 오류역전파 알고리즘(Back Propagation)을 통한 학습기법이 효과적인 결과를 보이면서 일부 연구자들은 의욕적으로 이 분야에 매달렸습니다.
이런 뉴럴 네트워크를 학습의 주요 방식으로 사용하는 것을 '딥러닝(Deep Learning)'이라고 부릅니다. 뉴럴 네트워크를 다층 구조로 구성하면서 입력층과 출력층 사이에 하나 이상의 숨겨진 층을 갖고 이를 딥 뉴럴 네트워크(DNN, 심층 신경망)이라고 부르기 시작했기 때문입니다.
예를 들어 손으로 쓴 글자를 인식하는 뉴럴 네트워크라면 입력한 글자에 대한 이미지를 나눠 각각의 단위 이미지를 입력 노드에 적용하고, 노드가 활성화되면서 그 값이 어떤 가중치를 갖고 다음 단계의 노드에 전달됩니다. 두 번째 단계의 노드 역시 여러 개의 입력된 값에 의해 활성화 여부가 결정되며, 다시 다음 단계의 노드에 영향을 줍니다. 이런 단계를 거쳐 최종 출력 노드가 활성화되는지 결정됩니다. 뉴럴 네트워크의 행위나 특성은 사실 각 연결 링크에 부여된 수정 가능한 가중치에 의해 결정된다고 볼 수 있습니다.
그렇다면 언제쯤 인간과 같은 수준의 지능을 구현할 수 있을까요? 옥스포드대학의 철학자이자 인류미래연구소장인 닉 보스트롬이 전 세계의 인공지능 전문가를 대상으로 조사한 결과는 50% 정도의 기회를 갖는 시점이 2040~2050년이라는 중간 값이 나왔다고 합니다. 지난 1월 생명의미래연구소에서 개최한 '인공지능의 미래: 기회와 도전'이라는 컨퍼런스에 참석한 학자들이 '인공지능이 모든 중요한 인지능력을 인간만큼 갖출 수 있는가'에 대해 투표한 결과, 주요 학자들 역시 30년에서 60년 이상 걸린다고 응답했습니다. 이번 투표에서는 300년이 지나도 불가능하다고 답한 사람도 5명 있었습니다.
그런데 왜 엘론 머스크, 빌 게이츠, 스티브 호킹, 닉 보스트롬 같은 리더들이 인공지능의 위험성에 대해서 경고하는 것일까요? 이는 일단 인공지능이 인간 지능을 넘어서는 수준에 도달하면, 그 다음부터는 인간이 생물학적으로 진화하는데 오랜 시간이 걸리지만, 기술을 통한 진화는 너무나 급속도로 이뤄져 우리가 제어할 수 없는 상태가 될 수 있다는 우려 때문입니다.
그런데 인공지능이 사람 수준의 지능을 갖는다는 것은 무슨 의미일까요? 이 문제는 결국 강한 인공지능과 약한 인공지능을 구별하게 하는 입장 차이를 가져옵니다. 강한 인공지능은 인간이 갖고 있는 의식 수준을 기계가 갖추는 것을 의미하며, 이는 결국 '생각을 갖는다는 것은 무엇인가'라는 철학적이면서 뇌과학적 문제로 귀결됩니다. 반면에 약한 인공지능은 인간 지능의 본질적 특성과 관련 없이 특정 영역에 집중해 지능을 시뮬레이션함으로써 사람들이 진짜 지능인지 아닌지 구별할 필요가 없이 프로그램이 성과를 보이면 된다는 입장입니다. 아직까지 대부분의 연구성과는 약한 인공지능의 결과라고 생각할 수 있습니다.
1980년 미국의 철학자 존 썰은 논문 '마인드, 브레인, 프로그램'을 통해 유명한 '차이니스 룸 논쟁'을 제안했습니다. 이 논쟁에서는 한 방에 사람 A가 있고 또 다른 방에 다른 사람 B가 있다고 가정합니다. A는 중국어로 만들어진 문장을 다른 방에 있는 B에게 제시합니다. B는 중국어를 전혀 이해하지 못하지만 중국어를 처리하는 프로그램을 갖고 있습니다. B는 A가 제시한 문장에 대해 프로그램을 통해 중국어로 이뤄진 대답을 제시합니다. 그 프로그램은 중국어를 이해하거나 의미를 해석하지 못하고, 단지 구문 분석적으로 심볼을 바꾸고 숫자를 바꿀 뿐입니다. 그럴 경우 B가 중국어 대답을 한다고 해도 B가 중국어에 대한 이해와 의미를 파악한 것이라고 말할 수 없다는 주장입니다.
이는 매우 중요한 의식의 이론, 언어와 마음에 대한 철학, 그리고 자의식과 마음 이론의 논쟁을 불러 왔습니다. 사실 인간이 다른 동물과 차별적으로 갖고 있는 의식의 차원에서 가장 두드러진 것이 바로 '마음 이론'이라 말할 수 있습니다. 이는 다른 사람이 어떤 마음을 갖고 있는지를 알 수 있으며, 그 결과 내가 다시 어떤 마음으로 그 상태를 해석할 수 있는지를 알 수 있음을 의미합니다.
보통 우리는 4단계 정도를 쉽게 이해하며 복잡한 수준의 작가는 6단계까지 묘사하기도 합니다.예를 들어 (1)독자는 내가 내용을 좀 더 쉽게 썼으면 하고 (2)나도 그러길 바란다는 것을 (3)내가 알고 있다는 것을 (4)독자가 안다는 것을 내가 안다 - 이런 생각을 하는 컴퓨터 프로그램을 만든다는 것이 얼마나 어려운 일인가를 알 수 있을 것입니다.
(자료출처: 소셜컴퓨팅연구소, '인공지능과 딥러닝, 빅데이터 안고 부활하다')