1900
1943
최초의 뉴런 모델
최초의 뉴런 모델
1943년, 워렌 맥컬록(Warren McCulloch)과
월터 피츠(Walter Pitts)는 역사에 남을 논문을 발표한다.
"A Logical Calculus of Ideas Immanent in Nervous Activity" 그들은 이 유명한 논문에서 우리 뇌에 있는 뉴런(neuron)을 간단한 모델로 변환하였으며,
이 모델은 '논리 단위'로 구성되어 모든 계산 작업을 수행할 수 있음을 보여주었다.
이 논문은 인간의 뇌를 논리적으로 설명할 수 있는 모델을 만들 수 있다는 가능성을 열었다는 점에서 기념비적이라 할 수 있다.
또한, 신경학과 촉발 발전한 컴퓨터 과학을 연결한 연구라는 점에서도 역사적 의의가 있다.
1950
튜링 테스트 제안
튜링 테스트 제안
튜링 테스트(Turing test) 또는 이미테이션 게임(imitation game)은 기계의 인공지능 여부를 판별하기 위해 앨런 튜링이 제안한 시험으로, 그는 상대의 정체를 알지 못하는 인간 실험자가 인간과 유사하게 반응하는 기계와 자연어로 소통했을 때, 상대가 기계인지 인간인지 구분할 수 없게 되는 것(수행 능력의 비구별성)을 지능의 존재 기준으로 삼았다. 튜링 테스트는 "'인간의 지적 능력' 또는 '인공지능'이란 무엇인가?"라는 근본적인 물음에 대한 접근에서도 연구된다.
1958
퍼셉트론의 등장
퍼셉트론의 등장
1958년, 프랭크 로젠블렛(Frank Rosenblatt)은 최초의 인공신경망 모델인 퍼셉트론(Perceptron)을 제안하였다.
퍼셉트론이란 신호(x1, x2)를 입력값으로 받아 가중치(w1, w2)를 곱하고, 그 결과를 합산한 뒤 활성화 함수를 통해 출력값(y)을 결정하는 알고리즘이다.
퍼셉트론이란 신호(x1, x2)를 입력값으로 받아 가중치(w1, w2)를 곱하고, 그 결과를 합산한 뒤 활성화 함수를 통해 출력값(y)을 결정하는 알고리즘이다.
1969
퍼셉트론의 한계
퍼셉트론의 한계
1969년, 마빈 민스키(Marvin Minsky)와
시모어 페퍼트(Seymour Papert)는
저서 『퍼셉트론』에서 퍼셉트론의 한계를 지적하며, 다층 구조가 필요함을 주장하였다.
즉, 당시의 퍼셉트론으로는 XOR 연산이 절대 불가능하며, 다층 퍼셉트론을 통해
XOR 연산에 대한 문제는 해결될 수 있지만,
각각의 가중치(Weight)와 편항(Bias)을
학습시킬 효과적인 알고리즘이 부재하였다.
이러한 배경 속에서 인공신경망에 대한 관심은 줄어들게 되었으며, 이 시기는 종종 "AI 겨울(AI Winter)"이라 불린다.
이러한 배경 속에서 인공신경망에 대한 관심은 줄어들게 되었으며, 이 시기는 종종 "AI 겨울(AI Winter)"이라 불린다.
1974
역전파 제안
역전파 제안
5년 후인 1974년, 폴 워보스(Paul Werbos)가 박사과정 논문에서 다층 구조의 가중치와 편항을 학습시키기 위한
역전파(Backpropagation)를 제안하였다.
기존의 전방향(Feedforward) 학습을 통해 가중치와 편향을 수정하는 것이 아니라,
전방향에 대한 학습 결과를 보고, 뒤로 가면서 가중치와 편향을 수정하는 알고리즘이다.
즉, 신경망의 오차(예측값 - 실제값)를 출력층에서부터 입력층으로 피드백하여
각층(Layer)의 가중치와 편향을 업데이트 하는 알고리즘이다.
1974 ~ 1980
1차 겨울
1차 겨울
기대에 미치지 못할 인식으로 첫 번째 겨울 도래
1980 ~ 1987
전문가 시스템 발전
전문가 시스템 발전
전문가 시스템과 지식 기반 시스템의 발전
1987 ~ 1993
2차 겨울
2차 겨울
전문가 시스템의 비효율성 및 한계로 인해 두 번째 겨울 도래
2000
2006
딥러닝의 출현
딥러닝의 출현
깊었던 침체기에도 불구하고 인공신경망에 대한 연구는 꾸준히 진행되었다.
2006년, 역전파를 고안하였던 제프리 힌턴(Geoffrey Hinton) 교수는
"A fast learning algorithm for deep belief nets"라는
논문을 통해 가중치의 초기값을 제대로 설정하면 깊이가 깊은 신경망도
학습이 가능하다는 연구를 선보였다.
즉, 신경망을 학습시키기 전에 계층(예: 입력층, 은닉층) 단위의 학습을 거쳐
더 나은 초기값을 얻는 방식의 사전훈련(Pre-training) 방식을 제안한 것이다.
2007
오토인코더 출현
오토인코더 출현
이어서 2007년에는
요슈아 벤지오(Yoshua Bengio) 팀이 "Greedy layer-wise training of deep networks"라는
논문을 통해 오토인코더(Autoencoder)를 사용한 좀 더 간단한
사전훈련 방법을 제안했다. 이러한 모든 노력을 통해 비로소 깊은 신경망에서도 학습이 가능하게 되었다.
그리고 이때부터 인공신경망(Neural)이라는 용어 대신 "딥(Deep)"이라는 용어를 사용하기 시작했다. 길고 긴 침체기 동안 인공신경망이라는 용어만 들어가도 논문 채택이 거절당할 정도로 부정적 인식이 강했기 때문에 사람들의 이목을 끌 수 있는 새로운 단어가 필요했기 때문이다. 그래서 2006년부터는 딥러닝(Deep Learning)이라는 용어가 사용되기 시작했다.
[Note] 사전훈련(Pre-training)이란?
선행학습이라고도 부르며, 다층 퍼셉트론에서 가중치와 편향을 제대로 초기화시키는 방법이다.
그리고 이때부터 인공신경망(Neural)이라는 용어 대신 "딥(Deep)"이라는 용어를 사용하기 시작했다. 길고 긴 침체기 동안 인공신경망이라는 용어만 들어가도 논문 채택이 거절당할 정도로 부정적 인식이 강했기 때문에 사람들의 이목을 끌 수 있는 새로운 단어가 필요했기 때문이다. 그래서 2006년부터는 딥러닝(Deep Learning)이라는 용어가 사용되기 시작했다.
[Note] 사전훈련(Pre-training)이란?
선행학습이라고도 부르며, 다층 퍼셉트론에서 가중치와 편향을 제대로 초기화시키는 방법이다.