기록하는삶

[AI/빅데이터] 헵의 규칙, 단층 퍼셉트론, 다층 퍼셉트론 본문

AI

[AI/빅데이터] 헵의 규칙, 단층 퍼셉트론, 다층 퍼셉트론

mingchin 2021. 9. 22. 01:52
728x90
반응형

1) 헵의 규칙(Hebb Rule)

출처: 실험심리학 용어사전

인공신경망(ANN _ Artificial Neural Network)의 가중치(Weight) 개념의 도입 이론인 헵의 규칙. 두 뉴런간의 상관관계가 강할수록 큰 효율(weight)을 갖는다는 이론이다. 인공신경망이 인간의 신경망을 본따 만드는 것이므로, 헵이 제안한 학습 규칙이 퍼셉트론에 거의 유사하게 적용된다.

2) 단층 퍼셉트론(Perceptron)

출처: 위키백과

(단층)퍼셉트론의 개념도

지도학습이 가능한 인공신경망의 한 종류다. n개의 input에 각각 weight를 적용, 그 가중치의 선형 결합을 구하는 형태로 입력과 출력으로 구성된다. 다수의 신호를 입력해 하나의 신호를 출력하는데, 이때 단층 퍼셉트론은 하나의 층(layer)만을 두고 활성화 함수*(Activation function)로 계단함수(step function)를 사용해 결과값으로 임계값(보통 0)이 넘으면 1을, 그렇지 않다면 -1을 출력하도록 구성된 퍼셉트론을 말한다. And 연산과 OR 연산은 가능하지만, XOR 연산이 불가능하다는 한계를 가진다.

*

활성화함수(Activation function)

입력 신호의 선형 결합이 활성화를 일으키는지 아닌지를 확인하는 함수로, 입력 신호의 선형 합을 출력 신호로 변환하는 함수를 말한다. 항등함수(Identity Function), 경사함수(Ramp Function), 계단함수(Step Function), 시그모이드 함수(Sigmoid Function)등이 그 예이다.

3) 다층퍼셉트론

하나 이상의 은닉층(hidden layer)을 포함하는 전방향(feedfoward) 신경회로망. 단층퍼셉트론의 한계인 XOR 연산이 가능하고, 오차역전파법(back propagation)을 이용하면 최적의 Weight와 Bias를 학습하는데 있어 그 속도를 높일 수 있다.

다층퍼셉트론의 개념도

728x90
반응형