본문 바로가기
머신러닝

[머신러닝] MLP (Multi Layer Perceptron)

by 의문의 효몽 2023. 11. 16.

Perceptron 구조

입력층(input layer)과 출력층(output layer)으로 구성

Perceptron의 구조

 

 

Single-Layer Perceptron (단층 퍼셉트론)

    각 입력(x)에 대응되는 weight(w), 1개의 노드에 입력되는 bias(b)존재

     가중합으로 얻어진 결과치에 활성화 함수(h) 적용

     층 수 : 1개

        → 모델의 층 수를 셀 때, 보통 입력층은 생략함. 따라서, 1개의 층을 갖는다.

 

 

 

Multi-Layer Perceptron (MLP, 다층 퍼셉트론)

     각 입력(x)에 대응되는 weight(w), 1개의 노드에 입력되는 bias(b)존재

     가중합으로 얻어진 결과치에 활성화 함수(h) 적용

     층 수 : 2개 이상

        → hidden layer가 1개이면 얕은 신경망, hidden layer가 2개 이상이면 깊은 신경망

 

 

 


Fully Connected layer (FC layer, 전 결합 계층)

     각 층별로 모든 노드가 연결되어 weight를 가지는 계층

     한 층의 모든 노드가 다음 층의 모든 노드와 완전히 연결된 상태

 

ex) input nodes=10, hidden nodes=10 output nodes=20
Q. 2-layer perceptron에서 가지는 weight(w)의 개수는?
A. 300
Q. 2-later perceptron에서 가지는 bias(b)의 개수는?
A. 30