ReLU

🏷️ 정보 딥러닝

ReLU

ReLU(Rectified Linear Unit)는 \(\text{ReLU}(z) = \max(0, z)\)로 정의되는 신경망 활성화 함수이다. 단순하지만 시그모이드, tanh 대비 기울기 소실 문제를 완화하여 딥러닝의 발전에 핵심 역할을 했다.

핵심

수식

\[\text{ReLU}(z) = \max(0, z) = \begin{cases} z & z \geq 0 \\ 0 & z < 0 \end{cases}\]