softmax

Basic_Deep_Learning 우리가 이미 알고 있는 것. Regression : $ y = ax + b $ Minimize Cost $H(x) = Wx$ 간단하게 표현 $Cost(W) = \sum_{1}^{m}({Wx}^{i}-{y}^{i})^2$ W 값을 변경해 가면서 Cost값이 가장 낮은 곳을 찾는다. Gradient Descent (경사하강법) 위의 Cost값을 최소한으로 하는 W를 찾아내는 방법을 Gradient Descent라 한다. 신경망의 특징 신경망의 경우 활성화 되고 안되고 즉, 결과값이 0 또는 1값을 가지게 된다. 최종 Output의 경우 적용 되는 부분 X라는 값으로 Y로 출력 X라는 값이 입력될 때 가중치 W가 적용되고 각 값에 대해서 Bias (B)가 가해 진다. 즉, ..
J_Today
'softmax' 태그의 글 목록