You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
이 모델은 "너는 진짜 나쁜 새끼다"라는 문장이 욕설인지 아닌지 판별하는 선형회귀 모델입니다. 다만 딥러닝 원본 모델과 다르게 이 모델은 "너는 진짜 나쁜 새끼다." 라는 문장 데이터 포인트 근방에서만 유효한 모델입니다.
$y$ 는 이 문장이 욕설일 확률입니다. 여기에서 이 문장이라는 것이 뭘까요? 곧 나옵니다.
$\beta$는 Learnable Parameter로 각 단어에 대한 가중치를 의미하며, 이 값이 클수록 해당 단어는 $y$ 값을 높게 만드므로 일종의 욕설 기여도 점수라고 해석할 수 있습니다.
$x$는 해당 단어가 빠졌나 안 빠졌나를 의미하는 값입니다. 이제 우리가 단어 몇 개를 빼서 유사한 문장을 만들 것인데, 예를 들어 "새끼다" 라는 단어를 빼서 "너는 진짜 나쁜" 이라는 문장은 $x_{너는} = 1, x_{진짜} = 1, x_{나쁜} = 1, x_{새끼다} = 0$ 이 되는 것입니다.
이 $x$ 값을 바꿔가며 여러 샘플들을 만들고 그 문장이 욕설일 확률을 $y$ 라고 하는 것입니다.
제가 $x$ 값을 바꿔가며 만든 샘플들을 $s_{1}, s_{2} ... , s_{m}$ 라고 하겠습니다.
그러면 각 $s$ 들에 대응되는 선형 회귀 모델의 예측값 $y$가 있을 것입니다.
한편, 각 $s$를 원본 딥러닝 모델에 넣어 얻은 값들을 $y'$ 라고 합시다.
저희는 $y'$와 $y$ 값의 제곱 오차를 최소화 시키는 $\beta$ 를 GD 등을 통해 구하는 것입니다.
그런데 여기에서 모든 $s$ 들이 다 똑같은 중요도를 가지고 있는 것이 아닙니다.
어떤 $s$는 원본 문장이랑 의미가 크게 차이날수도 있습니다. 예를 들어 "너는" 이라는 샘플은 원본 문장의 의미와 차이가 많이 납니다.
그래서 각 $s$를 원본 문장과 Similarity를 계산합니다. 그래서 가중치 $w$ 를 얻습니다.