cs230_lec6_C5W2

Updated:

NLP and Word Embedding

Word Representation

  • 1-hot representation : 한개의 Dictionary 위치값으로 표현하는것
  • 다음에 나올 단어들을 서로 연결해보면 다음과 같이 Visualize 가능
  • T-SNE를 통해 2D로 줄일 수 있음
  • 이렇게 관련된 데이터들을 연결하는 것을 Embedding이라고 함

Using word embeddings

  • unlabled text를 보면서 embedding을 배울 수 있음
    • 두리안을 예로 듬. 두리안은 잘 안쓰이는 단어라 학습이 안되더라도 해당 자리에 들어가므로 과일임을 유추하게 됨
    • 전이 학습을 가능하게 함
  • Transfer learning을 하기 위해서는
    • 많은 텍스트 말뭉치에서 단어 embedding을 배우기 or 온라인으로 미리 학습된 embedding을 받기
    • 더 작은 학습 셋을 가지고 있는 새로운 문제에 embedding한 것을 전이해보기
    • optional : 새로운 데이터로 계속 fine tunning 해보기

Properties of word embeddings

  • Analogy reasoning을 도와준다
    • 비슷한 분류기준끼리 구분시켜주는 것
  • Similarity측정

Cosine Similarity

  • Similarity를 측정하는 가장 기본적인 방법
    • Man:Woman as Boy:Girl 같은 문제에서

Embedding matrix

  • Embedding matrix E를 아는 것이 목표
  • E를 initialize한 뒤에 Gradient descent를 통해서 학습함
  • $E /O_j=e_j$를 통해서 word j에 대한 embedding을 얻을 수 있음
  • 차원이 크기 때문에 Matrix vector multiplication으로 하기에는 문제가 있음
    • 실제로 적용하기 위해서는 matrix e 의 Column을 보는 특화된 함수를 사용함
    • 수식으로 쓰기에는 위 방식이 편리함

Learning Word Embedding

  • Neural Language model

    Context/target

  • 예측을 하기 전에 있는 단어들인, Context라는 문맥 벡터들이 필요함
  • Context의 길이는 자기가 설정하는 것

Word2vec

  • 모두 다 언어 처리 관련 내용이라 생략하겠음

$$

Leave a comment