To-do's

  1. multimodal - 유빈
  2. introduction - 유빈
  3. visually supervised language models - 유빈
    1. vokens: visualized tokens
    2. the voken-classification task - 수학: 공통
    3. two challenges in creating vokens
  4. vokenization - 공통 : 여기를 정독해서, 이번주 토요일에 discuss.
    1. the vokenization process - 수학
    2. contextual token-image matching model - 수학
    3. revokenization - 수학
  5. experimental setups and results - 예진
    1. pre-training data and fine-tuning tasks
    2. implementation details
    3. results
  6. analysis - 예진님
    1. limit of visually-grounded language
    2. token-level vs. sentence-level approaches - 수학
    3. visualization of vokens
  7. related work - 예진님
  8. conclusion - 예진님
  9. appendix - 수식 다수 - 공통

첫번째 미팅

Wed, 3rd of March

기존의 NLP 모델과 테스크를 설명하는게 필요할 것.

일단 BERT에 대한 간략한 설명. → bert를 소개하는 부분에서 덧붙이면 될 것 같아요.

데이터셋 - squad, ms coco → 각 데이터 셋의 예시 샘플을 덧붙이면 될 것 같아요.

appendix는 따로 준비할필요는 없지만, 수식의 이해는 필요. → 논문에서 appendix를 언급하는 경우, 설명을 하는 것이 필요할 것 같아요.

visual pointing. - Bloom의 책에서, 이게 정확히 어떤 현상을 가리키는 것인지?

multimodal가 필요한 이유 워크샵. - https://nips2018vigil.github.io