To-do's
- multimodal - 유빈
- introduction - 유빈
- visually supervised language models - 유빈
- vokens: visualized tokens
- the voken-classification task - 수학: 공통
- two challenges in creating vokens
- vokenization - 공통 : 여기를 정독해서, 이번주 토요일에 discuss.
- the vokenization process - 수학
- contextual token-image matching model - 수학
- revokenization - 수학
- experimental setups and results - 예진
- pre-training data and fine-tuning tasks
- implementation details
- results
- analysis - 예진님
- limit of visually-grounded language
- token-level vs. sentence-level approaches - 수학
- visualization of vokens
- related work - 예진님
- conclusion - 예진님
- appendix - 수식 다수 - 공통
첫번째 미팅
Wed, 3rd of March
기존의 NLP 모델과 테스크를 설명하는게 필요할 것.
일단 BERT에 대한 간략한 설명. → bert를 소개하는 부분에서 덧붙이면 될 것 같아요.
데이터셋 - squad, ms coco → 각 데이터 셋의 예시 샘플을 덧붙이면 될 것 같아요.
appendix는 따로 준비할필요는 없지만, 수식의 이해는 필요. → 논문에서 appendix를 언급하는 경우, 설명을 하는 것이 필요할 것 같아요.
visual pointing. - Bloom의 책에서, 이게 정확히 어떤 현상을 가리키는 것인지?
multimodal가 필요한 이유 워크샵. - https://nips2018vigil.github.io
- Multimodal Deep Learning (MIT)