01 멘토 소개

김태윤
- T3K 에서 언어 모델 사전 학습 및 이를 기반으로한 자연어 처리 모델링을 연구/개발하고 있습니다.
- 초대형 언어 모델링 및 대화형 인터페이스에 필요한 언어 이해, 질의 응답, 응답 생성 등의 기술에 관심이 많습니다.
02 프로젝트 소개
- 최근에 BERT 나 GPT 등 Transformer 기반의 사전 학습된 언어 모델 (Pre-trained language model) 을 기반으로 한 자연어 처리 기법이 소개된 이후에 자연어 처리 성능은 비약적으로 개선되고 있습니다.
- SKT 에서는 2019년 부터 한국어 사전 학습 모델인 KoBERT, KoGPT2, KoBART 등을 공개하고, 이것을 기반으로 하는 다양한 자연어 처리 모델을 연구/개발 해오고 있습니다.
- 이 프로젝트에서는 KoBERT, KoGPT2, KoBART 등을 활용하는 자연어 처리 모델의 개발을 진행해 보고자 합니다. 예를 들어 AI Ethics(혐오 표현 검출), Green AI(모델 경량화, 효율적 학습), Intelligent inferface(질의응답, 대화, 요약 등) 와 관련된 모델을 개발하고 어플리케이션을 개발해 볼 수 있습니다. 물론 다른 창의적인 아이디어도 환영합니다.
- 선정된 팀에게는 사전 학습 언어 모델 기반의 자연어 처리 모델링에 관한 기술적 조언을 제공할 계획입니다.
03 이런 fellow를 찾습니다
- 사전 학습 언어 모델을 사용하는 창의적인 자연어 처리 어플리케이션을 개발하고 싶으신 분
- 딥러닝 기반의 자연어 처리 경험이 있는 분
- 최신 자연어 처리 연구/개발 동향 이해가 있는 분