안녕하세요. LG AI Research, EXAONE Lab 김소연입니다. 저희 팀은 LLM, VLM 연구개발을 하고 있습니다.
이 연구개발을 함께해주실 ‘정말’ 훌륭한 인턴을 뽑고 있습니다. 훌륭한 분들을 뽑고 싶은 마음에 좀더 자세하게 예시를 적어보았습니다. 아래 내용을 보며 ‘혹시 난가?’ , ‘이게 진짜 중요한데?’라면 지원을 통해 여러분의 장점과 열정을 저희에게 알려주세요!
- LLM Agentic tool use / search
- LLM 사용성 관점 및 safety
- LLM pretraining
- VLM 전반
- 팀 분위기 및 얻어가실 수 있는 것
- 아묻따. 그동안 갈고닦았으니 바로 지원하겠다.
EXAONE. EXAONE. 함께. 연구개발. 밤낮없이. 할 분. Question.
-
LLM Agentic tool use / search 쪽 연구 개발 경험 또는
- 이 분야 중요한 벤치마크를 파악하고 있고 공개 모델로 평가를 돌려봤다?
- 이 분야 공개된 학습 데이터를 까봤고, 근데 ‘공개된 데이터 퀄리티나 논문이’ 안좋아보였고 나라면~ 이렇게~ 했을텐데~ 를 생각해 본적 있다.
- 이 분야에 경험은 없지만 본인이 하신 이전 연구 개발 경험이 agentic tool use/search로 충분히 확장 가능한 것 같아 도전해보고 싶다?
- 이 분야에 연구개발 경험은 없지만 다른 공개 모델로는 tool use/search가 여기까지 되는데 K-EXAONE은 잘 안돼서 실망했거나😩 이것에 대해 고민해봤고 개선해보고 싶은 훌륭한 분
-
LLM 사용성 관점 및 safety 와 관련한 연구 개발 경험 또는
- 공개 모델의 사용성을 높이려면 이게 ‘핵’이다 라는걸 정의하고 그 기능 개발을 하고 싶은 nerd
- 노력 해도/안해도 모델 jailbreaking이 쉬우신.. 무서운 사람
-
LLM pretraining 단계 연구 개발경험 또는
- Pre-training 데이터에 대한 관심과 이해가 있고 아래(토글)에 있는 work을 알고 있거나 착안해서 ‘직접 경험해보고 싶은 분’
- 대용량( ~TB 이상) 데이터 처리 파이프라인 경험이 있거나 관련 오픈소스 컨트리뷰터
- 작은 스케일의 데이터라도 본인의 타당한 퀄리티 기준을 세우고, 필터링/생성해서 최종적인 모델 성능 개선을 이뤄본 설계와 엔지니어링이 가능하신 분
- 요새 유행하는 agent, reasoning 보다 본질적인 LLM 모델의 memorization에 대한 호기심과 관련한 시도를 해보신 분
-
VLM 연구 개발 경험 또는
- VLM 공개 학습 데이터에 대한 부족함과 이상함을 인지하고 개선해보고 싶은 분
- VLM 에게 필요한 ‘일상적 지식’을 정량화하고 이를 Data-centric 하게 개선 시도를 해보신 분
- 기성의 Vision 모델과 다르게 VLM 에게 ‘부족한 다양한 시각적 능력’을 발굴, 정량화하고 이를 Data-centric 하게 개선해보고 싶은 분
- VLM Reasoning 의 SFT/DPO/RLVR 관점에서 최신 연구를 잘 따라가고 있고 직접 적용해보고 싶으신 분
- VLM 경험은 부족하지만 LLM Reasoning 능력을 VLM에게 효과적으로 transfer 할 수 있는 방법을 고민해보고 싶은 분
- VLM 경험은 부족하지만 본인의 이전 연구(e.g LLM 연구)가 VLM의 instruction following, safety에도 충분히 확장할 수 있다고 생각하시는 분
- VLM의 GUI/agent 관점에서 최신 연구를 잘 따라가고 있고 실제 모델 개발에서 데이터, 학습 과정의 파이프라인 설계에 함께하고 싶은 분
얻어가실 수 있는 것
- 석/박사를 하시면서 아카데미아에 있다보면 느낄 수 있는 아쉬움과 간지러움증을 해소할 수 있는 경험
- ~K, ~M 의 단위는 상대적으로 작은 단위입니다. 학계에서 하기 어려운 스케일링이 가능합니다.
- 논문을 위한 논문에 지쳤다면 Real world에서 하는 고민을 알아볼 수 있습니다.
- 아주 좋은 방법론이라도 시간과 자원이 오래 들면 못합니다. 이런 상황에서 Practical하게 문제를 어떻게 풀지 고민해볼 수 있습니다.
- 인턴십의 시간으로 진짜 필요한 연구 아이템 +1 가능할지도.