먼저 대회를 열심히 준비해주시고 끝까지 완주해주셔서 감사합니다. 최선을 다한 만큼 피로도가 높았을텐데, 아주 높은 퀄리티의 리포트를 작성해주셔서 놀랐습니다. 몇몇 마이너한 이슈를 제외하면 손볼 곳이 없는 좋은 리포트입니다. 제 개인적인 생각이나 궁금증(더 생각하면 좋은 것들)을 언급하겠습니다.

[DKT wrapup report]

1.1. 프로젝트소개 KT는 유저의 지식 상태 추이를 파악하여 ... 의미한다. 물론 많은 사람들이 KT를 이렇게 설명합니다. 저는 여러분들이 겪어본 DKT에서 유저의 지식 수준을 파악한다는 생각이 드셨는지 질문을 던지고 싶습니다. 이 대답은 멘토링 시간에 들려주세요!

3-1-2. Baseline Refactoring Refactoring을 해야하는 이유(기존 코드의 아쉬운 점), Refactoring 개요를 간단히 요약하면 가독성이 높은 글이 될 것 같습니다.

3-1-4 > 그래프 모델: Higher-order connectivity를 NCF에서 말하는 higher-order connectivity(MLP 파트)와 비교하면 어떤 차이가 있나요?

3-2-1. 지연된 부분이 있었다. -> 지연되었다. 로 줄일 수 있습니다. 보고서에선 최대한 깔끔하게 글을 쓰면 좋아요!

3-2-2 Riiid 캐글 대회의 예시코드를 참고하였다. <- 삭제해도 좋은 문장 같습니다!

3-2-3 > 2. 시간 정보를 활용한 평균 정답률 (요일, 월) <- 직관적으로 맥락을 파악하기 어렵습니다. (요일, 월) 설명이 좀 더 구체적이면 좋을 것 같아요.

3-2-3 > Data Augmentation에서 ablation study를 해보셨는지 궁금합니다. -> 보고서 후반부[4. 자체 평가 의견 > 잘한 점들]에 끝 문항을 모두 예측하는 것으로 바꿨다는 글을 읽었습니다. 강화학습 알고리즘 중 HER라는 알고리즘이 있습니다. 강화학습은 loss대신 reward를 이용해서 알고리즘을 업데이트 합니다. HER에서 재미있는 아이디어는 pseudo reward를 만드는 것인데요. 마지막 action을 예측하기 위해서 seq[0:-2] 를 인풋 마지막 seq[-1]이 output인 형태로 가짜 path를 만드는 과정을 거쳤습니다. 이 방식을 Data Augmentation에 활용해봐도 좋을 것 같다는 생각이 들었습니다. 구체적으로 길이가 긴 유저의 응답에 대해서 고정된 길이의 순서를 유지한 채 sub-sequence를 뽑는 것 입니다. 물론 너무 많이 뽑으면 특정 학생의 bias가 너무 커질 것 같지만 적당히 뽑아보면 어떻까하는 생각이 들었습니다.

3-2-4. Modeling 전체 성능을 비교한 그림을 넣으면 어땠을까하는 생각이 들었습니다. 그리고 ensemble score가 없는 점이 아쉬웠습니다.

3-2-4. Modeling > 2. 그래프 모델 > UltraGCN 문장 중간에 Adjacency matrix의 A를 소문자 a로 고치면 좋겠습니다. 중간 중간 다른 곳의 영단어도 규약을 통일시키면 좋을 것 같아요.

  1. 자체 평가 의견

[개인회고]

강수헌 캠퍼님

  1. 상대방의 의견과 나의 의견의 소요 시간을 비교한다.
  2. 두 의견이 가지는 장점과 단점을 비교한다.
  3. 상대방의 말을 제대로 이해한게 맞는지 되물어서 확인한다.
  4. 대화 중에 감정이 발현되면 의견을 내는 것을 잠시 중단한다. 이 네 가지만 잘 지켜도 꽤나 건실한 대화가 되는 것 같아요.

김동건 캠퍼님

백승렬 캠퍼님

양성훈 캠퍼님

유상준 캠퍼님