🐻

구현 파이프라인

<aside> 💡

  1. ipynb 테스트

    백엔드 폴더 입력 → 파일 경로, 파일명과 코드를 하나의 txt로 저장 → LLM이 코드를 흐름별로 정리 → OCR로 함수, 입출력값 좌표 추출 → OpenCV로 화살표 그리기

  2. py 테스트

    백엔드 폴더 입력 → 확장자 제거 후 하나의 file

    하나의 file → 시각화 제공

  3. 서버 테스트

    FastAPI에서 localhost:8000/code localhost:8000/visualize 되는지 테스트

  4. 조영 훤과 붙이기 </aside>


MEMO

1. 파일(폴더) 병합 - txt파일로 묶기

2. LLM을 사용한 코드 흐름 구현

2-1 OpenAI 모델 분석

2-2 파이썬 파일로 합치기(.py)

2-3 FastAPI 테스트

3. OCR TEST


할 일 MEMO

12월 17일

프론트엔드에서 받은 텍스쳐 파일 받아서 → LLM 분석

  1. LLM 속도, 정확성, 설명 향상 목표
  2. 추가로 변수, 함수 흐름 만들 수 있으면 만들기
  3. 어떻게 시각화 할 지 계속 생각하기.

12월 22일

  1. OCR테스트 마무리 하기.
  2. figma 마스터하기. → 버튼 기능 활성화.

12월 23일

  1. figma 공부해서 사용법 팀원 공유
  2. 발표 준비(트러블 슈팅, 핵심 코드, 모델 분석)
  3. notion 포트폴리오 정리하기

12월 29일

  1. paddleOCR 학습 내용 공유

12월 30일

  1. 데스크탑으로 LLM 시간 테스트하기 → 3분10초
  2. 피그마로 스터디 내용 정리 ⭕
  3. OCR → CPU버전/ GPU버전 나눠서 성능 비교 ⭕
  4. 백엔드 QA해서 보고하기