">
<head>
<!-- HTML Meta Tags -->
<meta charset="UTF-8" />
<title> 노트북LM </title>
<meta
name="description" content=" 노트북LM " />
<meta name="keywords" content="구글,구글AI, 구글LM, 노트북LM, 양파고, Yang Phago, 노션, 양파고 노션, notion" />
<!-- Open Graph / Facebook -->
<meta property="og:title" content="노트북LM " />
<meta property="og:description" content=" 구글,구글AI, 구글LM, 노트북LM, 양파고, Yang Phago, 노션, 양파고 노션 " />
<meta property="og:image" content="대표 이미지" />
<meta property="og:url" content="페이지 주소" />
<meta property="og:type" content="website" />
</head>
<aside> 💡 나만 알고 싶은 AI서비스:https://notebooklm.google.com/ 치명적 단점: 소스가 많아지면 답변 생성에 지연이 발생.
</aside>
대형 언어 모델(LLM), 검색 기반 생성(RAG), 캐시 기반 생성(CAG)의 주요 특징 비교
구분 | LLM (Large Language Model) | RAG (Retrieval-Augmented Generation) | CAG (Cache-Augmented Generation) |
---|---|---|---|
정의 | 사전 학습된 대규모 언어 모델 | 외부 지식을 실시간으로 검색하여 응답 생성 | 외부 지식을 사전에 로드하여 캐시에 저장하고 응답 생성 |
지식 소스 | 사전 학습된 데이터에 기반 | 외부 문서나 데이터베이스에서 실시간 검색 | 사전에 로드된 문서나 데이터 |
응답 생성 방식 | 입력에 기반하여 내재된 지식으로 생성 | 검색된 외부 지식을 포함하여 응답 생성 | 캐시에 저장된 지식을 활용하여 응답 생성 |
장점 | 빠른 응답 속도, 단순한 구조 | 최신 정보 반영 가능, 출처 명시 가능 | 낮은 지연 시간, 일관된 응답, 검색 오류 감소 |
단점 | 최신 정보 반영 어려움, 환각 가능성 | 검색 지연, 검색 오류 가능성 | 캐시 크기 제한, 초기 로딩 시간 필요 |
적합한 사용 사례 | 일반적인 대화, 사전 학습된 지식 기반 응답 | 최신 정보가 필요한 질의응답, 문서 기반 검색 | 안정적인 지식 기반 응답, 낮은 지연 시간이 중요한 경우 |
공통점: 모두 대규모 언어 모델의 성능을 향상시키기 위해 개발된 기술
📌 요약
환각 현상이 없음, 이유는 내가 제시한 소스자료에서 검색해서 답변을 제공하기 때문
최대 컨텐스트 윈도우로 미쳐버림