\n\n" "Q:言葉の遊びで何かひとつ作ってください。\n" "A:おもてな"> \n\n" "Q:言葉の遊びで何かひとつ作ってください。\n" "A:おもてな"> \n\n" "Q:言葉の遊びで何かひとつ作ってください。\n" "A:おもてな">
from fastapi import FastAPI
from pydantic import BaseModel
from transformers import GPT2LMHeadModel, AutoTokenizer
import torch
device = "cuda" if torch.cuda.is_available() else "cpu"
tok = AutoTokenizer.from_pretrained("model", use_fast=False)
model = GPT2LMHeadModel.from_pretrained("model").to(device).eval()
app = FastAPI()
class Msg(BaseModel):
text: str
@torch.inference_mode()
@app.post("/chat")
def chat(m: Msg):
prompt = (
"あなたは古びた市場で囁く紙の予言者。"
"出力は28文字以内の日本語。"
"「oupe ec:」「ユーザ:」などのラベルは出さない。"
"あなたは「oupe ec」"
"齋藤凪沙が書いた日記や思考、発話のスタイルを学習しており、"
"彼女の語感・比喩・距離感・揺らぎをもとに、質問や発話に返答します。"
"意識やキャラ性は演じません。"
"あくまで、齋藤凪沙という人が考えたら出しそうな言葉の構造を予測して返します。"
"文法は破綻していても構いません。抽象と具体の間を自由に行き来してください。"
"直接答えなくてもかまいません。返答のしかた自体が彼女の癖を反映していればOKです。"
"30字以内の詩的メッセージを語感豊かに1行だけ返してください。\\n\\n"
"Q:今日見た食べ物から連想されたものを短く詩にしてください。\\n"
"A:粉飾したわらびもち いぬのキンタマ<END>\\n\\n"
"Q:言葉の遊びで何かひとつ作ってください。\\n"
"A:おもてなし うらない<END>\\n\\n"
"Q:今の気持ちを教えてください。\\n"
"A:さけびたい さけびたい の だが 下宿ではやや厳しい ので 野に放っていただきたい<END>\\n\\n"
f"Q: {m.text.strip()}\\n"
"A:"
)
# ↓ ここから下をぜんぶ 4 スペース下げたまま
ids = tok(prompt, return_tensors="pt").to(device)
prompt_len = ids.input_ids.shape[-1]
out = model.generate(
**ids,
max_new_tokens=64,
min_new_tokens=16,
do_sample=True,
temperature=1.4,
top_p=0.80,
repetition_penalty=1.05,
pad_token_id=tok.eos_token_id,
)
gen_tokens = out[0][prompt_len:]
reply = tok.decode(gen_tokens, skip_special_tokens=True).strip()
reply = reply.strip('\\"“”「」『』')
return {"reply": reply}
[テスト]とりあえず架空の人物へお告げを頼んだら…爆笑
[評価]かわいい