観客がノブをひねると,あらかじめ用意したメタローグ詩 × 声 × 映像 × 音のパラメータが同時に揺れて「対話」を感じられること。
リアルタイム生成は封印するので、準備フェーズと再⽣フェーズをきっちり分ければ仕込みも当日の運⽤もシンプルになります。以下、**「24 h で動く最小構成 → 考査3以降で拡張」**という2段ロケットで整理しました。
ステップ | やること | コツ・ツール例 |
---|---|---|
1. メタローグ詩を決める | 詩 A/B/C… 各 8 – 12 行(短句)を TXT で用意 | ChatGPT+あなたの推敲 → “揺れ”が出る言い回しを複数 |
2. 行ごとに ID を振る | A01, A02 … B01 … |
後で JSON 紐付け用 |
3. 声素材を作る | - あなた:スマホ録音- oupe ec:TTS or RVC で別声色 | 行ごとに WAV 名=ID.wav に揃える |
4. 映像シードを生成 | ComfyUI 廻し:prompt=行テキスト | 生成サイズ 1280×720 / 3 s ループで軽量化 |
5. 映像・声・メタ情報を 1 枚 JSON に | json { "id":"A01", "txt":"青い輪郭…", "wav_human":"A01_h.wav", "wav_ai":"A01_o.wav", "mov":"A01.mp4" } |
Excel → csv → python で変換すると速い |
6. BGM パッチ雛形を作る | Pure Data で・Pad・Perc・Noise の3レイヤ | それぞれ OSC で volume / FX / speed を受け取るだけ |
[MIDI ノブ] ─▶ python
├─ 行ID をインデックスシフト
├─ OSC /voice/human <file>
│ /ai <file>
├─ OSC /video <file>
└─ OSC /bgm/volPad 0-1
/bgm/pitch −12-+12
コンポーネント | 役割 | 推奨ソフト |
---|---|---|
python プレイヤー | ・JSON を読み込み・ノブ値→行ID, パラメータ計算・OSC発射 | python-osc , pygame.mixer (クリック音も可) |
TouchDesigner | MOV 読み込み & シーン合成(Hue / Zoom / Blend を CHOP で) | Text TOP で行テキストも重ねると判読可 |
Pure Data | BGM パッチ再生+FX (reverb/delay)声 WAV もこちらでトリガ | readsf~ → dac~ 繋ぎ替えだけなら10分 |
ノブ | 変わるもの |
---|---|
K1 | 行 ID(±1 ずつ) |
K2 | 映像 Hue シフト |
K3 | BGM Pad Volume |
K4 | BGM Pitch (-4 ~ +4 半音) |
1 行・1 ループが滑らかに切り替わるだけで「いじる前→後」の差異が体感できる。