1. 연구 주제명
"뇌를 닮은 시각 지능: Vision SNN을 위한 시공간 RoPE 개발"
(Brain-Inspired Vision: Optimizing SNN Transformers with Spatiotemporal RoPE)
2. 한 줄 요약
<aside>
💡
이미지의 '공간(Spatial)' 정보와 뉴로모픽 칩의 '시간(Temporal)' 정보를 충돌 없이 동시에 처리할 수 있는 새로운 위치 인코딩(RoPE) 기술 개발
</aside>
3. 핵심 도식

4. 연구 개요 및 목표
- 배경: 이전 연구 SNN의 학습 불안정(CIKM2025)과 SNN에서의 RoPE(ICLR2026 submitted)을 통해 SNN에서 RoPE가 사용 가능하며 positional encoding(PE) 적용 시 모델의 성능이 향상됨을 입증
- 문제: vision task에서 RoPE 적용 시, 오히려 성능이 감소하는 현상을 발견. 이미지 데이터 및 SNN의 spike 특성에 맞는 RoPE 방법이 필요
- 목표
- RoPE를 위한 어텐션 모듈(모델) 개발
- vision task의 특성에 맞는 RoPE 방법 개발
5. 실험 설계
- 데이터셋
- 일반: ImageNet, CIFAR10, CIFAR100
- SNN 특화: CIFAR10-DVS, DVS 128-gesture, N-caltech
- 비교대상
- Spikformer (2023)
- Spike-Driven Transformer (2023)
- QKFormer (2024)
- SpiLiformer (2025)
- 방법
6. 연구실 선행연구
- [ICLR2026 submitted] https://openreview.net/forum?id=6c2h6mZVfu
- [CIKM2025] Seung Kyu Hong and Hyuk-Yoon Kwon*, "Adaptive Spike Neural Networks for Natural Language Inference Tasks with Dynamic Spike Predictor," In Proc. the 34th ACM International Conference on Information and Knowledge Management (CIKM), Seoul, Korea, Nov. 2025. TOP CONFERENCE in IR and DB
7. 타겟 학회
- ICML (1월 중), IJCAI (1월 말), ICCV (3월) 중 하나