Research
Research
DNN/SNN 통합 컴파일러 & SW 플랫폼
상용 포맷으로 표현된 AI 모델을 MLIR로 통합하고, 최적화/코드생성/실행/디버깅까지 전 과정을 한 번에 제공하는 통합 프레임워크를 지향합니다.
Goal End-to-end Compile · Run · Debug
Frontends ONNX · snnTorch
오픈 생태계 입력 수용
Core MLIR Optimization
백엔드 독립 최적화/변환
Backends CPU · GPU DNN · SNN
타겟별 코드 생성 및 통합
Why Hybrid xNN (DNN+SNN)
DNN의 인식률과 SNN의 효율성을 결합하는 하이브리드 모델(xNN)의 부상으로, DNN과 SNN을 동시에 지원하는 컴파일러/SDK의 필요성이 커지고 있습니다.
1
SNN 모델 다양성
뉴런/학습 방식이 다양해 컴파일 복잡도 증가
2
Spatial mapping 난이도
non-von-Neumann 구조에서 배치/라우팅이 핵심 병목
3
QoS 런타임
이종 코어에서 효율/서비스 품질을 동시에 보장
Roadmap 1Y → 4Y
Year 1 Baseline
프레임워크 구축, MLIR 요구사항 설계, SNN ISA/시뮬레이터 착수
Year 2 Prototype
인터페이스/API, MLIR 최적화 모듈, 하이브리드 변환/런타임 프로토타입
Year 3–4 Scale
sLLM 포함 벤치마크 검증, 백엔드 고도화, SW 공개/통합개발환경 연동