Research

Research

DNN/SNN 통합 컴파일러 & SW 플랫폼

상용 포맷으로 표현된 AI 모델을 MLIR로 통합하고, 최적화/코드생성/실행/디버깅까지 전 과정을 한 번에 제공하는 통합 프레임워크를 지향합니다.

Goal End-to-end Compile · Run · Debug
Frontends ONNX · snnTorch

오픈 생태계 입력 수용

Core MLIR Optimization

백엔드 독립 최적화/변환

Backends CPU · GPU DNN · SNN

타겟별 코드 생성 및 통합

Why Hybrid xNN (DNN+SNN)

DNN의 인식률과 SNN의 효율성을 결합하는 하이브리드 모델(xNN)의 부상으로, DNN과 SNN을 동시에 지원하는 컴파일러/SDK의 필요성이 커지고 있습니다.

1

SNN 모델 다양성

뉴런/학습 방식이 다양해 컴파일 복잡도 증가

2

Spatial mapping 난이도

non-von-Neumann 구조에서 배치/라우팅이 핵심 병목

3

QoS 런타임

이종 코어에서 효율/서비스 품질을 동시에 보장

Roadmap 1Y → 4Y
Year 1 Baseline

프레임워크 구축, MLIR 요구사항 설계, SNN ISA/시뮬레이터 착수

Year 2 Prototype

인터페이스/API, MLIR 최적화 모듈, 하이브리드 변환/런타임 프로토타입

Year 3–4 Scale

sLLM 포함 벤치마크 검증, 백엔드 고도화, SW 공개/통합개발환경 연동