2026 제 2회 vLLM Korea Meetup 후기

작년에 이어 두 번째로 개최된 vLLM Korea Meetup 현장을 공유합니다. 오픈소스에서 vLLM을 활용한 사례와 실제 현업 적용 사례를 통해 vLLM의 기술적 완성도를 확인해 보세요!
Goeun Kang's avatar
Apr 14, 2026
2026 제 2회 vLLM Korea Meetup 후기
2026 제 2회 vLLM Korea Meetup의 시작
2026 제 2회 vLLM Korea Meetup의 시작
안녕하세요!
스퀴즈비츠 마케팅 매니저 강고은입니다.
날씨가 점점 따뜻해지면서 야외 활동이 늘어나는 계절입니다. 그만큼 오프라인에서 많은 분들을 만날 수 있는 밋업 행사도 많아지는 것 같아요. 😊
지난 4월 2일, 저희 스퀴즈비츠는 리벨리온, 레드햇, 파이토치 코리아 유저 그룹과 함께 작년에 이어 올해 제2회 vLLM Korea Meetup을 개최하게 되었습니다. vLLM은 작년 하반기에도 두 차례 핸즈온 세션을 진행할 만큼 개발자분들의 관심이 큰 분야이기도 한데요. 국내 AI 개발 커뮤니티 성장에 보탬이 되고자 두 팔을 걷어붙인 이번 밋업은, 평일 저녁임에도 불구하고 300명이 넘는 사전 신청과 현장 참석자분들의 뜨거운 열기 속에 연구 사례부터 현업 사례까지 폭넓게 다루며 성황리에 마무리되었습니다.
쉬는 시간 틈틈이 자연스러운 네트워킹이 진행된 모습
쉬는 시간 틈틈이 자연스러운 네트워킹이 진행된 모습

vLLM의 현재와 미래 그리고 상용 환경의 중요성

지난 6개월간 vLLM 생태계는 국산 하드웨어 가속기와의 긴밀한 통합을 통해 한층 더 강력해졌습니다.
첫 번째 발표를 맡아주신 리벨리온의 김홍석 CSA님에 따르면, 리벨리온은 자사 NPU인 ATOM과 REBEL을 위한 전용 하드웨어 플러그인을 공개하며 생태계 확장에 크게 기여했는데요. 특히 엔비디아 H200과 대등한 성능을 갖춘 차세대 NPU ‘REBEL100’ 라인업을 새롭게 선보여 많은 주목을 받았습니다. 이와 함께 vLLM KR 커뮤니티가 실무 중심의 핸즈온 워크샵을 정기적으로 개최하며, 국내 개발자들이 최신 기술을 지속적으로 경험하고 공유할 수 있는 든든한 토대를 마련했다는 점도 강조해 주셨습니다.
리벨리온의 김홍석 CSA님 <vLLM overall update vLLM with rbln>
리벨리온의 김홍석 CSA님 <vLLM overall update vLLM with rbln>
이어서 두 번째 세션에서는 레드햇의 Li Ming님이 글로벌 프로젝트 기여 현황과 사용자 편의성을 높이기 위한 다양한 시도들을 공유했습니다. 특히 복잡한 설정 없이도 누구나 웹에서 vLLM 기능을 테스트하고 성능을 시각화할 수 있는 ‘vllm-playground’ 프로젝트가 소개되어 큰 관심을 끌었는데요. 리벨리온 NPU를 포함한 하드웨어 지원 범위를 넓히고, 엔터프라이즈급 AI 플랫폼인 ‘레드햇 오픈시프트 AI’와의 연동을 강화하는 등, vLLM의 기술적 장벽을 낮추고 접근성을 개선하기 위한 글로벌 커뮤니티의 노력을 확인할 수 있었습니다.
RedHat APAC의 Li Ming님 <vLLM overall update vLLM with rbln>
RedHat APAC의 Li Ming님 <vLLM overall update vLLM with rbln>
세 번째 세션에서는 스퀴즈비츠의 김태수 CTO님이 ‘vLLM Production Stack’을 주제로 발표를 이어받았습니다. 이 세션에서는 vLLM Production Stack이 실제 운영 환경에서 어떤 기능을 제공하는지, 그리고 앞으로 어떤 방식으로 확장될 예정인지에 대한 내용이 다뤄졌습니다. 이제 vLLM이 단순히 모델을 서빙하는 수준을 넘어, LMCache를 통한 비약적인 속도 개선과 Scale-to-zero를 활용한 비용 최적화 등 실제 서비스 환경(Production)에 필요한 운영 기능과 확장성을 갖춰 나가고 있다는 점이 다시 한 번 강조된 시간이었습니다.
스퀴즈비츠의 김태수 CTO님 <vLLM Production Stack>
스퀴즈비츠의 김태수 CTO님 <vLLM Production Stack>

처음 시도해 본 투 트랙(Two-Track) 밋업, 세션의 다양성!

공통 세션을 마치고 본격적인 기술 세션이 진행되었는데요! 이번 밋업의 하이라이트는 참여하시는 분들이 각자의 관심사에 맞춰 골라 들을 수 있도록 준비한 ‘투 트랙’ 세션이었습니다. 오픈 소스 생태계에서의 기술적 도전과 실제 비즈니스 현장의 생생한 사례를 각각 나누어 심도 있게 다뤘습니다. 처음 시도해 보는 방식이라 걱정도 했지만, 한정된 시간 안에 다양한 스펙트럼의 지식을 제공하며 참여하신 분들의 만족도를 극대화할 수 있었어요.
notion image

Track 1: 오픈 소스 생태계에서의 vLLM 활용

첫 번째 세션에서는 엑시나(XCENA)의 이주호님이 데이터 처리 병목을 해소하는 KV Cache 최적화 전략을 발표했습니다. 단순히 계산 속도를 높이는 데 그치지 않고, CXL 메모리와 LMCache를 활용해 대용량 데이터를 더 효율적으로 저장하고 재사용하는 ‘메모리 중심’ 인프라의 진화 방향을 제시했습니다. 이는 단순한 연산 최적화를 넘어 LLM 인프라가 발전하고 있음을 보여주는 사례였습니다.
엑시나(XCENA)의 이주호님 <VLLM Production Stack에서 LMCache & CXL 통합 여정>
엑시나(XCENA)의 이주호님 <VLLM Production Stack에서 LMCache & CXL 통합 여정>
이어지는 세션에서는 업스테이지(Upstage)의 송인서님이 오픈소스 모델 ‘Solar’를 실제 서비스로 구현해 온 과정을 공유했습니다. 업스테이지는 이번 ‘AI 독자 파운데이션 모델’ 프로젝트에도 앞장서고 있는 기업인데요. 발표에서는 모델 학습만큼이나 엔지니어링이 중요하다는 점을 강조하며, Chat Template 설계와 vLLM 통합을 통해 사용자의 다양한 요구사항을 안정적으로 처리해 온 구체적인 노하우를 공유해 주었습니다.
업스테이지(Upstage)의 송인서님 <커뮤니티에 오픈소스 모델 공개하기 with vLLM>
업스테이지(Upstage)의 송인서님 <커뮤니티에 오픈소스 모델 공개하기 with vLLM>

Track 2: 실제 비즈니스에서 vLLM 활용의 사례

트랙 2의 첫 세션은 삼성전자의 김성수님이 기업 환경에서 가장 민감한 이슈인 ‘보안’을 주제로 시작했습니다. 반도체 기업은 특히 외부 AI 서비스를 사용하기가 어려운 환경인데요. 이러한 제약 속에서 사내 GPU 인프라로 프라이빗 LLM을 구축하고, 4,000명 이상의 직원이 안전하게 사용할 수 있도록 한 폐쇄망 기반 운영 전략이 소개되었습니다. 실제 업무에서 겪었던 어려움도 가감 없이 공유해 주셔서, 참여자들의 공감대를 더욱 크게 얻었습니다.
삼성전자의 김성수님 <반도체 민감 데이터 지키는 온프레미스 GPU x vLLM 서빙기 (feat.Kimi, GLM)>
삼성전자의 김성수님 <반도체 민감 데이터 지키는 온프레미스 GPU x vLLM 서빙기 (feat.Kimi, GLM)>
마지막 세션에서는 네이버클라우드의 길재은님이 하이퍼클로바X 옴니 모델의 서빙 사례를 발표했습니다. 글자뿐 아니라 사진과 소리까지 처리하는 복합 모델을 위해, 각 단계를 독립적으로 분리하는 Disaggregated Serving 구조를 도입했습니다. 또한 병목 구간을 최적화해 성능을 3배 이상 끌어올린 실전 경험을 아낌없이 공유했습니다. 이번 발표를 통해 LLM 서빙이 복합적인 파이프라인 최적화 문제로 확장되고 있음을 확인할 수 있었어요.
네이버클라우드의 길재은님 <HyperCLOVAX 옴니 모델 서빙기>
네이버클라우드의 길재은님 <HyperCLOVAX 옴니 모델 서빙기>
이번 행사는 vLLM의 기술적 완성도를 높여 온 오픈소스 생태계의 노력과, 이를 바탕으로 보안과 성능이라는 두 마리 토끼를 잡고자 한 현업의 실전 사례가 어우러져 시너지를 낸 뜻깊은 자리였습니다.

vLLM 밋업 준비 과정과 높은 만족도

운영 준비를 비교적 오래 해 온 덕분에 밋업 운영 전반에 대한 만족도도 높았습니다. 많은 분들이 다음 vLLM 행사에도 참여하고 싶다고 남겨 주셨어요. 기업 홍보가 주가 아닌 순수하게 vLLM 커뮤니티 그 자체를 위한 행사는 흔치 않으니까요.
각 세션마다 질문이 끊이지 않았고, 쉬는 시간과 네트워킹 시간에는 서로 기술적인 궁금증을 나누며 늦은 시간까지 열정을 보여 주는 모습을 보니 괜히 뿌듯한 마음이 들었습니다.
평일 늦은 시간임에도 불구하고 많은 분들이 세션에 참여해주셨습니다.
평일 늦은 시간임에도 불구하고 많은 분들이 세션에 참여해주셨습니다.

운영 스태프로서 참여하며 느낀 점

또한 이번 밋업은 자원 운영 스태프를 모집했다는 점에서 커뮤니티의 확장성을 보여 주었습니다. 스퀴즈비츠와 리벨리온 운영진뿐 아니라 vLLM에 관심 있는 분들을 링크드인에서 모집해 총 4명의 운영 스태프와 함께 밋업을 진행했습니다.
처음에는 소통해야 할 사람이 많아 걱정도 되었지만, 운영진 분들이 밋업 전 홍보부터 행사 진행과 마무리까지 다방면으로 적극적으로 도와주신 덕분에 이번 커뮤니티 밋업의 의미가 더욱 빛날 수 있었습니다.
밋업 종료 후 vLLM KR 운영진팀과 연사자분들이 함께 기념 사진을 남겼습니다!
밋업 종료 후 vLLM KR 운영진팀과 연사자분들이 함께 기념 사진을 남겼습니다!
“평소에 관심 있던 vLLM 커뮤니티 행사에 직접 참여할 수 있어 정말 좋았어요. 운영진으로서 밋업이 진행되는 과정도 보고, 같은 관심을 가진 업계 관계자들과 이야기를 나누면서 스스로에게도 큰 도움이 됐습니다. 운영이 매끄럽게 진행됐다니 다행이네요.”
“유익한 행사에 참여해 많은 인사이트를 얻고, 작게나마 기여할 수 있어 즐거운 시간이었습니다. 세션 발표자들을 중심으로 자유롭게 네트워킹이 이뤄지는 모습이 인상 깊었어요. vLLM Meetup이 지속적인 커뮤니티로 성장해 운영진을 모집한다면, 또 한 번 꼭 지원하고 싶다는 생각이 들었습니다.”
커뮤니티의 성장은 결국 ‘사람’이 모일 때 시작됩니다.
vLLM이라는 공통된 주제에 열정을 가진 사람들이 모여 서로의 고민을 나누고 인사이트를 공유하면서 지금의 vLLM Korea 커뮤니티가 만들어졌다고 생각합니다. 앞으로도 이러한 행사들을 통해 국내의 훌륭한 개발자분들이 함께 성장하고, vLLM 커뮤니티도 자연스럽게 확장되기를 기대합니다.
이번 행사를 도와주신 모든 분께 감사드리며 글을 마무리합니다. 더욱 풍성한 내용으로 다음 vLLM Meetup에서 다시 찾아뵙겠습니다. 다음에 만나요! 🙌
 
 
 
 
 
 
Share article

스퀴즈비츠