ⓒ스캐터엑스
지난 25일 스캐터엑스는 LG AI연구원의 엑사원(EXAONE) 4.0 기반 공직자 AI 업무 비서 구축형 솔루션 패키지를 정식 출시했다고 발표했다. 공공기관의 생성형 AI 도입 장벽으로 꼽히던 보안, 비용, 운영 문제를 한 번에 해결하는 '올인원 패키지'를 표방하며 시장의 주목을 받고 있다. 합리적인 예산 범위인 10억 원 내로 완전한 AI 인프라 구축이 가능하다는 점이 특히 눈에 띈다. 스캐터엑스가 구축형 패키지를 출시한 이유와 기대효과를 강명수 대표이사를 만나 직접 들어보았다.
Q. 이번에 출시한 '공직자 AI 업무 비서 구축형 패키지'가 무엇인지, 그리고 두 가지 상품 옵션은 어떻게 다른지 설명 부탁드립니다.
A. 한 마디로 '실전형 솔루션'입니다. 공공이 생성형 AI를 도입할 때 가장 고민하는 부분이 제한된 예산, 데이터 보안, 그리고 실제 업무에서의 성능입니다. 저희는 이 세 가지 문제를 해결하기 위해 이 패키지를 설계했습니다. 순도 높게 가공된 고품질 데이터를 기반으로 경량화 LLM의 성능을 최대화하고, 이를 통해 고사양 시스템 요구사항과 유지관리 비용을 최소화하는 것이 핵심입니다.
패키지는 두 가지 옵션으로 제공됩니다. ‘데이터 허브 패키지(7억 원)'는 데이터 리니지, 카탈로그, ETL 엔진, 데이터웨어하우스, 벡터DB, RAG 등 데이터 처리의 핵심 인프라를 기관 내부망에 직접 구축하는 방식입니다. LLM은 외부의 CSAP를 받은 모델을 API로 연동하여 종량제로 사용하게 됩니다.
'풀 패키지(10억 원)'는 데이터 허브 패키지의 모든 구성요소에 더해, LG 엑사원 모델을 포함한 LLM 서버까지 기관 내부망에 직접 구축하는 방식입니다. 이를 통해 완전한 폐쇄망 환경에서 내부 데이터를 활용한 AI 비서 운영이 가능해져 보안을 극대화할 수 있습니다.
Q. 기존 시장의 다른 생성형 AI 솔루션과 비교했을 때, 스캐터엑스 패키지만의 차별점은 무엇입니까?
A. 가장 큰 차별점은 단순히 뛰어난 LLM 기술을 제공하는 것이 아니라, '업무 최적화 패키지'라는 점입니다. 저희는 공직자 대상 생성형 AI 비서 SaaS를 운영하며 현장의 목소리를 직접 듣고 경험을 축적했습니다. LLM은 훌륭한 원천기술이지만, 이것을 실제 행정 업무에 적용하는 방법을 찾는 것은 공직자분들에게 또 다른 과제입니다.
저희는 SaaS 운영 경험을 토대로 각 업무 환경에 맞는 보안, 성능, 비용 구조를 모두 고려한 최적의 조합을 패키지로 구성했습니다. 풀 패키지 가격을 10억 원으로 책정한 이유도 여기에 있습니다. 광역 및 기초자치단체에서 생성형 AI 도입을 원하지만 수십억 원의 예산을 투입하기는 어렵습니다. 그래서 꼭 필요한 성능과 기능을 중심으로 비용을 최소화했습니다.
Q. '순도 높은 데이터'라는 개념이 흥미롭습니다. 구체적으로 어떤 의미이며, 어떻게 데이터를 가공하는 것인지 궁금합니다.
A. 이 방법론은 저희가 일방적으로 정의한 것이 아니라, 실제 공직자들의 아이디어와 필요를 바탕으로 함께 만들어낸 것입니다. 공직자분들이 AI에게 정말 원하는 것은 단순히 자료를 요약하는 수준을 넘어, 보고서 초안을 거의 완성된 형태로 작성해 주어 검수만 하면 되는 수준의 지원입니다.
이를 위해 저희는 '4단계 데이터 가공' 방법론을 적용합니다. 기관의 방대한 데이터를 ①보안 등급에 따라 분류하고, ②부서별로 나누고, ③핵심 업무 단위로 묶은 뒤, ④각종 보고서 양식과 스타일에 맞춰 최종 전처리합니다. 이렇게 구조화된 데이터를 데이터웨어하우스에 적재하고 벡터DB를 생성합니다.
만약 수많은 자료를 뭉텅이로 AI에게 주고 "보고서 써줘" 라고 하면, AI는 어떤 데이터가 중요하고 어떤 형식으로 작성해야 하는지 모르기 때문에 원하는 결과물을 내놓을 수 없습니다. 하지만 저희 방식처럼 꼭 필요한 데이터를 정확한 작성 지시와 함께 제공하면, AI는 고품질의 보고서를 생성할 수 있습니다.
Q. 스캐터엑스 패키지를 운영하는 데 필요한 GPU 사양과 수량은 어느 정도입니까?
A. LLM 운영을 위해 필요한 GPU는 엔비디아 A100급 1장이 기본입니다. LG 엑사원 4.0은 국내 대표 AI 모델 중 경량화가 가장 잘 되어 있고, 패키지 이용 모델은 순도 높은 데이터와 결합했을 때 기대 이상의 충분한 성능을 보여줍니다.
또한, 저희 솔루션의 RAG 시스템과 데이터 분류를 위한 카탈로그 엔진에 사용되는 LLM은 기본적으로 CPU 기반으로 동작하도록 설계했습니다. 종합적으로 고려했을 때, 엔비디아 A100 기준으로 최소 1장에서 최대 3장이면 안정적인 운영이 가능합니다.
Q. 현재 다른 지자체들의 생성형 AI 구축 사업과 비교하면 어느 정도의 차이가 있습니까?
A. 저희가 파악하기로, 일부 다른 지자체나 기관의 구축 사업은 엔비디아 H100 GPU를 기준으로 20장 이상 요구하는 경우도 있습니다. H100 GPU가 개당 6,000~7,000만 원. 총 12억~14억 원에 이릅니다. 여기에 GPU 팜 구성을 위한 고사양 서버, 냉각 장치, 전력 증설 비용까지 감안하면 전체 비용은 몇 배로 늘어날 수 있습니다.
반면 저희는, LLM을 추가 학습시키는 대신 '순도 높은 데이터 가공'에 집중하는 전략을 택했습니다. 이미 학습이 완료되고 성능이 검증된 경량화 LLM에 정확한 자료를 전달하는 것이 훨씬 효율적이고 경제적이라는 판단입니다.
Q. 이러한 접근 방식에 대한 지자체의 반응은 어떻습니까?
A. 놀랍게도 광역 및 기초자치단체 공직자분들은 생성형 AI에 대해 국내 최고 수준의 이해도와 활용 역량을 가지고 계십니다. 수많은 교육과 세미나에 참여하고, 이전 AI 구축 사업의 성공과 실패 경험을 통해 무엇이 정말 필요한지 정확히 알고 계십니다.
그래서 저희가 제시하는 경량화 LLM, 순도 높은 데이터, 낮은 도입 비용, 지속 가능한 유지관리, 그리고 단기 성과가 가능한 기능 개발의 필요성에 깊이 공감하고 지지해주고 계십니다. 현재 광역자치단체 한 곳, 기초자치단체 한 곳과 구체적인 사업 계획을 수립 중이며, 내년 구축을 목표로 협의하고 있습니다.
Q. 마지막으로, 공직자 AI 업무 비서 구축형 패키지 출시에 대한 다짐 한 말씀 부탁드립니다.
A. AI는 더 이상 홍보를 위한 시연이나 일회성 교육의 대상이 아니라, 공직자들의 일상 업무에 자연스럽게 스며들어 실질적인 성과를 내는 존재가 되어야 합니다. 저희는 LLM을 학습시켜야 한다는, 어찌 보면 '형벌'과도 같은 거대한 업무 부담을 덜어드리고 싶습니다.
바로 사용 가능한 경량화 LLM을 기반으로, 예산 친화적이면서도 성공적인 AI 도입 사례를 만드는 것이 지금 가장 필요합니다. 더 이상 AI 프로젝트가 장기간 막대한 자원을 투입해도 원하는 성과를 담보할 수 없는 '독이 든 성배'가 되어서는 안 됩니다.
저희 스캐터엑스는 이번 솔루션 패키지를 통해 공공 AI 사업이 반드시 성공하는 사업이 될 수 있다는 새로운 기준을 제시하고, 공직자분들이 체감할 수 있는 업무 혁신을 만들어나가는 데 모든 역량을 집중하겠습니다.
강명수 대표와의 인터뷰를 통해 스캐터엑스가 공공 부문의 현실적인 고민에 얼마나 깊이 파고들었는지 엿볼 수 있었다. '더 큰 모델, 더 많은 GPU'를 외치는 기술 과시 경쟁에서 벗어나, '더 정제된 데이터, 더 효율적인 운영'이라는 실용주의적 해법을 제시한 것이다. 이는 생성형 AI 도입을 망설이던 많은 공공기관에 새로운 가능성을 열어줄 것으로 기대된다.
0
0
기사 공유
댓글
댓글 쓰기