2026.02.24
[2월 월간브리핑] 에이전트 협업부터 로컬 실행까지, 2026년 AI·오픈소스 생태계의 세 가지 흐름
- OpenUP -
|
1. 최근 AI·오픈소스 생태계는 ‘에이전트 협업, 로컬·엣지 기반 실행·운영, 맞춤형 설계’라는 세 가지 흐름 중심으로 나타나고 있음 - AI가 단일 모델 중심에서 여러 에이전트와 도구들을 조합하는 시스템으로 확장되면서, 복잡한 워크플로를 관리하고 협업 중심의 문제 해결을 가능하게 하는 구조로 확산되고 있음 - 클라우드 의존에서 벗어나 로컬 또는 자체 인프라에서 AI를 직접 실행·운영하려는 선택이 증가하고 있음 - 경량 AI 모델(SLM)과 다양한 오픈소스 프레임워크와 도구들의 등장으로, 개발자가 구성요소를 선택하여 조합·활용하는 방식으로 확산되고 있으며, 이러한 맞춤형 설계 역량이 핵심 경쟁 요소로 부상하고 있음 |
□ AI·오픈소스 생태계에서 에이전트 협업 구조의 확산, 로컬·엣지 기반 실행·운영, 그리고 맞춤형 설계가 주요 흐름으로 부상
○ 최근 오픈소스 생태계는 협업 모델을 넘어 기술 혁신의 핵심 기반으로 자리 잡았으며, AI의 출시 속도, 스타트업의 확장 비용, 개발자의 통제권을 좌우하는 중요한 변수로 오픈소스가 부상하고 있음
- 최근 기업들은 클라우드 우선 전략에서 벗어나 로컬 환경에서 AI를 직접 실행하고 통제하려는 움직임이 점차 확대되고 있음
- 오픈소스 LLM이 실험 단계를 넘어 실제 제품 개발의 주요 선택지로 자리 잡고 있다는 분석도 이어지고 있음
* 워크플로 자동화 플랫폼인 n8n에 따르면, 2023년 이후 신규 오픈소스 모델 출시 건수가 빠르게 증가하며 폐쇄형 모델 대비 확대 추세가 빠르다고 분석하였으며, AI 배포 프레임워크인 BentoML 팀은 셀프 호스팅의 핵심 동기는 외부 API에 의존하는 대신 프라이버시, 미세조정, 성능 최적화에 대한 제어권을 확보하려는 것으로 설명
- 강력한 커뮤니티 기반 오픈소스 프로젝트들이 AI 인프라, 클라우드 효율성, 개발자 생산성 영역에서 영향력을 확대하며, 산업 전반의 구조적 변화로 이어지고 있음
- 이번 2월 월간브리핑에서는 '테스트'를 넘어 '실전'이 된 2026년 AI·오픈소스 생태계의 세가지 흐름을 정리하고자 함
▶ 에이전트 협업 : “AI는 더 이상 혼자 일하지 않는다”
○ AI가 단일 모델·단일 호출이 아닌 여러 에이전트와 도구가 역할을 나눠 스스로 계획하고 행동하는 ‘시스템’으로 확장되면서, 에이전트 간의 상호운용성이 주요 과제로 떠오름
- 이러한 변화는 빅테크 모델에 종속되지 않고 우리만의 비즈니스 환경에 특화된 AI 시스템을 구축할 수 있는 기술적 자립 흐름과 맞물려 있으며, 이제 단일 모델 자체의 성능보다 여러 최적의 모델과 도구들을 조합해 시스템을 구성하는 역량이 점차 강조되고 있음
- (Agentic AI Foundation(AAIF) 출범) 리눅스 재단은 앤트로픽, 블록, 오픈AI가 공동 창립 멤버로 AI 에이전트 표준화를 위한 AAIF를 발족하였으며, AWS, 블룸버그, 구글, 마이크로소프트 등이 회원사로 합류하며 폐쇄적인 AI 스택을 경계하고, 에이전트 간의 상호운용성을 확보하고자 하는 업계의 의지를 표명
* 기부된 주요 프로젝트는 앤트로픽에서 모델과 에이전트를 도구 및 데이터에 연결하는 표준 프로토콜 MCP(Model Context Protocol), 블록은 오픈소스 에이전트 프레임워크 Goose, OpenAI는 에이전트 명령 및 설정 표준 규격 AGENTS.md 임
- (다중 에이전트 생태계의 확산) LangChain, AutoGen, Dify 같은 프로젝트들은 AI 에이전트를 여러 단계로 구성해 복잡한 워크플로를 관리하고 연속적인 추론이 가능하도록 지원하며, Agent Skills, Eigent, Sim 등 다양한 에이전트 도구와 프레임워크는 협업 기반의 문제 해결을 가능하도록 지원하는 환경을 제공함
▶ 로컬·엣지 기반 실행·운영 : “오픈소스로 직접 실행하고 운영한다”
○ AI·오픈소스 생태계에서 클라우드에만 의존하지 않고, 로컬 또는 자체 인프라에서 AI를 직접 실행·운영하려는 선택이 증가하고 있음
- 딜로이트 Tech Trends 2026에 따르면, 비용 관리, 데이터 주권·규제 준수, 지연 시간(Latency) 최소화, 지적 재산 보호 등의 이유로 기업들이 AI 워크로드의 실행 인프라를 재검토하고 있으며, 클라우드·온프레미스·엣지 컴퓨팅을 병행하는 하이브리드 아키텍처 전략을 채택하는 사례가 늘고 있다고 분석
- (로컬 LLM 도구의 일상화) Ollama, GPT4All, text-generation-webui, LocalAI, OpenWebUI 등 로컬 및 자체 인프라에서 운영 가능한 다양한 도구들이 늘어나는 가운데, DEV Community는 2026년 로컬 LLM 환경이 실험 단계를 넘어 일상적인 작업 환경으로 자리 잡고 있으며, 데이터 보호와 비용 효율성, 오프라인 사용, 실행 환경의 통제권 확보를 주요 장점으로 제시
- (자체 운영 확대) 벤더 종속과 비용 변동성, 데이터 보호 이슈로 인해 클라우드 API 모델의 한계가 부각되면서, 프라이버시·미세 조정·성능 최적화에 대한 통제권을 확보할 수 있는 오픈소스 LLM 기반 자체 운영(셀프-호스팅)이 확대되고 있음
- (엣지 AI의 확산) InfoWorld는 AI의 중심이 대규모 모델 학습에서 학습된 모델의 실제 업무 활용으로 옮겨 가고 제조·금융 분야에서는 민감 데이터를 현장에서 처리하려는 수요가 증가하면서, 엣지 AI 시장이 성장하고 있다고 분석, 이를 위해 llama.cpp, OpenVINO, MLC LLM 같은 경량 프레임워크를 로컬·엣지 환경의 핵심 도구로 언급
* 시장조사기관 Precedence Research는 엣지 AI 시장이 2034년까지 약 1,430억 달러 규모에 이를 것으로 전망
▶ 맞춤형 설계 : “완성된 서비스보다 목적에 맞는 조합이 중요해진다”
○ 최근 오픈소스 프로젝트들은 완제품(SaaS) 형태보다 사용자가 필요에 맞게 조합할 수 있는 구성요소(Composable tools) 형태로 출시되는 경향이 나타나고 있음
- (모듈형 빌딩 블록의 시대) LangChain, Agent Skills, LlamaIndex와 같은 오픈소스 프레임워크 및 도구와 다양한 경량 AI 모델(SLM)의 등장으로, 단일 서비스 활용을 넘어 개발자가 다양한 구성요소를 선택하여 설계·조합하는 방식으로 확산되고 있음
- (맞춤형 설계 역량의 부상) 사용자는 더 이상 정해진 서비스를 그대로 사용하는 데 그치지 않고, Awesome LLM Apps와 같은 사례 모음집을 참고하여 목적에 맞는 도구들을 선택하고 조합하는 설계 역량이 서비스 경쟁력에 영향을 미치는 중요한 요소가 되고 있음
▶ 에이전트·로컬·엣지 실행을 위한 오픈소스 AI 주요 구성요소 정리
<에이전트 · 데이터 · 워크플로 도구>
|
분야 |
도구명 |
주요특징 |
라이선스 |
저장소/공식URL |
|
에이전트·워크플로 |
LangChain |
LLM·툴·메모리 연결, 에이전트 오케스트레이션 프레임워크 |
MIT |
https://github.com/langchain-ai/langchain |
|
에이전트 · 워크플로 |
AutoGen |
다중 에이전트 간 대화·역할 분담을 통한 협업형 에이전트 워크플로 구성 |
MIT |
https://github.com/microsoft/autogen |
|
에이전트·워크플로 |
Dify |
복잡한 에이전트 워크플로우 개발을 위한 로우코드 플랫폼 |
Modified Apache 2.0 |
https://github.com/langgenius/dify |
|
에이전트· 워크플로 |
Eigent |
코드·웹·문서 작업 전문 에이전트 구성 코워크(Cowork) 데스크톱 앱 |
Apache 2.0 |
https://github.com/eigent-ai/eigent |
|
에이전트·워크플로 |
Sim |
드래그 앤 드롭 기반 에이전트 워크플로 시각화·실험 캔버스 |
Apache 2.0 |
https://github.com/simstudioai/sim |
|
에이전트·워크플로 |
Agent Skills |
에이전트가 호출해 사용할 수 있는 사전 정의된 작업·도구 모음 |
MIT |
https://github.com/vercel-labs/agent-skills |
|
데이터· |
LlamaIndex |
사내 데이터 인덱싱, RAG 파이프라인 구성 |
MIT |
https://github.com/run-llama/llama_index |
|
로컬 분석 DB |
DuckDB |
서버 없는 로컬 분석 DB |
MIT |
https://github.com/duckdb/duckdb |
|
레퍼런스 모음 |
Awesome LLM Apps |
RAG + LLM 기반 실전 앱 사례 컬렉션 |
Apache 2.0 |
https://github.com/Shubhamsaboo/awesome-llm-apps |
<로컬 LLM 실행 · 서빙 · 인터페이스 도구>
|
분야 |
도구명 |
주요 특징 |
라이선스 |
저장소 / 공식 URL |
|
로컬 LLM 런타임 |
Ollama |
설치/실행이 가장 간단, 모델 다양, OpenAI API 호환, 입문~일반 사용자, |
MIT |
https://github.com/ollama/ollama |
|
데스크톱 앱 |
Jan |
로컬 기기에서 100% 오프라인으로 작동 ChatGPT 대안, 모델 라이브러리, 필요시 원격 API |
Apache 2.0 |
https://github.com/janhq/jan |
|
데스크톱 앱 |
GPT4All |
초보자 친화적 로컬 AI 앱, 쉬운 설치, 로컬 RAG, 모델 다운로드 내장 |
MIT |
https://github.com/nomic-ai/gpt4all |
|
로컬 LLM 인터페이스 |
OpenWebUI |
웹 기반 LLM UI, RAG 지원 및 파이프라인 커스터마이징 |
Modified BSD |
https://github.com/open-webui/open-webui |
|
웹 UI |
text-generation-webui |
다양한 백엔드 지원, 확장성 높은 웹 UI, 확장/플러그인, RAG |
AGPL-3.0 |
https://github.com/oobabooga/text-generation-webui |
|
API 서버 |
LocalAI |
OpenAI API 대체, Docker 기반, 멀티모달, 플러그인 |
MIT |
https://github.com/go-skynet/LocalAI |
|
로컬 LLM 실행·서빙 |
vLLM |
고성능 추론 엔진, 배치 처리 기반 서빙·운영 최적화, 프로덕션 LLM 배포 |
Apache 2.0 |
https://github.com/vllm-project/vllm |
|
로컬 LLM 실행·서빙 |
SGLang |
초고속 추론, 복잡한 프롬프트 및 에이전트 작업 최적화 |
Apache 2.0 |
https://github.com/sgl-project/sglang |
|
로컬 추론 엔진 |
llama.cpp |
CPU/GPU 하이브리드 최적화, 경량 로컬 추론 최적화 |
MIT |
https://github.com/ggerganov/llama.cpp |
|
하드웨어 가속 |
OpenVINO |
인텔 기반 CPU·GPU·VPU 기반 로컬 모델 최적화 및 추론 가속 |
Apache 2.0 |
https://github.com/openvinotoolkit/openvino |
|
크로스 플랫폼 |
MLC LLM |
모바일·웹·엣지용 LLM 컴파일 |
Apache 2.0 |
https://github.com/mlc-ai/mlc-llm |
<로컬 · 엣지 AI 모델>
|
모델명 |
주요 특징 (용도) |
권장사양 |
라이선스 |
저장소 URL |
호환 도구 |
|
GPT-OSS (20B) |
로컬/저지연, 에이전트·도구 호출 지원 |
32GB+ RAM |
Apache 2.0 |
https://huggingface.co/openai/gpt-oss-20b |
Ollama, LocalAI |
|
GPT-OSS (120B) |
GPT-4 수준의 고급 추론, 프로덕션급 에이전트 시스템, 도구 호출 능력 |
단일 80GB GPU (H100/ MI300X) |
Apache 2.0 |
https://huggingface.co/openai/gpt-oss-120b |
Ollama, vLLM |
|
DeepSeek V3.2-Exp |
고급 추론, 사고 모드, 수학 문제 해결, 코드 분석 |
16GB ~ 64GB+ RAM |
Apache 2.0 |
https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Exp |
Ollama, |
|
Qwen3-Next |
고밀도 전문가 혼합 모델 (Dense/MoE), 128K 컨텍스트, 다국어 능력, 고급 추론 |
16GB ~ 32GB RAM |
Apache 2.0 |
https://github.com/QwenLM/Qwen3 |
Ollama, LocalAI, Jan |
|
Qwen3-Omni |
멀티모달(텍스트, 이미지, 오디오, 비디오), 도구 호출 능력, 다국어 능력 |
16GB ~ 32GB+ RAM |
Apache 2.0 |
https://github.com/QwenLM/Qwen3-Omni |
vLLM (vLLM-Omni) |
|
Gemma 3 |
경량·안전 중심 설계, 비전 이해 우수 |
8GB ~ 32GB RAM |
Gemma License |
https://huggingface.co/collections/google/gemma-3-release |
Ollama, text-generation-webui, Jan, llama.cpp |
|
Llama 4 |
일반 상식, 창의적 글쓰기, 복잡한 추론, 코드 생성, 효율성 향상 |
64GB+ RAM |
Llama4 License |
https://huggingface.co/collections/meta-llama/llama-4 |
Ollama, text-generation-webui, Jan, vLLM, llama.cpp |
|
Qwen3-Coder-480B-A35B-Instruct |
에이전트 코딩, 복잡한 프로젝트 이해, 대규모 컨텍스트 창, 자율 개발 워크플로우, 다단계 계획 |
128GB+ RAM 권장 (엔터프라이즈급) |
Apache 2.0 |
https://huggingface.co/Qwen/Qwen3-Coder-480B-A35B-Instruct |
Ollama, text-generation-webui, Jan, vLLM |
|
GLM-4.7 |
다단계 작업 처리, 도구 호출, 코딩 워크플로우, 프론트엔드 생성, 복잡한 추론, 에이전트 실행 |
32GB+ RAM |
MIT |
https://huggingface.co/zai-org/GLM-4.7 |
Ollama, |
|
Kimi-K2 Thinking |
대규모(1T) 전문가 혼합 (MoE) 모델, 고급 추론, 에이전트 워크플로우, 다단계 문제 해결, 사고 모드 및 도구 사용 가능 |
64GB+ RAM |
Modified MIT |
https://huggingface.co/moonshotai/Kimi-K2-Thinking |
Ollama, |
|
Nemotron 3 Nano |
고효율 30B, 1M 컨텍스트, 멀티에이전트 |
16GB+ RAM |
NVIDIA Open Model |
https://huggingface.co/nvidia/NVIDIA-Nemotron-3-Nano-30B-A3B-Base-BF16 |
Ollama, vLLM, SGLang, llama.cpp, OpenVINO, |
|
Mistral Large 3 |
675B MoE (41B active), 프론티어급 추론 |
8×A100/ H100 노드 권장 |
Apache 2.0 |
https://huggingface.co/collections/mistralai/mistral-large-3 |
Ollama, vLLM, TensorRT-LLM, SGLang |
□ 시사점
○ AI 에이전트 표준화와 오픈소스 도구 생태계의 확산은 산업 전반이 모델 중심에서 에이전트 기반 시스템 설계 중심으로 전환되고 있음을 보여주며, 맞춤형 AI 조합 역량이 점차 중요한 경쟁 요소로 부상하고 있음
○ AI 실행 환경에 대한 주도권 확보 전략이 중요해지며, 비용·데이터 주권·지연 문제를 고려한 AI 인프라의 선택과 운영 역량이 기업 경쟁력을 좌우하는 요소로 부상하고 있음
○ AI·오픈소스 생태계가 복잡해지면서 모델 구성요소에 대한 가시성과 체계적 관리 요구가 증가하고 있으며, 보안·거버넌스 논의와 함께 AI-BOM 기반 관리 체계의 필요성도 점차 증가하고 있음
□ 주목할 만한 월간 이슈(2월)
○ (AI 동향) 한국 오픈소스 생태계 전략적 활용 필요성 제기
- 소프트웨어정책연구소(SPRi)가 ‘오픈소스AI 개념 및 글로벌 오픈소스 모델 동향’ 보고서를 발간하고, 미·중 AI 패권 경쟁 속에서 한국의 AI 3대 강국 도약을 위해 오픈소스 AI를 전략 자산으로 재정립해야 한다고 분석
* 주요 딥러닝 프레임워크 28개 중 25개가 오픈소스로 개발됐으며, 2024년 기준 GitHub AI 프로젝트 432만 개, 허깅페이스 오픈소스 모델 225만 개를 돌파하며 오픈소스가 AI 혁신과 확산의 핵심 인프라로 자리매김 중
* 기업의 89%가 AI 개발 과정에서 오픈소스 기술을 활용하고 있으며, 63%는 오픈소스 모델을 실제로 도입
* 특히 중소기업 활용률이 높아 비용 효율성과 기술 자율성 측면에서 전략적 가치 확인
- AI 원천 기술 내재화, 전문 인력 양성, 산업 전반의 AX 가속을 위해 오픈소스 AI 활용 확산을 위한 생태계 조성의 필요성 강조
○ (피지컬 AI) 알리바바, 로보틱스용 피지컬 AI 모델 ‘린브레인’ 오픈소스 공개
- 알리바바가 로봇용 파운데이션 모델 ‘린브레인(Linbrain)’을 오픈소스로 공개하며 실세계 기반 AI 경쟁에 본격 진입
* 2B·8B 규모의 Dense 모델과 3전문가 혼합(MoE) 방식의 30B-A3B 모델, 로봇 작업 계획에 특화된 '린브레인-플랜(Plan)', 비전-언어 내비게이션을 담당하는 '린브레인-내브(Nav)', 포인트 단위 추론을 수행하는 '린브레인-CoP(Chain-of-Point)' 등 사후 학습 모델도 함께 공개
- 대규모 데이터를 기반으로 학습되어 기본적인 범용성을 유지하면서도 실제 환경에서의 복잡한 추론과 계획 능력 강화
* 로보틱스, 스마트 제조, 자율 시스템 등 피지컬 AI 응용 분야 확장을 겨냥
- 구글·엔비디아 등 글로벌 기업 모델 대비 최고 수준 성능을 기록했다고 발표하며 중국 빅테크의 오픈소스 기반 AI 영향력 확대 시사
○ (기후 AI) 엔비디아, 기상 예측 AI ‘어스-2’ 오픈소스 공개
- 엔비디아가 미국기상학회 연례회의에서 GPU 기반 기상 예측 AI 플랫폼 ‘어스-2(Earth-2)’를 오픈소스로 공개
- 중기 예보(Medium Range), 초단기 예측(Nowcasting), 글로벌 데이터 동화(Global Data Assimilation) 등 3대 핵심 모델로 구성
- 슈퍼컴퓨터 없이도 고성능 기상 예측이 가능하도록 설계돼 정부·기업이 맞춤형 기상 예측 시스템을 구축할 수 있는 기반 제공
* 기존 물리 기반 유럽중기예보센터(ECMWF) 모델 대비 비용은 수백 배, 에너지 효율 1만 배 이상 절감 가능성 제시
- 기후 변화 대응, 재난 관리, 에너지 산업 등 국가 핵심 인프라 영역에서 AI 활용이 본격화되는 계기 마련
○ (AI 에이전트·보안) 자율형 AI 비서 ‘오픈클로’ 확산 속 보안 리스크 경고 확산
- 오픈소스 자율형 AI 에이전트 ‘오픈클로(OpenClaw)’가 사용자의 PC를 직접 조작하는 AI 비서로 빠르게 확산되며 보안 우려 동반
* 오스트리아 개발자 피터 슈타인베르거가 개발한 단일 사용자용 오픈소스 AI 어시스턴트임
* 초기에는 '클로드봇(Clawdbot)'이라는 이름으로 알려졌던 이 프로그램은, 앤트로픽의 자사 대형언어모델(LLM) 클로드(Claude)와 유사해 사용자 혼란을 야기할 수 있다는 문제를 제기하자 이를 받아들여 명칭을 몰트봇(Moltbot)으로 변경했으며, 현재는 오픈클로(OpenClaw)라는 프로젝트로 운영되고 있음
- 이메일 관리, 일정 조정, 파일 접근, 터미널 명령 실행 등 실제 작업을 자동화하는 기능으로 높은 생산성 잠재력 제시하며 빠른 사용자 증가
* 깃허브에서 단 10일만에 스타 10만 개 이상을 돌파하며 AI 에이전트 분야 오픈소스 프로젝트 가운데 최고 수준의 성장률을 기록
- 가트너와 마이크로소프트 AI 안전팀이 보안 취약성과 데이터 유출 가능성에 대해 경고하였고, 국내 주요 기업(네이버, 카카오, 당근 등)도 사용 자제 권고
- 중국 주요 클라우드 업체인 알리바바 클라우드, 텐센트 클라우드 등이 자사 모델 제품군의 서비스형 배포를 지원
○ (항공우주 AI) 텔레픽스, 항공우주 검색 모델 ‘픽시1.0’ 오픈소스 공개, RTEB 세계 2위 달성
- 텔레픽스가 항공우주 전문 기술 문서 검색에 특화된 자체 AI 모델 ‘픽시1.0(PIXIE-v1.0)’을 오픈소스로 공개하고 글로벌 벤치마크 상위권에 진입
- 항공우주·위성·국방 분야의 설계 문서, 기술 규격서, 운용 매뉴얼 등 고난도 전문 문서를 의미 기반으로 검색하도록 설계된 도메인 특화 임베딩 모델
- 글로벌 검색 성능 벤치마크 ‘RTEB(검색 임베딩 성능 평가 지표)’ 평가에서 1B 이하 모델 부문 리더보드 세계 2위 기록
- 오픈소스로 공개해 국내 항공우주·국방 산업 내 AI 활용 확산 및 기술 자립 기반 강화 기대
댓글 0
댓글 작성
댓글을 작성하려면 게시글 작성 시 입력한 이메일과 패스워드를 입력해주세요.
* 표시는 필수 입력 사항입니다.