2026.04.15
4월 3주 국내외 오픈소스SW 관련 동향을 모아 정리하였습니다.
자세한 내용은 기사 제목을 클릭하시면 보실 수 있습니다.
□ '에이전틱 AI 얼라이언스' 출범, 산·학·연·관 협력 강화
과학기술정보통신부가 민·관 협력 플랫폼 ‘에이전틱 AI 얼라이언스’를 출범했으며, 한국지능정보사회진흥원, 정보통신산업진흥원, 정보통신기획평가원, 한국정보통신기술협회 등 250여 개 기관·기업이 참여했습니다.
이 얼라이언스는 자율적으로 판단·행동하는 에이전틱 AI 시대에 대응해 기술 개발부터 산업 적용, 생태계 조성, 안전·신뢰 확보까지 전주기를 지원합니다. 산업(NC AI)·기술(LG AI연구원)·생태계(카카오)·안전·신뢰(숭실대학교) 4개 분과를 중심으로 협력하며, 표준·제도 개선과 실증, 시장 활성화 등을 추진하며, 정부는 이를 통해 국내 AI 경쟁력을 강화하고 글로벌 경쟁에서 주도권 확보를 목표로 참여를 지속 확대할 계획입니다.
(참고뉴스)
1. '에이전틱 AI 얼라이언스' 출범…산·학·연·관 협력 강화(전자신문)
□ LG AI연구원, 멀티모달 AI ‘엑사원 4.5’ 오픈소스로 공개
LG AI연구원이 텍스트와 이미지를 동시에 이해·추론하는 멀티모달 AI ‘엑사원 4.5’를 오픈소스로 공개했습니다.
‘엑사원 4.5’는 LG AI연구원이 2021년 12월 국내 최초 멀티모달 AI 모델 ‘엑사원 1.0’을 개발하며 축적한 기술력을 바탕으로, 자체 개발한 비전 인코더(Vision Encoder)와 대형언어모델(LLM)을 하나의 구조로 통합한 비전-언어 모델(VLM, Vision Language Model)입니다. 33B 규모의 비교적 작은 모델임에도 효율적인 구조로 높은 성능을 유지했고, 다국어 지원도 확장했습니다. 향후 음성·영상·물리 환경까지 확장해 실제 환경에서 판단·행동하는 AI로 발전시키는 것이 목표입니다.
(참고뉴스)
1. ‘텍스트와 이미지, 동시에 이해하고 추론한다’...LG AI연구원, 멀티모달 AI ‘엑사원 4.5’ 오픈소스로 공개
(인공지능신문)
2. LGAI-EXAONE/EXAONE-4.5-33B 허깅페이스 : https://huggingface.co/LGAI-EXAONE/EXAONE-4.5-33B
□ 넷플릭스도 영상 AI 모델 'VOID' 내놨다...오픈소스로 제공
넷플릭스가 영상에서 특정 물체를 제거하고 그 물리적 영향까지 자연스럽게 복원하는 AI 모델 ‘VOID’를 오픈소스로 공개했습니다. VOID는 단순 삭제를 넘어, 물체가 없었을 경우 장면이 어떻게 전개됐을지를 생성하는 비전-언어 모델입니다. 예를 들어 충돌 장면에서 차량을 제거하면 잔해와 연기까지 사라지고, 남은 차량이 정상 주행하는 영상으로 바뀝니다. 연구진은 설문에서 VOID가 64.8% 선호도를 기록해 기존 도구인 Runway보다 높은 평가를 받았다고 밝혔습니다. 다만 40GB 이상 VRAM이 필요해 일반 사용자보다는 전문 제작 환경에 적합한 것으로 나타났습니다.
(참고뉴스)
1. 넷플릭스도 영상 AI 모델 'VOID' 내놨다...오픈소스로 제공(디지털투데이)
2. "충돌 장면을 주행 장면으로"...넷플릭스, 첫 오픈소스 AI 'VOID' 공개(테크42)
3. netflix/void-model 허깅페이스 : https://huggingface.co/netflix/void-model
□ 한투증권, AI 트레이딩 오픈소스 개방
한국투자증권이 OpenAPI 기반 트레이딩 개발을 위한 오픈소스 코드를 확대 공개했습니다. 깃허브를 통해 투자전략 생성과 백테스트 기능을 무료로 제공해 개인 투자자도 알고리즘 트레이딩을 쉽게 활용할 수 있도록 했습니다. 사용자는 기술지표를 활용해 매매 전략을 설계하고, 과거 데이터를 기반으로 수익률과 리스크를 검증할 수 있습니다. 또한 Claude Code, Cursor 등 AI 개발 환경과 연동해 자연어로 전략을 생성·테스트할 수 있도록 지원합니다.
(참고뉴스)
1. "조건만 말하면 전략 뚝딱"…한투증권, AI 트레이딩 오픈소스 개방(한국경제TV)
□ 지푸, 자율 작업 8시간까지 늘린 오픈소스 'GLM-5.1' 출시
지푸 AI가 장시간 자율적으로 문제를 해결하는 차세대 모델 ‘GLM-5.1’을 공개했습니다.
이 모델은 약 7540억 개 매개변수의 MoE 구조로, 최대 8시간 동안 수백 번의 반복 작업과 수천 번의 도구 호출을 통해 성능을 스스로 개선합니다. 코드 생성·테스트·최적화를 반복 수행하며 최대 6배 성능 향상과 평균 3.6배 속도 개선을 보였고, 복잡한 웹 애플리케이션도 자율적으로 구현했습니다.
(참고뉴스)
1. 지푸, 자율 작업 8시간까지 늘린 오픈소스 'GLM-5.1' 출시(AI타임스)
2. zai-org/GLM-5.1 허깅페이스 : https://huggingface.co/zai-org/GLM-5.1
- Open UP -
댓글 0
댓글 작성
댓글을 작성하려면 게시글 작성 시 입력한 이메일과 패스워드를 입력해주세요.
* 표시는 필수 입력 사항입니다.