본문 바로가기

Home > 열린마당 > 공개SW 소식

공개SW 소식

구글, AI 허브·쿠베플로 파이프라인 발표··· "AI 활용을 더 간단하게"

OSS 게시글 작성 시각 2018-11-13 17:12:00 게시글 조회수 4749

2018년 11월 12일      

ⓒ CIO Korea, Scott Carey | Computerworld UK

 

구글 클라우드가 머신러닝 알고리즘을 설계, 실행 및 추적하는데 활용할 수 있는 2종의 도구를 새롭게 출시했다.

사유(proprietary) 및 오픈소스로 각각 등장한 이번 두 제품은, AI 기술을 좀더 쉽고 단순하게 도입하게 한다는 구글 전략의 일환이다. 구글은 지난 1월에도 오토ML(AutoML) 브랜드 하에서 사전 패키지된 머신러닝 유즈 케이스를 발표한 바 있다.

구글 클라우드 ML 플랫폼 엔지니어링 디렉터 후세인 메한나는 블로그 게시글을 통해 "모든 기업이 AI를 활용하도록 하는 것이 우리의 목표다. 이를 위해서는 진입 장벽을 낮추는 것이 중요하다. 이를 위해 우리는 더 간단하게, 더 유용하게, 더 빠르게 한다는 방침을 마음에 담고 있다"라고 말했다.

이번에 발표된 첫 제품은 AI 전문가용 협업 플랫폼 'AI 허브'의 알파 버전이다. 클라우드 AI 제품 관리 담당 디렉터인 라젠 세스는 "AI 업무는 팀 스포츠다. 모델을 생산 단계로 가져가고 애플리케이션을 작성하고 통합하는 작업 등이 필요하다. 이번 신제품군이 큰 도움이 될 것이다"라고 말했다.

AI 허브는 데이터 과학자 및 개발자에게 파이프 라인, 주피터_ 노트북 및 텐서플로 모듈과 같은 구성 요소를 공동 작업을 위한 안전한 단일 장소에 저장할 수 있도록 해주는 플랫폼이다.

메한나는 향후 AI 허브가 구글이 개발한 자원 및 개인 공유 제어 기능을 제공할 것이며 베타 버전은 파트너 솔루션을 포함 해 더 많은 자산 유형과 광범위한 공개 콘텐츠를 포함하도록 확대될 것이라고 전했다.

두 번째 제품은 쿠베플로 파이프라인(Kubeflow Pipelines)이라는 오픈소스 제품이다. 여러 리소스를 가져와 생산 단계에 투입하는 작업을 돕는다. 구글 측은 오픈소스 쿠베플로 프로젝트의 일부라며, 머신러닝 워크 플로우를 효과적으로 작성, 배포 및 관리하기위한 워크 벤치 솔루션이라고 설명했다. 특히 오픈소스 솔루션이기에 프로덕션 환경에 배치하기 전에 모델을 실험할 수 있는 유연성을 제공한다고 구글은 설명했다.

메한나는 "시스코 및 엔비디아와 같은 기업이 이 오픈소스 프로젝트의 주요 공헌자다. 쿠베플로 파이프라인을 도입하기 위해 긴밀히 협력하고 있다. 엔비디아는 이미 쿠베플로에 새로운 오픈소스 데이터 과학 라이브러리인 RAPIDS를 통합하고 있으며, GPAP를 활용하여 데이터 전처리 및 머신러닝을 위한 엄청난 속도 향상을 제공함으로써 쿠베플로를 완벽하게 보완하고 있다"라고 전했다.

쿠베플로는 현재 깃허브를 통해 이용할 수 있다.

잠재 고객
구글의 이번 도구를 조기에 도입하는 조직으로는 대규모 머신러닝/데이터 과학 기능을 갖춘 곳이 예측된다. 세스는 소매, 금융 서비스, 제조, 의료 및 미디어 부문에서 두드러질 것으로 예상했다.

잠재적 얼리 어답터 기업 중 하나로는 미디어 기업인 메리디스 코퍼레이션(Meredith Corporation)이 있다. 이 기업은 이미 콘텐츠 분류를 자동화하기 위해 구글 머신러닝 도구를 사용하고 있다.

메리디스의 수석 마케팅 및 데이터 담장자 알리시아 보사는 메한다는 블로그 게시글에서 다음과 같이 밝혔다. "내추럴 랭기지(Natural Language) 및 오토ML 서비스를 사용해 우리는 사용자 정의 범용 분류 체계를 우리 콘텐츠에 적용함으로써 새롭게 부상하는 트렌드를 보다 잘 식별하고 대응할 수 있게 됐다. 결과적으로 견고한 목표를 설정하고 독자들에게 보다 관련성 있고 매력적인 콘텐츠를 전달할 수 있게 됐다." ciokr@idg.co.kr

 

※ 본 내용은 한국IDG(주)(http://www.itworld.co.kr)의 저작권 동의에 의해 공유되고 있습니다.
Copyright ⓒITWORLD. 무단전재 및 재배포 금지

 

[원문출처 : http://www.ciokorea.com/news/40153]

맨 위로
맨 위로