2018

 2018년 08월 16일    

 ⓒ CIO Korea,Serdar Yegulalp | InfoWorld

 

머신러닝(Machine Learning)을 보면 마술 상자가 생각난다. 데이터를 집어넣으면 예측이 나온다. 하지만 머신러닝에 마술은 없다. 데이터와 알고리즘, 그리고 알고리즘을 통해 데이터를 처리함으로써 만들어지는 모델이 있을 뿐이다.

머신러닝을 통해 데이터에서 실체적 인사이트를 도출하는 일을 하는 사람에게는 이 프로세스가 블랙박스처럼 느껴져서는 안 된다. 상자 내부에 대해 잘 이해할수록 데이터가 예측으로 변환되는 과정의 각 단계를 더 정확히 이해할 수 있고 예측이 갖는 힘은 더 강력해진다.

데브옵스 분야에는 소스 코드에서 배포에 이르기까지 소프트웨어의 진행 과정을 설명하는 “빌드 파이프라인”이란 것이 있다. 개발자에게 코드 파이프라인이 있다면, 데이터 과학자에게는 머신러닝 솔루션을 통해 흐르는 데이터 파이프라인이 있다. 이 파이프라인을 마스터하는 것은 머신러닝 자체를 세부적으로 파악하기 위한 효과적인 방법이다.
 

Image Credit : GettyImagesBank
Image Credit : GettyImagesBank


머신러닝을 위한 데이터 소스와 흡수
위키본 리서치(Wikibon Research)의 분석가 조지 길버트가 설명했듯이 머신러닝 파이프라인은 4개의 단계로 구성된다.
1. 데이터 흡수
2. 데이터 준비(데이터 탐색 및 거버넌스 포함)
3. 모델 학습
4. 예측 제공

머신러닝 파이프라인을 시작하기 위해서는 학습할 데이터와 학습을 수행할 알고리즘, 두 가지가 필요하다. 대부분의 경우 데이터는 다음과 같은 둘 중 하나의 형태로 제공된다.

1. 어딘가에서 이미 수집 및 집계 중인 라이브 데이터. 이 데이터를 사용해서 정기적으로 업데이트되는 예측을 수행할 계획이다.
2. 다운로드해서 그 상태 그대로 사용하거나, 기존 데이터 소스에서 ETL 작업을 통해 얻는 “동결된” 데이터 집합.

동결된 데이터의 경우 일반적으로 한 가지 종류의 처리만 한다. 이 데이터로 모델 학습을 수행하고 모델을 배포하며 필요에 따라 주기적으로 모델을 업데이트한다. 그러나 라이브 또는 “스트리밍되는” 데이터의 경우 이 데이터로 모델과 결과를 얻기 위한 방법은 두 가지다. 첫 번째는 데이터베이스와 같은 어느 장소에 데이터를 저장(“데이터 레이크”)한 다음 나중에 이 데이터를 사용해 분석을 하는 방법이다. 두 번째는 스트리밍 데이터가 들어오는 대로 모델을 학습시키는 것이다.

머신러닝 솔루션 제공업체 빅ML(BigML)의 찰스 파커가 설명한 바와 같이 스트리밍 데이터를 사용한 학습은 다시 두 가지 형식으로 구분된다. 하나는 정기적으로 신선한 데이터를 모델에 공급해서 예측을 수행하는 시나리오로, 이 경우 기반 모델을 크게 조정하지는 않는다. 두 번째는 오래된 데이터는 그다지 쓸모가 없어서 수시로 신선한 데이터를 사용해서 완전히 새로운 모델을 학습시키는 시나리오다.

알고리즘을 일찌감치 선택하는 것이 중요한 이유가 여기에 있다. 증분식 재교육을 지원하는 알고리즘도 있지만 그렇지 않아서 새 데이터로 처음부터 다시 재교육해야 하는 경우도 있다. 항상 신선한 데이터를 스트리밍해서 모델을 재교육할 예정이라면, 증분 재교육을 지원하는 알고리즘을 선택해야 한다. 예를 들어 스파크 스트리밍(Spark Streaming)이 이러한 사용 사례를 지원한다.

머신러닝을 위한 데이터 준비
학습에 사용할 데이터 소스를 확보했다면 다음 단계는 이 데이터를 학습에 사용할 수 있도록 하는 것이다. 데이터에서 일관성을 확보하는 과정을 통틀어 정규화라고 한다. 실제 세계의 데이터에는 노이즈가 많다. 데이터베이스에서 가져오는 데이터는 어느 정도의 정규화가 된 데이터라고 가정할 수 있다. 그러나 많은 머신러닝 애플리케이션은 데이터 레이크 또는 다른 이질적 소스에서 직접 데이터를 가져올 수도 있는데, 이 경우 프로덕션 사용에 맞게 데이터가 정규화되어 있다는 보장이 없다.

파이썬 머신러닝(Python Machine Learning)의 저자 세바스티안 라슈카는 정규화와 일반적인 데이터 집합 유형에서 정규화를 달성하는 방법을 세부적으로 다룬 글을 쓴 적이 있다. 라슈카가 사용한 예제는 파이썬을 중심으로 하지만 기본 개념은 보편적으로 적용된다. 머신러닝 환경에 따라 정규화가 명시적인 단계로 존재하기도 한다. 예를 들어 마이크로소프트 애저 머신러닝 스튜디오(Azure Machine Learning Studio)에는 데이터 실험에 추가할 수 있는 “데이터 정규화(Normalize Data)” 모듈이 따로 있다.

정규화가 항상 필요할까? MIT AI 박사 과정에 있는 프랭크 더논코트는 스택 오버플로우(Stack Overflow)의 이 주제에 관한 심층적인 토론에서 정규화가 항상 필요한 것은 아니지만 “해서 해로운 경우는 거의 없다”고 말했다. 더논코트는 중요한 점은 특정 사용례에서 정규화가 가진 이점을 아는 것이라고 말했다. 인공 신경망의 경우 정규화가 필수는 아니지만 때에 따라 유용할 수도 있다. 그러나 K 평균 클러스터링 알고리즘으로 모델을 구축하는 경우 정규화가 핵심적이다.

‘데이터에서 배우기(Leaning from Data)’의 공동 저자 맬릭 매그돈 이스마일에 따르면. 정규화가 바람직하지 않은 한 가지 경우는 “데이터의 규모에 의미가 있을 때”다. 예를 들어 “여신 승인에서 수입이 부채보다 두 배로 중요하다면 수입의 크기가 부채의 두 배가 되는 것이 적절할 것이다.”

데이터 흡수와 준비 단계에서 고려해야 할 또 한 가지는 데이터와 정규화, 또는 두 가지 모두를 통해 모델에 편견이 유입될 수 있다는 점이다. 머신러닝의 편견은 현실적인 문제를 일으킬 수 있다. 따라서 그러한 편견이 존재할 가능성이 있는 지점을 찾아서 대처하는 방법을 알면 도움이 된다. 깨끗한(읽을 수 있고 일관적인) 데이터라고 해서 무조건 편견이 없는 데이터로 간주해서는 안 된다.

머신러닝 모델 학습
데이터 집합을 완성했다면 다음 차례는 데이터를 사용해서 예측을 수행할 모델을 생성하는 학습 프로세스다. 일반적으로 여러 가지 알고리즘을 시도해 보고 데이터에 가장 잘 맞는 하나를 찾는다.

초매개변수
앞서 언급했듯이 알고리즘 선택은 해결하려는 문제의 유형뿐만 아니라 원하는 모델이 일괄 데이터로 한꺼번에 학습시킬 모델인지 증분적으로 재교육할 모델인지에 따라서도 달라진다. 모델 학습의 또 다른 핵심적인 측면은 결과 모델의 정확도를 높이기 위해 학습을 튜닝하는 방법, 즉 초매개변수화(hyperparameterization)다. 머신러닝 모델을 위한 초매개변수는 알고리즘에서 결과 모델을 생성하는 방법을 통제하는 설정이다. 예를 들어 K 평균 클러스터링 알고리즘은 데이터의 유사성을 기준으로 데이터를 여러 그룹으로 묶는다. 따라서 K 평균 알고리즘을 위한 하나의 초매개변수는 검색할 클러스터의 수가 될 것이다.

 


일반적으로 최선의 초매개변수 선택은 알고리즘에 대한 경험에서 나온다. 때에 따라서는 몇 가지 변형을 시도해서 어느 것이 당면한 문제에 맞는 실질적 결과를 산출하는지 확인해야 한다. 일부 알고리즘 구현의 경우 초매개변수 자동 튜닝이 가능한 단계까지 발전했다. 예를 들어 머신러닝을 위한 레이(Ray) 프레임워크에는 초매개변수 최적화 기능이 있다. 구글 클라우드 ML 엔진은 학습 작업에 사용할 수 있는 초매개변수 튜닝 옵션을 제공한다. 또한 FAR-HO라는 패키지는 텐서플로우용 초매개변수 최적화 툴을 제공한다.

병렬 처리
모델 학습을 위한 라이브러리 중 상당수는 병렬 처리를 활용해서 여러 CPU, GPU 또는 노드로 계산을 분산함으로써 학습 프로세스의 속도를 높일 수 있다. 병렬 학습용으로 사용 가능한 하드웨어가 있다면 사용하라. 추가되는 각 컴퓨팅 디바이스마다 거의 선형적으로 속도가 향상된다. 학습에 사용 중인 머신러닝 프레임워크에서 병렬 학습을 지원할 수도 있다. 예를 들어 MXNet 라이브러리는 병렬로 모델 학습이 가능하다. 또한 MXNet은 학습 병렬화의 두 가지 주요 방법론인 데이터 병렬 처리와 모델 병렬 처리를 모두 지원한다.

구글 브레인팀 소속의 알렉스 크리체프스키는 네트워크 학습 병렬화에 관한 논문에서 데이터 병렬 처리와 모델 병렬 처리의 차이점에 대해 설명했다. “데이터 병렬 처리에서는 여러 작업자가 여러 데이터 예제로 모델을 학습시키지만 일관적인 모델 학습을 보장하기 위해 모델 매개변수를 동기화해야 한다.” 즉, 데이터를 분할해서 여러 디바이스에서 학습할 수 있지만, 각 노드에서 생산되는 모델을 상호 동기화해서 서로 두드러지게 다른 예측 결과를 내지 않도록 해야 한다. 노드 간 데이터 동기화를 위한 여러 가지 전략을 적용해서 이 방법으로 텐서플로우를 사용할 수 있다.

모델 병렬 처리에서는 여러 작업자가 모델의 서로 다른 각 부분을 학습시키는데, “한 작업자가 학습시키는 모델 부분에 다른 작업자에 의해 학습되는 모델 부분의 출력이 필요할 때마다” 동기화 상태를 유지해야 한다. 일반적으로 이 방법은 반복 신경망과 같이 상호 입력되는 여러 개의 계층이 모델 학습에 포함될 때 사용된다. 토치(Torch) 프레임워크를 포함한 많은 프레임워크가 현재 두 가지 접근 방법을 모두 지원하므로 파이프라인을 구축하는 두 가지 방법을 모두 익혀 두는 것이 좋다.

머신러닝 모델 배포
파이프라인의 마지막 단계는 학습된 모델 배포, 또는 길버트가 “머신러닝 파이프라인 : 구성 요소의 중국식 메뉴” 논문에서 표현한 대로 하면 “예측 및 서비스” 단계다. 수신되는 데이터를 대상으로 학습된 모델을 실행해서 예측을 생성한다. 예를 들어 얼굴 인식 시스템의 경우 얼굴 사진 또는 셀카 사진이 데이터로 수신되면 다른 얼굴 사진에서 추론한 모델을 통해 예측을 수행할 수 있다.

클라우드 배포
이 예측을 어디서, 어떻게 수행하느냐는 파이프라인의 또 다른 부분을 구성한다. 가장 일반적인 시나리오는 RESTful API로 클라우드 인스턴스에서 예측을 제공하는 것이다. 이 경우 클라우드 서비스의 모든 이점을 누릴 수 있다. 예를 들어 수요를 충족하기 위해 인스턴스를 추가로 가동할 수 있다. 또한 클라우드 호스팅 모델에서는 학습 데이터, 학습되는 모델, 예측 인프라와 같은 파이프라인의 많은 부분을 같은 곳에 둘 수 있다. 데이터를 많이 이동할 필요가 없어 모든 작업의 속도가 더 빨라진다. 모델을 같은 환경에서 재교육하고 배포할 수 있으므로 증분적 모델 재교육을 더 신속하게 수행할 수 있다.

클라이언트 디바이스 배포
때에 따라 클라이언트에 모델을 배포해서 예측을 수행하는 것이 더 나을 수도 있다. 적합한 사용처는 대역폭을 아껴야 하는 모바일 앱, 그리고 네트워크 연결이 보장되지 않거나 안정적이지 않은 앱이다.

다만 로컬 머신에서 수행되는 예측의 품질은 상대적으로 떨어질 수 있다는 점을 유의해야 한다. 로컬 스토리지의 제약으로 인해 배포되는 모델의 크기가 작고, 이것이 예측 품질에 영향을 미칠 수 있기 때문이다. 다만 속도와 정확도를 약간 타협하는 방법으로 스마트폰과 같은 보편적인 디바이스에서 꽤 정확한 모델을 배포하는 것도 가능해지고 있다. 사용하는 애플리케이션이 로컬 배포 모델을 정기적으로 갱신해서 납득할 만한 정확도를 얻을 수 있는지 확인해 보는 것이 좋다. 그렇다면 데이터 연결이 없는 상태에서도 앱에서 예측을 수행할 수 있다.

클라이언트에 모델을 배포하는 방식에는 또 다른 장애물도 있다. 모델이 여러 위치에 배포될 수 있으므로 배포 프로세스가 복잡해질 수 있다는 점이다. 하나의 학습된 모델에서 하나의 대상 하드웨어, OS 또는 애플리케이션 플랫폼으로 가는 일관적인 경로가 없다. 머신러닝 모델을 사용한 앱 개발이 확산되면서 일관적인 배포 파이프라인을 찾기 위한 노력이 계속되겠지만, 이 복잡성이 빠른 시일 내에 사라질 가능성은 희박하다.

현재와 미래의 머신러닝 파이프라인
파이프라인이라는 용어는 한쪽 끝에서 반대쪽으로의 끊김 없는 단방향 흐름을 암시한다. 현실에서 머신러닝 흐름은 순환에 더 가깝다. 데이터가 들어와서 모델 학습에 사용되고 이후 그 모델의 정확성이 평가된다. 새 데이터가 들어오고 그 데이터의 의미가 발전함에 따라 모델이 재학습된다. 지금으로서는 머신러닝 파이프라인을 각각의 관심이 필요한 별개의 단계들로 보는 수밖에 없다. 각 단계가 서로 다르게 기능해서가 아니라 이러한 모든 조각을 잇는 종단간 통합이라고 할 만한 것이 거의 없기 때문이다. 달리 말하자면 사실 파이프라인은 없다. 그저 우리가 흔히 파이프라인이라고 여기는 연속된 일련의 활동이 있을 뿐이다.
 

---------------------------------------------------------------
머신러닝 인기기사
->요즘 화제 '챗봇'··· CMO가 알아야 할 7가지 
->기계학습 구현을 쉽게!··· 머신러닝 프레임워크 13종 
->기계 학습을 최대한 활용할 수 있는 11가지 오픈소스 도구
->유비쿼터스 AI 시대··· 머신러닝이 차세대 BI인 이유 
->'인지, 신경, 딥, 머신?'··· AI 분야 기본 개념 따라잡기
->칼럼 | 성큼 도래한 유비쿼터스 AI 세상··· 마음의 준비를 'Her'하라
->기계 학습을 최대한 활용할 수 있는 11가지 오픈소스 도구
->인공지능의 무한질주···협상·테스팅에도 접목
---------------------------------------------------------------


머신러닝을 위한 데이터 플랫폼 프로젝트
그러나 진정한 파이프라인의 필요성에 대응하기 위한 여러 프로젝트가 진행 중이다. 일부는 데이터 플랫폼 업체의 기존 프로젝트를 앞질러 가고 있다. 예를 들어 하둡 업체 맵알(MapR)은 맵알 하둡 배포판, CPU/GPU 지원이 포함된 통합 신경망 라이브러리, 그리고 전문 컨설팅 서비스가 결합된 분산 딥러닝 퀵 스타트 솔루션(Distributed Deep Learning Quick Start Solution)을 1년 6노드 라이선스로 제공한다.

호튼웍스(Hortonworks)는 최근 컨테이너를 사용해서 호튼웍스 데이터 플랫폼(HDP) 클러스터에 텐서플로우를 배포하는 방법을 발표했다. HDP를 사용해 구축되는 종단간 머신러닝 파이프라인이라 해도 여전히 수작업으로 조합해야 하지만, 컨테이너를 사용하므로 전체적인 파이프라인 조합 과정은 더 쉬울 것이다. 맵알은 마이크로서비스 모델을 통해 데이터 과학 프로젝트를 위한 라이프사이클을 만들고 있다. 여기서는 컨테이너와 쿠버네티스를 사용해서 학습 및 예측 워크로드를 조직 및 조율하고 쿠버네티스 볼륨 드라이버를 사용해서 스토리지에서 컴퓨팅을 더 확실히 분리한다.

현재 진행 중인 또 다른 라이프사이클 프로젝트로는 아파치 스파크 프로젝트를 주도하는 기업 개발자들인 데이터브릭스(Databricks)가 발표한 ML플로우(MLflow)가 있다. ML플로우는 머신러닝 라이프사이클에서 실험 추적(예를 들어 변화하는 초매개변수), 재사용을 위한 코드 패키징, 모델 관리 및 배포의 세 가지 측면을 다룬다. ML플로우 프로젝트는 특정 머신러닝 프레임워크나 알고리즘 세트에 묶이지 않으므로 빌드의 기반으로 삼기에 좋다. 다만 아직은 알파 단계다.

데이터 과학자를 위한 데브옵스 툴
이상적인 솔루션이라면 머신러닝 파이프라인의 모든 단계를 포괄하고, 현재 소프트웨어 분야에 존재하는 지속적 제공(Continuous Delivery) 시스템과 유사한 매끄러운 환경을 제공하는 완전한 오픈소스 설계 패턴일 것이다. 즉, 위키본의 길버트의 말대로 “데이터 과학자를 위한 데브옵스 툴”을 구성하는 솔루션이다.

바이두(Baidu)는 쿠버네티스를 주축으로 하는, 데이터 과학자를 위한 그러한 데브옵스 툴에 대해 연구 중이라고 발표했지만, 아직 구체적인 결과물은 없다(맵R도 시스템의 여러 노드에 걸쳐 작업을 조율하기 위해 쿠버네티스를 사용한다. 그러한 툴이 나오기 전까지는 파이프라인의 모든 부분을 모두 익히는 수밖에 없다. editor@itworld.co.kr

 

 

※ 본 내용은 한국IDG(주)(http://www.itworld.co.kr)의 저작권 동의에 의해 공유되고 있습니다.
Copyright ⓒITWORLD. 무단전재 및 재배포 금지

[원문출처 : http://www.ciokorea.com/news/39248]

맨 위로
맨 위로