Home > 열린마당 > 공개SW 소식

공개SW 소식

2021.01.04

 

  • © 인공지능신문, 최창현 기자

 

페이스북은 최근에 인공지능(AI)의 많은 분야에서 획기적인 심층 신경망 아키텍처인 트랜스포머(Transformers)를 활용하는 컴퓨터 비전 모델을 훈련시키는 새로운 방법을 개발했다.

트랜스포머 모델은 자연어 처리(NLP) 및 기계 번역에서 최첨단 결과를 냈으며 페이스북 AI는 언어 인식, 상징 수학(Symbolic Mathematics) 및 프로그래밍 언어 간의 번역과 같은 작업과 새로운 기반을 개척하기 위해 아키텍처를 사용했다. 또 AI 연구 커뮤니티는 지난해 초 발표된 DETR 객체 탐지 아키텍처와 같은 프로젝트로 트랜스포머를 컴퓨터 비전 분야에 끌어들이기 시작했다.

데이터 효율적인 이미지 변환기(Data-efficient image Transformers. 이하, DeiT)라는 페이스북의 새로운 기술은 고성능 이미지 분류 모델을 생산하기 위해 훨씬 적은 데이터와 컴퓨팅 리소스를 필요로 한다. 3일 동안 단일 8-GPU 서버로 DeiT 모델을 훈련하여, 학습에 외부 데이터를 사용하지 않고 널리 사용되는 이미지넷(ImageNet) 벤치마크에서 84.2 top-1 정확도를 달성했다.

 

(후략)


[원문출처 : http://www.aitimes.kr/news/articleView.html?idxno=18825]

맨 위로
맨 위로