한국의 개발자들을 위한 Google for Developers 국문 블로그입니다.
Google Brain 팀이 지난 2017년에 진행한 주요 프로젝트에 대해 다시 확인해 보세요. (파트1)
2018년 2월 6일 화요일
<블로그 원문은
이곳
에서 확인하실 수 있으며, 블로그 번역 리뷰는
전태균(Machine Learning GDE)
님이 참여해 주셨습니다.>
게시자: Jeff Dean, Google 선임 연구원(Google Brain 팀 대표로 작성)
Google Brain 팀
은 전체
Google AI
프로젝트에서 일익을 담당하면서 연구 및 시스템 엔지니어링을 통해 최첨단 인공 지능 기술의 발전에 힘을 쏟고 있습니다. 지난해 우리는 2016년도에 진행한 작업을 요약해
공유
한 바 있습니다. 그 이후로도 우리는 기계의 지능화라는 장기적 연구 과제를 계속 수행해 왔으며
Google
과
Alphabet
소속의 여러 팀과 협업을 통해 우리의 연구 결과를 활용하여 사람들의 생활을 향상해 왔습니다. 두 편으로 나누어 게시할 내용 중 첫 편인 이번 글에서는 우리가 진행하는 기초적인 연구 조사 프로젝트는 물론,
기계 학습
을 위한 오픈소스 소프트웨어, 데이터세트 그리고 새로운 하드웨어에 대한 업데이트를 비롯하여, 2017년도에 수행한 작업 몇 가지를 집중적으로 살펴보겠습니다.
두 번째 글
에서는 의료, 로봇 공학, 기초 과학 영역 등, 기계 학습이 큰 영향을 미칠 수 있는 특정 분야에서 우리가 수행하는 연구 조사에 대해 살펴보고, 창의성, 공정성 및 포용성과 관련된 연구 조사에 대한 소개도 드리면서 저희에 대해 좀 더 자세히 설명하겠습니다.
핵심 연구 조사
우리 팀이 가장 중점을 두는 점은 우리의 이해를 증진시키고 기계 학습 분야에서 새로운 문제의 해결 능력을 향상하는 연구 조사를 추구하는 것입니다. 우리가 작년에 연구 조사를 진행한 몇 가지 테마를 아래에 소개합니다.
AutoML
기계 학습 자동화의 목적은 기계 학습 전문가가 새로운 문제가 발생할 때마다 개입할 필요 없이 컴퓨터가 새로운 기계 학습 문제를 자동으로 풀 수 있는 기술을 개발하는 것입니다. 이는 진정으로 지능적인 시스템을 구축하는 데 있어 꼭 필요한 기본적인 역량입니다. 우리는 강화 학습 및 진화 알고리즘을 모두 활용하여
신경망 아키텍처를 설계하는 새로운 접근 방식
을 개발했는데, 이 작업을
ImageNet 분류 및 감지에 대한 최첨단 결과물
로 확장하고 새로운
최적화 알고리즘
과
효과적인 활성화 기능
을 자동으로 학습하는 방법도 보여주었습니다. 우리는 Google 고객이 이 기술을 이용할 수 있도록 하기 위해 내부
Cloud AI
팀과 활발히 협업하고 있으며 본 연구 조사를 다방면으로 진행하려고 꾸준히 노력하고 있습니다.
신경 아키텍처 연구 조사를 통해 발견한 컨벌루션 아키텍처
AutoML을 통해 발견한 네트워크를 활용한 물체 감지
음성 이해 및 생성
또 다른 테마는 컴퓨팅 시스템이 사람의 음성을 이해하고 생성하는 능력을 높여주는 새로운 기술 개발에 관한 것입니다. 일례로, 우리는 Google 음성 팀과 협업하여
음성 인식에 대한 종단간 접근 방식을 위한 여러 가지 향상된 기술을 개발
하여 Google의 프로덕션 음성 인식 시스템의 상대적인 단어 오류율을 16% 줄였습니다. 이 작업에서 한 가지 훌륭한 점을 꼽자면, 개별적인 많은 연구 조사를 하나로 합치도록 했다는 점입니다(개별적인 세부 연구 조사는 Arxiv에서 확인 가능:
1
,
2
,
3
,
4
,
5
,
6
,
7
,
8
,
9
).
음성 인식을 위한
듣기-주의-철자화(Listen-Attend-Spell) 종단간 모델
의 구성 요소
또한, Google
기계 인식
팀 소속의 연구원과 협업하여 TTS(텍스트 음성 변환) 생성을 수행하는 새로운 접근 방식(Tacotron 2)도 개발했습니다. 이 접근 방식은 생성되는 음성의 품질을 상당히 높여 줍니다. 이 모델은 4.53점의 평균 평점(MOS)을 받았습니다. 이는 오디오북에서 들을 수 있는 것처럼 전문적으로 녹음된 음성의 경우 MOS가 4.58점이고 이전의 최고 컴퓨터 생성 음성 시스템의 경우 4.34점인 데 비해 그 우수성이 입증됩니다.
직접 들어보시기 바랍니다
.
Tacotron 2의 모델 아키텍처
새로운 기계 학습 알고리즘 및 접근 방식
우리는 계속해서 참신한 기계 학습 알고리즘과 접근 방식을 개발했습니다. 예컨대, 시각적 작업을 수행할 때 많은 다양한 노이즈 가설을 평가하는 한 방법으로 활성화되는 기능에서 명시적으로 합의를 구하는
캡슐
에 대한 작업, 매우 큰 규모의 모델이 연산 효율성을 유지하도록 지원하는
희소 게이트 MoE(Mixture-of-Experts)
, 한 모델의 가중치를 사용하여 또 다른 모델의 가중치를 생성하는
하이퍼망
, 동일한 모델에서 오디오 입력, 시각적 입력 및 텍스트 입력에 걸쳐 멀티태스킹 학습을 수행하는
새로운 종류의 다중 모드 모델
, 컨벌루션 및 재귀 모델의 대안인
주의 기반 메커니즘
,
이산 변수로 역전파
하는 기술인
기호적
및
비기호적
학습 최적화 방법, 몇 가지 새로운
강화 학습
알고리즘 개선 등이 있습니다.
컴퓨터 시스템을 위한 기계 학습
컴퓨터 시스템에서 기존의 추론법을 대체하기 위해 기계 학습을 사용하는 것 또한 우리의 관심을 많이 끄는 주제입니다. 우리는 인간 전문가보다 더 뛰어난
일련의 연산 기기로 산출 그래프를 매핑하기 위한 의사 결정을 내리는 데 강화 학습
을 사용하는 방법을 보여주었습니다. Google Research의 다른 동료 연구원들과 함께 우리는 신경망이 B 트리, 해시 테이블, 블룸 필터 같은 기존의 데이터 구조보다 더 빠르고 훨씬 더 작을 수 있다는 점을 '
학습된 인덱스 구조 사례(The Case for Learned Index Structures)
'에서 보여주었습니다.
시스템을 위한 기계 학습 그리고 기계 학습을 위한 시스템
을 주제로 진행된 NIPS 워크숍 담화에서 언급한 것처럼, 우리는 코어 컴퓨터 시스템에서 기계 학습을 사용한다는 측면에서 표면적으로만 다루고 있다고 생각합니다.
인덱스 구조 형태의 학습 모델
개인정보 보호 및 보안
기계 학습, 그리고 기계 학습과 보안 및 개인정보 보호와의 상호 작용은 우리가 계속해서 집중하고 있는 연구 분야입니다. 우리는
ICLR 2017
에서 최고의 논문 상을 수상한
논문
에서 차등적으로 개인정보 보호를 보장하는 방식으로 기계 학습 기술이 적용될 수 있음을 입증했습니다. 또한,
실제 환경에서 대립적인 사례를 보여주고
, 대립적인 사례에 대해 모델을 더욱 견고하게 만들기 위해
훈련 프로세스 중에 대규모로 대립적인 사례를 활용하는 방법
을 비롯하여
대립적인 사례
의 속성을 꾸준히 조사했습니다.
기계 학습 시스템 이해
딥 러닝
을 통해 인상적인 결과를 목격했지만 이것이 왜 효과가 있고 어떠한 경우에 효과가 없을지에 대해 파악해야 합니다. ICLR 2017에서
최고의 논문 상을 수상한 또 다른 논문
에서 우리는 현재 기계 학습의 이론적 틀로는 딥 러닝 접근 방식의 인상적인 결과를 설명하지 못한다는 사실을 입증했습니다. 뿐만 아니라,
최적화 방법을 통해 발견한 최소 '평탄화'가 처음에 생각했던 만큼 우수한 성능의 일반화와 밀접하게 연결되지 않는다
는 점을 입증했습니다. 딥 아키텍처에서 훈련이 어떻게 진행되는지 더욱 효과적으로 파악하기 위해, 우리는
무작위
행렬
이 대부분 훈련 접근 방식의 시작점이기 때문에 이러한 무작위 행렬을 분석한 일련의 논문을 발표했습니다. 딥 러닝을 파악하기 위한 또 다른 중요한 방법은 성능을 더욱 효과적으로 측정하는 것입니다. 우리는 생성 모델에 인기 있는 다수의 향상 기술을 적용하더라도 실제로는 성능이 향상되지 않는다는 사실을 발견한
다수의 GAN 접근 방식을 비교한 최근 연구
에서 우수한 실험 설계 및 통계적으로 엄격한 적용이 중요하다는 점을 입증했습니다. 우리는 이번 연구가 다른 연구원들이 실험 연구를 탄탄하게 수행하기 위해 따라야 하는 모범을 제시하기를 바랍니다.
우리는 현재
기계 학습 시스템의 해석 능력 향상 방법
을 개발 중입니다. 3월에는
OpenAI
,
DeepMind
,
YC Research
등과의 협업을 통해 기계 학습에 대한 인간의 이해를 지원하는 것이 주 목적인 새로운 온라인 공개 과학 저널인
Distill의 출범
을 발표했습니다. 이 저널은 기계 학습 개념을 명확히 설명하고 기사 내에서 뛰어난 대화형 시각화 도구를 제공한다는 점에서 명성을 얻었습니다.
Distill
은 출범 첫해에 다양한 기계 학습 기술의 내부 작동 방식을 이해할 수 있도록 하는 것을 목표로
많은
명쾌하고 통찰적인
기사
를 게재했으며 2018년에는 더 많은 기사가 발표되리라 기대합니다.
기능 시각화
t-SNE를 효과적으로 사용하는 방법
기계 학습 연구 조사를 위한 오픈 데이터세트
MNIST
,
CIFAR-10
,
ImageNet
,
SVHN
,
WMT
와 같은 오픈 데이터세트는 기계 학습 분야를 엄청나게 발전시켰습니다. 우리 팀과 Google Research는 작년 한 해 동안 한 팀을 이루어 다음을 비롯하여 대규모로 레이블이 지정된 데이터세트에 더 많이 액세스할 수 있도록 제공함으로써 개방형 기계 학습 연구 조사를 위해 관심이 있는 새로운 데이터세트를 아웃소스로 제공하는 작업을 함께 해왔습니다.
YouTube-8M
: 4,716개의 서로 다른 클래스로 주석이 달린 7백만 개가 넘는 YouTube 동영상
YouTube-Bounding Boxes
: 210,000개의 YouTube 동영상에서 발췌된 5백만 개의 경계 상자
음성 명령 데이터세트
: 수천 명의 사람이 짤막한 명령어를 말한 음성
오디오세트
: 527개의 서로 다른 소리 이벤트로 레이블이 지정된 2백만 개의 10초짜리 YouTube 클립
AVA(원자성 시각적 행동)
: 57,000개의 동영상 클립에서 210,000개의 행동 레이블 지정
공개 이미지
: 6,000개 클래스로 레이블이 지정된 9백만 개의 저작물 사용 허가를 받은 이미지
경계 상자가 있는 공개 이미지
: 600개 클래스에 대한 120만 개의 경계 상자
YouTube-Bounding Boxes 데이터세트
에서 발췌한 예제: 관심 항목 주위에서 경계 상자가
성공적으로 식별된 상태에서
1fps로 샘플링된 동영상 세그먼트
TensorFlow 및 오픈소스 소프트웨어
TensorFlow 사용자의 광범위한 분포를 보여주는 지도(
소스
)
우리 팀은 예전부터 계속해서 기계 학습 연구 조사를 실시하고 Google의 많은 제품에 기계 학습 시스템을 배포하는 데 도움이 되는 여러 도구를 빌드해 왔습니다. 2015년 11월, 우리는 기계 학습 커뮤니티가 기계 학습 소프트웨어 도구에 대한 투자를 활용할 수 있기를 바라는 마음에서 2세대 기계 학습 프레임워크인
TensorFlow
를 오픈소스로 제공했습니다. 2월에 우리는
TensorFlow 1.0
을 출시했으며 11월에는 중요한 기능이 추가된
v1.4
를 출시했습니다. 중요한 기능으로는 대화형 명령 스타일 프로그래밍을 위한
즉시 실행(Eager execution)
, TensorFlow 프로그램을 위한 최적화 컴파일러인
XLA
, 그리고 모바일 및 내장형 기기용 경량 솔루션인
TensorFlow Lite
등이 있습니다.
사전 컴파일된 TensorFlow 바이너리
가 현재까지 180여 개국에서 천만 회 이상 다운로드되었으며
GitHub에 게시되는 소스 코드
의 경우 현재까지 그 공헌자 수가 1,200명을 넘었습니다.
2월에는 첫 번째
TensorFlow Developer Summit
을 주최했으며, 마운틴 뷰에서 진행된 본 행사에 450명이 넘는 사람들이 이 회담에 참석했으며 35개국에서 85회 이상 현지에 모여 함께 회담을 시청하는 행사를 포함하여 전 세계적으로 6,500여 명이 라이브 스트림을 시청했습니다. 모든
회담은 녹화
되었으며, 새로운 기능이나 TensorFlow 사용 기법에 대해 알아보거나 낮은 수준의 TensorFlow 추상화에서 내부적인 요소를 상세히 살펴보는 등의 다양한 주제가 다루어졌습니다. 우리는 2018년 3월 30일 베이 에어리어에서 제2회 TensorFlow 개발자 회담을 개최할 예정입니다.
지금 등록
하여 일정을 비워두고 최신 뉴스를 계속해서 확인해 보시기 바랍니다.
이
가위바위보 과학 실험
은 TensorFlow를 참신하게 활용한 사례입니다. 우리는
오이 분류 자동화
,
항공 이미지에서의 바다소 찾기
,
더욱 안전한 이유식을 만들기 위해 깍둑썰기한 감자 분류
,
피부암 확인
,
뉴질랜드 조류 보호구에서 녹음한 새소리 해석 지원
,
탄자니아에서 지구상에 가장 인기 있는 뿌리 작물 중 질병에 걸린 식물 식별
등을 비롯하여, 2017년에 TensorFlow가 다양한 부문에 활용되고 있다는 점을 확인하고는 정말 기뻤습니다!
11월에 TensorFlow는 오픈소스 프로젝트로서 맞이하는 2주년을 기념했습니다. 저희는 TensorFlow 개발자와 사용자로 구성된 활기 넘치는 커뮤니티가 출현하는 것을 보는 것으로 엄청난 보답을 받았습니다. TensorFlow는 GitHub에 게시된 것 중 최고의 기계 학습 플랫폼이자 GitHub를 통틀어
다섯 손가락 안에 꼽히는 저장소 중 하나
로, TensorFlow와 관련하여
GitHub에 게시된 24,500여 개의 개별 저장소
와 함께 크고 작은
많은 회사와 조직
이 이용하고 있습니다. 연구 결과에 맞춘 오픈소스 TensorFlow 구현과 함께 많은 연구 논문이 현재 발표되어 있습니다. 이를 통해 커뮤니티는 현재 사용되고 있는 정확한 방법을 더욱 쉽게 이해하고 작업을 재현하거나 확장할 수 있습니다.
TensorFlow는 TensorFlow의 대립적인 생성 모델을 위한 경량 라이브러리인
TF-GAN
, 격자 모델 작업을 위한 Estimator 세트인
TensorFlow Lattice
는 물론,
TensorFlow Object Detection API
를 포함하여 다른 Google Research 팀이 진행한 오픈소스 제공 관련 작업을 통해서도 혜택을 누렸습니다. TensorFlow
모델 저장소
는 계속해서 점점 확장하는 모델 세트를 통해 성장하고 있습니다.
TensorFlow 외에도
브라우저에서 바로 딥 러닝 API를 구현하는 오픈소스 하드웨어 가속 구현 방식
(다운로드하거나 설치해야 할 항목이 없음)인
deeplearn.js
를 출시했습니다. deeplearn.js 홈페이지에는 웹 캠을 사용하여 훈련하는 컴퓨터 비전 모델인
Teachable Machine
과 실시간 신경망 기반 피아노 작곡 및 연주 데모인
Performance RNN
을 포함하여 여러 가지 훌륭한 예제가 들어 있습니다. 우리는 TensorFlow 모델을 deeplearn.js 환경에 직접 배포할 수 있도록, 2018년에도 열심히 노력할 것입니다.
TPU
클라우드 TPU
는 최대 180테라플롭의 기계 학습 가속화를 지원합니다.
약 5년 전, 우리는 딥 러닝이 앞으로 필요할 하드웨어의 종류를 상당히 바꿀 것이라는 점을 인식했습니다. 딥 러닝 연산에는 연산 작업이 아주 많지만 두 가지 특수한 속성이 있습니다. 하나는 조밀한 선형 대수학 연산(행렬 곱, 벡터 연산 등)으로 주로 구성된다는 점이고 또 다른 하나는 정밀도 감소에 매우 관대하다는 점입니다. 우리는 이러한 두 가지 속성을 활용하여 신경망 연산을 아주 효율적으로 실행할 수 있는 특수화된 하드웨어를 빌드할 수 있다는 점을 깨달았습니다. 이에 따라 Google 플랫폼 팀에 설계 입력 데이터를 제공했으며 Google 플랫폼 팀은 딥 러닝 모델을 위한 추론(추론은 이미 훈련된 신경망을 활용하는 것이며 훈련과는 완전히 다른 방식임)을 가속화하도록 설계된 단일 칩 ASIC인 1세대 TPU(Tensor Processing Unit)를 설계하고 제작했습니다. 이 1세대 TPU는 3년 동안 Google 데이터 센터에서 배포되었으며, 모든
Google 검색
쿼리,
Google 번역
,
Google 포토
에서의 이미지 파악,
이세돌
및
커제
와
알파고
의 대국, 그리고 기타 많은 연구 조사와 제품 사용에서 활용할 수 있도록 딥 러닝 모델의 구동에 사용되었습니다. 6월에는 이 1세대 TPU가 현대의 GPU 또는 CPU보다 15~30배 더 빠르며 와트당 성능은 약 30~80배 더 높다는 사실을 다룬
논문
을
ISCA 2017
에 발표했습니다.
클라우드 TPU Pod
는 최대 11.5페타플롭의 기계 학습 가속화를 지원합니다.
ImageNet에서의 ResNet-50 훈련 관련 실험
에서는 사용되는 TPU 기기의 수가 늘어남에 따라
거의 완벽하게 속도가 향상된다는 점을 보여줍니다.
추론이 중요하지만 훈련 프로세스를 가속화하는 것이 훨씬 더 중요한 문제인 동시에 훨씬 더 어려운 문제입니다. 연구원이 더욱 빠르게 새로운 아이디어를 시험해 볼 수 있을수록 더 많은 혁신을 이룰 수 있을 것입니다. 5월에 열린 Google I/O에서 발표한
2세대 TPU
는 훈련 및 추론 프로세스를 모두 가속화하기 위해 설계된 완전한 시스템(맞춤형 ASIC 칩, 보드 및 상호 연결 장치)이며, 우리는 단일 기기 구성은 물론 TPU Pod라고 하는 멀티 랙 딥 러닝 슈퍼 컴퓨터 구성을 선보였습니다. 우리는 이 2세대 기기를
Google Cloud Platform
에서
클라우드 TPU
로 제공할 예정임을 발표했습니다. 또한, 진행한 연구 결과를 공유하는 데 열심인 주요 ML 연구원에게 1,000개의 클라우드 TPU로 구성된 클러스터에 무료로 액세스할 수 있게 제공하는 프로그램인
TensorFlow 연구 조사 클라우드(TFRC)
도 발표했습니다. 12월에는 일반적인 워크스테이션에서는 며칠 이상 소요되는 것에 비해 TPU에서는 22분 만에 높은 수준의 정확성을 실현하도록 ResNet-50 ImageNet 모델을 훈련할 수 있음을 보여주는
작업 결과를 발표
했습니다. 우리는 이러한 방식으로 연구 소요 시간을 단축하면 Google은 물론, 클라우드 TPU를 이용하는 모든 조직에서 활동하는 기계 학습 팀의 생산성이 상당히 높아질 거라고 생각합니다. 클라우드 TPU, TPU Pod 또는 TensorFlow 연구 조사 클라우드에 관심이 있으시면
g.co/tpusignup
에 가입하여 더 자세히 알아보시기 바랍니다. 2018년에는 더 많은 엔지니어와 연구원이 TPU를 사용할 수 있으리라고 생각하니 너무 기쁩니다!
읽어주셔서 감사합니다!
(
파트 2
에서는 의료, 로봇 공학, 여러 과학 부문과 같은 분야에서의 기계 학습 응용과 관련하여 우리가 진행 중인 연구 조사에 대해 살펴보고 창의성은 물론, 공정성과 포용성에 대해 진행 중인 작업에 대해서도 소개해 드리겠습니다.)
댓글 없음 :
새 댓글을 작성할 수 없습니다.
Contents
ML/Tensorflow
Android
Flutter
Web/Chrome
Cloud
Google Play
Community
Game
Firebase
검색
Tag
인디게임페스티벌
정책 세미나
창구프로그램
AdMob
AI
Android
Android 12
Android 12L
Android 13
Android 14
Android Assistant
Android Auto
Android Games
Android Jetpack
Android Machine Learning
Android Privacy
Android Studio
Android TV
Android Wear
App Bundle
bootcamp
Business
Chrome
Cloud
Community
compose
Firebase
Flutter
Foldables
Game
gdg
GDSC
google
Google Developer Student Clubs
Google Play
Google Play Games
Interview
Jetpack
Jetpack Compose
kotlin
Large Screens
Library
ma
Material Design
Material You
ML/Tensorflow
mobile games
Now in Android
PC
Play Console
Policy
priva
wa
wear
Wearables
Web
Web/Chrome
Weeklyupdates
WorkManager
Archive
2024
10월
9월
8월
7월
6월
5월
4월
3월
2월
1월
2023
12월
11월
10월
9월
8월
7월
6월
5월
4월
3월
2월
1월
2022
12월
11월
10월
9월
8월
7월
6월
5월
4월
3월
2월
1월
2021
12월
11월
10월
9월
8월
7월
6월
5월
4월
3월
2월
1월
2020
12월
11월
10월
9월
8월
7월
6월
5월
4월
3월
2월
1월
2019
12월
11월
10월
9월
8월
7월
6월
5월
4월
3월
2월
1월
2018
12월
11월
10월
9월
8월
7월
6월
5월
4월
3월
2월
1월
2017
12월
11월
10월
9월
8월
7월
6월
5월
4월
3월
2월
1월
2016
12월
11월
10월
9월
8월
7월
6월
5월
4월
3월
2월
1월
2015
12월
11월
10월
9월
8월
7월
6월
5월
4월
3월
2월
1월
2014
12월
11월
10월
9월
8월
7월
6월
5월
4월
3월
2월
1월
2013
12월
11월
10월
9월
8월
7월
6월
5월
4월
3월
2월
1월
2012
12월
11월
10월
9월
8월
7월
6월
5월
3월
2월
1월
2011
12월
11월
Feed
댓글 없음 :
새 댓글을 작성할 수 없습니다.