이 글의 원문은 여기서 확인하실 수 있습니다.
Android에서 온디바이스 ML을 이용하면 서버 기반 ML에 비해 높은 오프라인 가용성, 지연 시간 단축, 개인정보 보호 강화, 추론 비용 절감 등 특유의 이점을 누릴 수 있습니다. 덕분에 Android에서 온디바이스 ML의 이용은 그 어느 때보다 빠르게 증가하고 있습니다.
온디바이스 ML 기반 기능을 구축할 때, Android 개발자들은 보통 두 가지 방법 중 하나를 선택합니다. ML Kit처럼 훈련과 최적화가 끝난 ML 모델이 함께 제공되어 프로덕션 준비가 완료된 SDK를 사용하기도 하고, 더 많은 제어 권한이 필요한 경우에는 자체 커스텀 ML 모델과 기능을 이용할 수도 있습니다.
이 페이지에서는 Android 커스텀 ML 스택의 몇 가지 업데이트 사항을 알려 드리고자 합니다. 커스텀 ML 스택이란 Android에서 커스텀 ML 기능을 이용하기 위한 필수 API 및 서비스의 집합을 말합니다
Google Play 서비스의 TensorFlow Lite가 Android의 공식 ML 추론 엔진이 되었습니다
지난 Google I/O '21의 사전 체험판 미리보기를 통해, Google Play 서비스의 TensorFlow Lite가 독립 실행형 TensorFlow Lite의 대안으로서 처음 공개되었습니다. 그 후, TensorFlow Lite는 수만 개의 앱을 통해 매달 수십억 명의 사용자에게 서비스를 제공할 정도로 성장했습니다. Google Play 서비스의 TensorFlow Lite는 지난 9월에 안정화 버전이 출시되었고, 이제 Android의 공식 ML 추론 엔진으로 채택되었습니다.
Google Play 서비스의 TensorFlow Lite를 사용하면 바이너리 크기를 절약하고 자동 업데이트를 통한 성능 향상의 이점을 누릴 수 있을 뿐 아니라, 저희의 공식 추론 엔진을 기반으로 하여 향후 API와 서비스를 개발할 때 Android 커스텀 ML 스택에서 손쉽게 통합할 수도 있습니다.
현재 TensorFlow Lite를 앱에 번들로 제공하고 계신다면 문서에서 마이그레이션 방법을 확인하시기 바랍니다.
TensorFlow Lite 델리게이트가 Google Play 서비스를 통해 배포됩니다
몇 년 전에 출시된 GPU 델리게이트와 NNAPI 델리게이트는 GPU, DSP 또는 NPU 같은 전문 하드웨어의 처리 능력을 활용하는 데 유용합니다. 이제는 GPU 델리게이트와 NNAPI 델리게이트 모두 Google Play 서비스를 통해 배포됩니다.
능숙한 일부 개발자께서는 커스텀 델리게이트를 직접 이용하고 싶으실 것입니다. Google Play 서비스를 통해 커스텀 델리게이트에 쉽게 접근하실 수 있도록 현재 하드웨어 파트너들과 협력 중입니다.
최적의 런타임 성능을 위해 Acceleration Service에서 가장 좋은 TensorFlow Lite 델리게이트를 선택해 보세요
사용되는 하드웨어가 서로 다르다면 각 사용자에게 가장 적합한 델리게이트를 찾는 일이 어려울 수 있습니다. 이 문제를 해결하실 수 있도록, TensorFlow Lite 모델에 맞게 런타임 시 하드웨어 가속 구성을 안전하게 최적화할 수 있는 새로운 API를 개발하는 중입니다.
2023년 초 출시를 목표로 하고 있으니, Acceleration Service 사전 체험판을 어서 신청해 보세요.
Android 커스텀 ML 스택에 대한 투자는 계속됩니다
Android의 고성능 커스텀 온디바이스 ML의 요건을 마련해 드리기 위한 노력은 계속되고 있습니다.
정리하자면, 현재 Android 커스텀 ML 스택은 다음을 포함합니다.
- 고성능 온디바이스 추론을 위한 Google Play 서비스의 TensorFlow Lite
- 하드웨어 가속을 위한 TensorFlow Lite 델리게이트
런타임 시 최적의 델리게이트를 선택하는 데 도움이 될 Acceleration Service는 곧 공개됩니다.
developer.android.com/ml에서 Android 커스텀 ML 스택에 대한 더 자세한 내용과 최신 소식을 살펴보세요.