한국의 개발자들을 위한 Google for Developers 국문 블로그입니다.
Android 개발자 스토리: 뮤직 앱 개발업체 DJiT
2016년 1월 27일 수요일
게시자
:
Lily Sheringham, Google Play
팀
파리에
본사를
둔
DJiT
는
세계에서
가장
많이
다운로드된
DJ
앱
중
하나인
edjing
의
개발업체로
, edjing
의
현재
다운로드
수는
6,000
만
회가
넘으며
182
개국에서
사용되고
있습니다
. Android
에서
앱을
출시한
이후
앱이
성장하는데
플랫폼이
가장
크게
기여 하였으며
현재
총
수익의
50%
와
신규
다운로드의
70%
이상이
Android
사용자로부터
발생하고
있습니다
.
CEO
이자
공동
설립자인
Jean-Baptiste Hironde,
마케팅
매니저
Séverine Payet,
그리고
Android
소프트웨어
엔지니어
Damien Delépine
으로부터
어떻게
DJiT
가
새로운
Android Marshmallow
에서
지연
시간을
단축 하였는지
,
기타
Android
및
Google Play
기능을
사용하여
놀라운
품질의
앱을
만들게
된
스토리를
들어보세요
.
뛰어난
오디오
앱
개발
및
Google Play
에서
성공하기
에
대해
자세히
알아보세요
.
Google Play 개발자 콘솔에서 앱 및 인앱 상품용 프로모션 코드 만들기
2016년 1월 27일 수요일
게시자: Yoshi Tamura, Google Play 제품 관리자
지난 6개월 동안 여러분의 앱 또는 게임 비즈니스가 Google Play에서 성장할 수 있도록 여러 가지 새로운 도구가 Google Play 개발자 콘솔에 추가되었습니다. Google의
개선된 베타 테스트 기능
은 더 많은 의견을 수집하고 문제를 해결하는 데 도움이 됩니다.
스토어 등록정보 실험
을 사용하면 앱의 Play 스토어 등록정보에서 A/B 테스트를 실행할 수 있습니다.
범용 앱 캠페인
과
사용자 획득 실적 보고서
는 잠재고객을 더 많이 확보하고 마케팅에 대한 이해를 높이는 데 도움이 됩니다.
오늘부터
프로모션 코드
를 생성하고 Google Play에서 기존 및 신규 사용자에게 배포하여 참여를 유도할 수 있습니다. 개발자 콘솔의 프로모션 탭에서 앱, 게임 및 인앱 상품에 사용할 프로모션 코드를 설정하여 자체 마케팅 캠페인에 사용할 수 있습니다. 프로모션 코드를 사용하여 앱/게임을 애용하는 사용자를 보상하고, 앱 리뷰를 권장하며, 신규 고객을 유치해 보세요.
프로모션 코드 사용 방법
1. 개발자 콘솔에서 앱을 선택합니다.
2. 프로모션 탭에서 새 프로모션 추가를 선택합니다.
3. 이전에 프로모션을 실행해보지 않은 경우 추가 서비스 약관을 검토하고 동의합니다.
4.
사용할 수 있는 옵션
중에서 선택한 다음, 프로모션 코드를 생성하고 다운로드합니다.
5. 프로모션 코드를 소셜 네트워크와 같은 마케팅 채널, 이메일, 웹을 통해 앱의 베타 테스터, 앱 또는 게임 자체에 배포합니다.
6. 사용자는 다음과 같은 여러 방법을 통해 프로모션 코드를 사용할 수 있습니다.
a. Google Play에서 사용 메뉴 옵션을 통해
b. 앱에서, 사용자가 Play 결제 절차로 연결된 후 앱으로 리디렉션됨
c. 프로모션 코드가 삽입된 링크를 통해(아래 도움말 참조)
앱 또는 게임용 프로모션 실행에 대한 자세한 내용은
Google Play
개발자 도움말 센터에서 이 도움말을 참조하세요
.
프로모션 코드를 최대한 활용하기 위한 도움말
프로모션을 실행할 때 유의해야 할 점:
분기당 앱 하나에서 사용할 수 있는 프로모션 코드 개수는 최대 500개입니다.
코드를 URL에 삽입하면 사용자가 코드 자체를 입력하지 않아도 됩니다(예를 들어 코드를 이메일로 전송하는 경우). URL을 다음과 같이 사용할 수 있습니다. https://play.google.com/store?code={CODE}({CODE}는 생성된 프로모션 코드).
인앱 상품에 프로모션 코드를 사용하려면 앱에
인앱 프로모션을 구현
해야 합니다. 프로모션 코드는 구독에 사용할 수 없습니다.
프로모션 코드 서비스 약관
을 검토하고 준수합니다.
프로모션 코드 사용을 통해 신규 사용자를 찾고 기존 팬의 참여를 유도하는 멋진 방법을 발견하시기 바랍니다. Google Play에서 비즈니스를 성장시키기 위해 사용할 수 있는 여러 도구와 권장사항에 대해 자세히 알아보려면 Google의 새로운 개발자 플레이북, '
Google Play
에서 앱으로 성공을 거두기 위한 비법
'을 다운로드하세요.
한국 Google Developer Expert(GDE)에 지원하세요!
2016년 1월 26일 화요일
Google Developer Expert
란?
Google Developer Expert는 한 가지 이상의 구글 기술에 있어서 전문가이자 동시에 영향력 있는 개발자들의 글로벌 네트워크입니다. 코드 샘플 만들기, 컨퍼런스 스피커 활동, 개발자 비디오 촬영 등의 활동을 통해 개발자 생태계에 가장 열정적으로 기여하는 그룹이기도 합니다. 이런 GDE들의 도움으로 전세계의 개발자, 스타트업, 테크 커뮤니티들이 혁신적인 앱을 만들고 론치하고 있습니다.
GDE가 되면?
구글 Developer Site의
Experts 디렉토리
에 여러분의 프로필이 등록됩니다.
매년 열리는 GDE 서밋에 구글의 지원을 받아 참가하실 수 있습니다.
GDE 프로그램에서는 프로덕트와 관련된 이야기를 나눌 수 있도록 정기적으로 구글의 팀과 교류할 수 있는 채널을 열어놓고 있습니다.
구글과 함께 개발자들을 위한 이벤트들을 준비하고 스피커나 멘토로 활동할 수 있습니다.
전세계의 프로페셔널 개발자들과 메일링 리스트, 비공개 커뮤니티를 통해 교류할 수 있습니다.
구글 I/O와 같이 구글에서 준비하는 행사에 초대받으실 수 있습니다.
한국 GDE가 되려면?
관련 분야의 전문가이신가요?
개발자 컨퍼런스에서의 스피커 활동, 블로그, 예제 코드, 발표 자료등등 유용한 콘텐츠를 만들기, 다른 개발자나 테크 스타트업 멘토링 활동 등을 꾸준히 하실 수 있으신가요?
그렇다면, 1월 31일까지
지원서
를 제출 해 주세요. 지원서를 제출하신 분들께 개별적으로 인터뷰 일정을 알려드릴 예정입니다. *인터뷰 과정 중 일부는 영어로 진행 됩니다.*
한국 GDE 선발 분야
Android
Web Technologies
Google Cloud Platform
한국 GDE 지원 신청하기
(1월 31일까지)
Google HackFair 돌아보기#2 - MetaMong
2016년 1월 20일 수요일
Google HackFair
는 구글 기술을 이용해서 만든 다양한 결과물들을 전시하고 공유하는 행사입니다. 지난 12월 5일, 프로젝트 참가자분들은 안드로이드, Cardboard, TensorFlow 등 다양한 구글 기술을 사용한 재미있는 프로젝트를 전시하고 풍성한 볼거리와 기술력 그리고 범상치 않은 업력(?)을 선보였습니다.
행사에 참가하지 못한 분들도, 개발자들의 열정과 즐거움을 느껴볼 수 있도록, 구글 코리아 개발자 블로그를 통해 HackFair에 참가한 다양한 프로젝트 중 몇 가지를 골라, 프로젝트 참가자분들과의 인터뷰 내용을 소개해 드리려고 합니다. 두 번째로 소개해 드릴 프로젝트는 구글이 최근에 오픈 소스로 공개한 Machine Intelligence 라이브러리
TensorFlow
를 활용한 MetaMong팀 입니다.
1. 간단한 팀 소개를 부탁합니다.
저희는 고등학교 친구들(순서대로 전영배, 조준호, 지완규)이 모여서 이번 구글 핵페어에 참가하게 된 메타몽입니다.
2. 프로젝트 소개를 부탁합니다.
사람들은 닮은 얼굴에 관심이 많습니다. 처음 보는 사람에게 연예인 누구를 닮았다고 덕담을 해주기도 하고, 아버지는 자신의 닮은 아들의 얼굴을 보고 행복해하죠. 이런 닮은 얼굴을 기술적으로 해석해서 “이 세상에 나랑 닮은 사람을 찾아주는 메타몽”이란 서비스를 기획하게 되었습니다.
최근에 급부상하는 딥러닝이란 기계학습으로 인공지능 관점에서 얼굴을 인식하고 가장 닮은 얼굴을 찾아주며, 앱을 통해 사용하기 쉽게 구현하였습니다. 전영배 학생이 메타몽의 안드로이드 앱을 멋있는 머티리얼 디자인으로 구현하였고, 조준호 학생이 서비스 기획 및 얼굴 인식을 하고 닮은 사람을 찾아내 주는 알고리즘 부분을 구현, 지완규 학생이 서비스의 전체적인 부분, 서버와 얼굴 탐지, 한국인 얼굴 크롤링, 메타몽 웹서버 등을 구현했습니다.
프로젝트 페이지:
http://metamong.jeewangue.com/
3. 프로젝트를 시작하게 된 동기와 HackFair에 참가하시게 된 계기가 궁금합니다.
저희는 각자의 독자적인 전문성을 가지고 힘을 합쳐서 재밌는 서비스를 개발해보고 싶었습니다. 마침 HackFair는 저희의 목적에 딱 맞는 프로젝트여서 재밌게 진행 할 수 있었습니다. 그리고 넥서스5x가 너무나 가지고 싶었습니다. ^^
4. 프로젝트 진행 중 기술적으로 가장 어려웠던 부분은 어떤 것이었나요? 그리고 어떻게 해결하셨나요?
아무래도 기계학습 같은 다소 장벽이 높은 알고리즘을 적용하느라 저희 수준에서 구현 가능한 범위가 무엇인지 아는 것이 가장 어려웠습니다. 조준호 학생이 관련 분야의 석사과정 중이라 얼굴인식 분야의 논문을 참고하여 팀에서 유용하게 사용할 수 있는 딥러닝 알고리즘 및 모델을 구현할 수 있었습니다. 또한, 닮은 얼굴을 찾아내야 하므로 얼굴 데이터셋이 굉장히 많이 필요한데요, 이 부분을 지완규 학생이 웹에서 한국인 얼굴만 크롤링하고 얼굴만 찾아내는 기능을 구현해서 양질의 데이터셋을 모을 수 있었습니다. 머티리얼 디자인의 “머” 자도 모르던 전영배 학생이 고군분투하며 깔끔한 인터페이스로 모든 디바이스에서 버그 없이 앱이 작동할 수 있도록 수고해주었습니다.
5. 구글에서 최근에 발표한, TensorFlow 라이브러리를 활용하셨습니다. TensorFlow에 관해 간단히 설명해주실 수 있을까요?
TensorFlow
는 기계학습을 위한 라이브러리로 얼마전 구글이 오픈소스로 공개해서 많은 관심을 받고 있는 라이브러리입니다. 아직 공개된 지 얼마 안 되어 많은 개발자와 연구자들이 라이브러리 활용과 개선을 위해 열심히 기여하고 있습니다.
6. 공개된 지 시간이 별로 지나지 않아, 참고할 자료도 많지 않았을 텐데 TensorFlow 라이브러리를 적용하신 특별한 이유가 있나요?
저희가 Google HackFair을 진행하면서 Google의 기술을 사용해보고 싶었는데 마침 핵페어를 진행할 때 갓 공개가 되어 뜨거운 관심을 받던 TensorFlow를 꼭 써보고 싶었습니다. TensorFlow는 얼굴에서 의미 있는 특징점(feature)을 뽑을 때 사용하였습니다. 즉 얼굴을 인식해주는 부분을 TensorFlow가 해주었습니다.
7. TensorFlow를 사용하려고 하는 다른 개발자분들과 공유하고 싶은 내용이 있으신가요?
딥러닝 분야에는 이미 많은 라이브러리가 있는데 Google에서 많은 연구자들을 끌어모으기 위해 TensorFlow를 오픈소스로 공개했습니다. 공식 홈페이지의
Tutorial
에서 매우 자세하게 설명되어 있으므로 참고하시면 큰 도움이 될 것 같습니다. 또한 많은 개발자/연구자들의 관심사이기 때문에 GitHub에서 활발하게 논의되고 있습니다. 설치도 다른 라이브러리에 비해 굉장히 쉽습니다. 특히 TensorBoard를 이용해 원하는 기능을 구현할 때, 데이터 학습을 쉽게 모니터링 할 수 있습니다. 단일 GPU 머신 등에서는 다른 라이브러리보다 조금 느리다고 하지만 알고리즘 구현이 다른 라이브러리와 비교해 쉽고 구글같은 분산 컴퓨팅 환경에서도 좋은 성능으로 쓸 수 있다는 장점이 있습니다. 또한 딥러닝에는 많은 변형 알고리즘들이 생기고 있는데 TensorFlow는 프레임워크가 굉장히 유연해서 널리 사용될 것으로 기대됩니다.
8. 향후 프로젝트를 발전시킬 추가적인 계획이 있으신가요?
사람들은 서로 닮은 사람을 찾고 SNS에서 공유를 많이 합니다. 어쩌면 저희 서비스가 닮은 사람들을 이어주는 SNS가 될 수 있다고 생각합니다.
9. 마지막으로 HackFair 행사에 관한 소감 한마디 부탁합니다.
메타몽은 졸업을 앞둔 대학생(지완규)과 석사 과정 중인 대학원생(조준호, 전영배)들이 각자의 개인 시간을 할애하며 학업과 병행한 프로젝트였습니다. 이번 프로젝트를 통해 고등학교 친구들이 다시 모여 재밌게 진행하고 전시를 통해 좋은 결실로 맺을 수 있어서 너무나 보람찬 추억이 되었습니다. 그리고 뼛속까지 공대생들의 속 터지는 디자인을 귀여운 감성으로 변신 시켜준 하영이에게 고마움을 표하고 싶습니다. 지하영 학생이 메타몽의 아기자기한 귀여운 로고, 명함을 디자인해주고 굉장히 높은 퀄리티의 영상을 밤을 새가며 제작해준 작업해준 덕분에 메타몽이 핵페어에서 더 빛났습니다. 그리고 또랑또랑한 목소리로 동영상의 나레이션을 맡아준 김예진양에게도 다시 한번 고맙습니다.
각 분야의 전문성을 살린 협업에서 의미가 많았던 것 같습니다. 아무리 간단한 서비스라도 혼자 다 할 수는 없습니다. 똑똑하고 성실한 친구들과 밤새가며 서로 머리를 맞대며, 서로 배우고 아는 것을 공유하며 한 단계 더 성장한 연구자/개발자가 된 것 같습니다.
핵페어를 통해 우리가 가진 기술로 대중에게 재미를 주는 과정이 즐거웠습니다. 우리의 재능이 미술이나 음악 같은 예술은 아님에도 우리가 만든 기술 기반의 서비스를 자랑스럽게 보여줄 수 있던 핵페어 행사에 고맙습니다.
자신과 닮은 사람을 보고 즐거워하고 서로 놀리는 관람객 분들께서 메타몽을 참신하고 재밌게 생각해주셔서 감사합니다. 좋은 사람들과 좋은 인연을 가질 기회가 되었던 구글 핵페어, 다음 핵페어 행사가 있다면 당연히 다시 한번 더 재밌는 프로젝트로 참가하겠습니다!
Google HackFair 돌아보기#1 - RealVR Drive
2016년 1월 15일 금요일
Google HackFair
는 구글 기술을 이용해서 만든 다양한 결과물들을 전시하고 공유하는 행사입니다. 지난 12월 5일, 프로젝트 참가자분들은 안드로이드, YouTube, Cardboard등 다양한 구글 기술을 사용한 재미있는 프로젝트를 전시하고 풍성한 볼거리와 기술력 그리고 범상치 않은 업력(?)을 선보였습니다.
행사에 참가하지 못한 분들도, 개발자들의 열정과 즐거움을 느껴볼 수 있도록, 구글 코리아 개발자 블로그를 통해 HackFair에 참가한 다양한 프로젝트 중 몇 가지를 골라, 프로젝트 참가자분들과의 인터뷰 내용을 소개해 드리려고 합니다. 그 첫 번째는 행사 내내 가장 인기있던 프로젝트 중 하나인 RealVR Drive팀입니다.
1. 프로젝트 소개를 부탁합니다.
RealVR Drvive는 가상현실(VR) 기술과 원격제어 기술을 결합하여 실제 차에 탑승하여 운전하는 듯한 경험을 제공하는 프로젝트입니다.
한마디로 Telepresense의 기술을 확장한 Teledrive라고 말할 수 있습니다.
Cardboard SDK
를 활용하여 차량의 운전석에 장착된 카메라에서 전송되는 영상과 동시에 Headtracking 정보를 원격의 차에 설치된 카메라 제어 장치를 통하여 운전석에서 카메라 시야를 그대로 VR로 전달합니다. 뿐만 아니라 조이스틱의 스티어링휠, 엑셀, 브레이크 입력 정보를 Arduino를 통하여 R/C 차의 조향 및 주행을 차를 원격 운전하는 기술도 함께 제공합니다.
홈페이지 : https://sites.google.com/site/realvrdrive/
박언규 : 팀장, ukpark@gmail.com
김보근 : 개발자, bogeunnet@gmail.com
2. 프로젝트를 시작하게 된 동기와 HackFair에 참가한 계기가 궁금합니다.
어렸을때 정말 가지고 싶었던 RC카! 하지만 너무 비싸 그때는 정말 엄두도 못냈었습니다. 이제 직장생활도 하고 어릴적 로망이었던 RC를 사게 되었는데요. 한 몇달 가지고 나니 뭔가 좀 부족하다는 느낌이 들었습니다. 정말 진짜 차랑 똑같이 조향장치, 차동장치, 서스펜션, shock damper, 등등 완전 차를 그대로 축소한 걸 보며 이게 그냥 장난감이 아니구나 하는 생각을 했습니다. 단 운전하는 것만은 여전히 무선 조정기이서 이걸 좀더 실감나게 할 수 없을까 고민했습니다. 그래서 생각한게 레이싱 게임용 Steering Wheel로 차를 운전할 수 있지 않을까라는 생각을 했습니다.. 그 다음에는 실제 운전석에 타서 보이는 화면을 볼 수 있으면 좋지 않을까하는 순간 VR 기술이 눈에 들어왔습니다. 그래서 만들어진게 바로 RealVR이 되었습니다.
HackFair는 자주가는사이트 게시판에서 정말 우연히 HackFair 참가자를 모집하는 글을 보게 되어 참가하게 되었습니다.아마 RealVR Drive를 혼자만 즐기기 보다는 다른 사람들과 함께 즐기면 좋겠다는 생각도 들었고 또 외부 공개가 되니 조금 더 열심히 해서 완성도를 높일 수 있는 기회라고 생각이 들었습니다. (물론 참가 상품 욕심도 쬐금^^)
3. 프로젝트 진행 중 기술적으로 가장 어려웠던 부분은 어떤 것이었나요? 그리고 어떻게 해결하셨나요?
Head Tracking 부분이 가장 어려웠던 부분인데요, 실제 sensor 값이 부정하거나 계속 변해서 drift 도는 경우가 자주 발생했습니다. 조금 더 파고들면 kalman filter를 사용하면 어느 정도 안정된 값을 얻을 수 있었는데요, 유사한 기능을 하는 다른 프로젝트를 참고하였습니다.
4. Cardboard를 주된 입력 장치 중 하나로 사용하셨는데, 어떤 요소들을 사용하셨나요?
Cardboard SDK를 활용하면 쉽게 사용자 시야를 쉽게 추적할 수 있었습니다. 스마트폰의 센서값을 그대로 활용하는 것보다, 가장 “적당한” 수준의 튜닝된 값을 쉽게 찾을 수 있기 때문에 튜닝에 많은 시간을 소모하지 않아 작업 능률이 높을 것 같았습니다. 하지만 프로젝트를 진행하면서 개발 내용을 일부 수정하면서 Cardboard SDK에도 조금씩 수정도 필요했고 “적당한 실시간성"을 위해서 Cardboard SDK를 Head Tracking 성능을 튜닝 Reference로만 활용했었습니다. 그리고, Eclipse 환경에서 작업했을 때보다 훨씬 간편하고 안정적인 개발환경인 Android Studio를 활용해서 보다 쉽고 안정적으로 개발할 수 있었습니다.
5. Cardboard를 사용하려고 하는 다른 개발자분들과 공유하고 싶은 내용이 있으신가요?
Cardboard SDK를 이용하여 Telepresence 구현하기가 쉽지가 않았습니다. 왠지 영상만 받아서 Cardboard로 보내면 쉽게 될꺼 같다고 생각하실 분이 많이 있을 것 같은데, 프로젝트 시작할때는 저희들도 그렇게 생각 했었으니까요. 자동차에 장착된 IP 카메라에서 오는 영상을 실시간으로 VR에서 재생하면서 동시에 VR에서 발생되는 Head Tracking 값을 Bluetooth로 보내주어야 하는 기능을 구현만 하면 되겠다고 생각했는데, 현재의 Cardboard SDK에서는 외부 영상 입력을 지원하지 않았고, 대신에 그럼 Head Tracking 용도로만 Cardboard SDK를 사용하여 Background Service로의 동작을 하는 것도 시도했지만 Cardbaord App이 Background로 가면 동작을 멈춰버려서 사용할 수 가 없었습니다.
실제로는 저희 프로젝트에서는 Cardboard SDK를 Head Tracking 성능의 Reference로 삼고, Headtracking 부분과 외부 실제 영상을 VR로 출력하는 App을 완전히 새롭게 만들어야 했습니다. 그리고 Cardboard SDK 만큼을 성능을 내기 위해 튜닝에도 많은 시간을 썼었습니다. 구글에서 Cardboard SDK를 확장하여 Telepresence App 개발에도 쉽게 사용할 수 있도록 하면 더 많은 개발자들이 쉽게 재미있는 아이디어를 현실화 할 수 있을 것 같습니다. :)
6. RC 카와 Cardboard 를 포함한 다양한 입력장치 간에 어떻게 통신이 이루어지는지 궁금합니다.
사용된 기술은
USB, Bluetooth, WiFi, RC RF
통신입니다. RC카의 동작은 RC카에 주로 사용되는 2.4GHz RF Receiver를 통해서 무선 조정기로부터 오는 신호에 따라 동작합니다. 무선 조정기를 통해 자동차를 조정하게 되는데, Cardboard에서 발생되는 Head Tracking 정보를 Bluetooth를 통해 아두이노 보드로 전송하게 됩니다. 또한 게임용 스티어링 휠에서 발생되는 정보도 USB를 통해 아두이노 보드로 입력받고, 아두이노 보드는 이 신호를 RC카 RF Transmitter로 전달하게 됩니다. 한마디로 사람이 조정하는 RC카 조정기를 손대신에 Steering Wheel 의 신호를 변환하여 RC카를 조정하게 되는 것입니다.
7. 향후 프로젝트를 발전시킬 추가적인 계획이 있으신가요?
이번 구글 핵페어 참가로 받은 Tango 태블릿으로 RealVR 2.0을 생각하고 있습니다. 기존에 단순한 화면 전송 뿐만 아니라 실제 낯선 곳을 다니면서 Tango 태블릿에 장착된 Depth 카메라를 이용하여 3D 지도를 만들 계획을 가지고 있습니다.
8. 마지막으로 HackFair 행사에 관한 소감 한마디 부탁합니다.
우연히 HackFair 를 알게되었지만, 정말 소중한 경험을 하게 되었습니다. HackFair 당일 저녁은 가족들이 응원하러 와서 뒷풀이에는 참석하지 못했는데요, 지금생각해보면 교류할 기회가 적어서 많이 아쉽습니다. 그리고 다음에도 기회가 있다면 꼼 참가하고 싶습니다. 아니 지금부터 다음 프로젝트를 준비를 해야겠네요.
Firebase와 Google App Engine으로 실시간 데이터에 백엔드 로직 추가하기
2016년 1월 11일 월요일
게시자: Benjamin Wulfe, Firebase
Firebase는 Android, iOS 및 웹 기반 모바일 앱 빌드를 위한 플랫폼으로, 실시간 데이터 저장 및 여러 기기 간의 자동 동기화 기능을 제공합니다. 그렇지만, 데이터에 백엔드 프로세스를 실행해야 할 때는 어떻게 할까요? App Engine 애플리케이션을 Firebase 데이터베이스에 연결하면 동기화 및 업데이트 관리를 하지 않고도 복잡한 로직을 수행할 수 있습니다. 나머지는 Firebase가 알아서 처리해 줍니다. Firebase 2.4.0의 Android 클라이언트 릴리스 업데이트로 App Engine 애플리케이션에서 Firebase 데이터베이스에 액세스하기가 쉬워졌습니다.
튜토리얼
Android 앱에서 Firebase와 Google App Engine 사용하기
는 Firebase에 해야 할 일 목록을 저장하고, App Engine에서 실행되는 백엔드 로직을 이용해 매일 알림 이메일을 전송하는 Android 앱 작성 방법을 단계별로 차근차근 설명해 줍니다. 이 튜토리얼을 따라 하다 보면 다음과 같은 기술 사용 방법을 배우게 됩니다.
Firebase
- 모바일 앱 빌드를 위한 플랫폼으로 실시간 데이터 저장과 동기화, 사용자 인증 등의 기능을 제공합니다.
Android Studio
- IntelliJ IDEA를 기반으로 하는 Android 개발 환경입니다.
Android Studio용 클라우드 도구
- Google 클라우드 플랫폼 서비스와 통합하는, Android Studio에 포함되어 있는 일련의 도구들입니다.
Google App Engine
- 클라우드에서 애플리케이션 코드를 실행하는 환경으로, 서비스형 플랫폼(Platform as a service, PaaS)입니다.
안드로이드 스튜디오 2.0 프리뷰
2016년 1월 6일 수요일
작성자
Jamal Eason
, Product Manager, Android
저희가 가장 많이 받는 기능 요청은 Android Studio에서의 앱 빌드 및 배포 속도를 개선해 달라는 것입니다. 오늘
Android 개발자 회의
에서, 여러분의 개발 워크플로를 대폭 향상시켜줄 Android Studio 2.0의 프리뷰를 발표합니다. Android Studio 2.0과 함께 새 GPU 프로파일러의 프리뷰도 발표합니다.
이제 이 업데이트를 canary 릴리스 채널에서 이용하실 수 있으니, 피드백을 보내 주시기 바랍니다. 이 최초 릴리스는 프리뷰 버전이므로, Android Studio를 추가로
다운로드
해서 현재 사용 중인 버전과 함께 사용해도 좋을 것입니다.
Android Studio 2.0의 새 기능
즉시 실행: 빌드 및 배포 속도 개선
Android Studio의 즉시 실행 기능은 기기나 에뮬레이터에서 실행되고 있는 변경을 빠르게 확인할 수 있도록 해줍니다.
이 기능을 시작하는 것은 쉽습니다. Android Studio 2.0에서 새 프로젝트를 생성하는 경우, 프로젝트가 이미 설정되어 있습니다. 기존의 앱을 가지고 있다면 설정(Settings)/기본 설정(Preferences)을 연 다음 빌드(Build), 실행(Execution), 배포(Deployment) → 즉시 실행(Instant Run)으로 이동하십시오. 즉시 실행 사용...(Enable Instant Run...)을 클릭하십시오. 그러면 프로젝트에 적합한 gradle 플러그인이 작동되어 즉시 실행 기능을 사용할 수 있습니다.
Android Studio 프로젝트에 즉시 실행 기능 사용하기
보통 때처럼 실행(Run)을 선택하면 Android Studio가 정상적인 컴파일, 패키징 및 설치 단계를 수행하여 여러분의 기기나 에뮬레이터에서 앱을 실행합니다. 소스 코드나 리소스를 편집한 후 실행(Run)을 다시 누르면 실행 중인 앱에 변경 내용이 직접 배포됩니다.
즉시 실행 기능 설정에 대한 자세한 내용을 보려면
여기
를 클릭하세요.
GPU 프로파일러
이제 Android Studio에서 GPU 프로파일러를 사용하면
OpenGL ES
Android 코드 프로파일링이 한결 쉬워집니다. 이는 앞서 프리뷰에서 소개된 매우 강력한 도구로, GL 상태 및 명령을 보여줄 뿐만 아니라 세션 전체를 기록할 수 있고 앱이 OpenGL ES 코드를 실행할 때 GL 프레임버퍼와 텍스처를 검토할 수도 있습니다.
Android Studio GPU 프로파일러
이 도구를 사용하려면 먼저 Android Studio SDK Manager에서 GPU 디버깅 도구 패키지를 다운로드 하십시오. GPU 프로파일러 도구에 대한 자세한 내용을 보고 프로파일링을 위한 Android 앱 프로젝트 설정 방법을 알아보려면
여기를 클릭
하세요.
다음 계획은?
지금까지는 최신 Android Studio 릴리스에서의 대규모 업데이트를 살짝 맛 보여 드린 것에 불과합니다. Android 개발자 회의(
월요일과 화요일에 생중계
)에서 이번 릴리스 전체를 더 자세하게 설명해드리겠습니다. 앞으로 몇 주에 걸쳐 Android Studio 2.0의 한층 다양한 새 기능들을 어떻게 활용하는지 보여드릴 예정이니, 꼭 다시 찾아와 주십시오.
보다 깊은 Android의 기술적 내용에 관심이 있는 분들을 위해, 앞으로 이틀 동안 제1회 Android 개발자 회의부터의 내용을 16시간에 걸쳐
스트리밍
할 것이며, 이 내용들은 모두 회의 종료 후 Codelabs와 함께 온라인으로 보실 수 있습니다.
Android Studio 2.0은 오늘부터 Android Studio의 canary 채널에서 이용하실 수 있습니다.
Google+
에서 Android Studio 개발 팀에 연결하여 이 새 기능들에 대한 여러분의 의견을 알려주십시오.
Contents
ML/Tensorflow
Android
Flutter
Web/Chrome
Cloud
Google Play
Community
Game
Firebase
검색
Tag
인디게임페스티벌
정책 세미나
창구프로그램
AdMob
AI
Android
Android 12
Android 12L
Android 13
Android 14
Android Assistant
Android Auto
Android Games
Android Jetpack
Android Machine Learning
Android Privacy
Android Studio
Android TV
Android Wear
App Bundle
bootcamp
Business
Chrome
Cloud
Community
compose
Firebase
Flutter
Foldables
Game
gdg
GDSC
google
Google Developer Student Clubs
Google Play
Google Play Games
Interview
Jetpack
Jetpack Compose
kotlin
Large Screens
Library
ma
Material Design
Material You
ML/Tensorflow
mobile games
Now in Android
PC
Play Console
Policy
priva
wa
wear
Wearables
Web
Web/Chrome
Weeklyupdates
WorkManager
Archive
2024
12월
11월
10월
9월
8월
7월
6월
5월
4월
3월
2월
1월
2023
12월
11월
10월
9월
8월
7월
6월
5월
4월
3월
2월
1월
2022
12월
11월
10월
9월
8월
7월
6월
5월
4월
3월
2월
1월
2021
12월
11월
10월
9월
8월
7월
6월
5월
4월
3월
2월
1월
2020
12월
11월
10월
9월
8월
7월
6월
5월
4월
3월
2월
1월
2019
12월
11월
10월
9월
8월
7월
6월
5월
4월
3월
2월
1월
2018
12월
11월
10월
9월
8월
7월
6월
5월
4월
3월
2월
1월
2017
12월
11월
10월
9월
8월
7월
6월
5월
4월
3월
2월
1월
2016
12월
11월
10월
9월
8월
7월
6월
5월
4월
3월
2월
1월
2015
12월
11월
10월
9월
8월
7월
6월
5월
4월
3월
2월
1월
2014
12월
11월
10월
9월
8월
7월
6월
5월
4월
3월
2월
1월
2013
12월
11월
10월
9월
8월
7월
6월
5월
4월
3월
2월
1월
2012
12월
11월
10월
9월
8월
7월
6월
5월
3월
2월
1월
2011
12월
11월
Feed