반응형

1. AWS Deep Composer

 진행하던 토이 프로젝트가 폭파되고 나서 한동한 AWS solution 콘솔도 안 열어보다가 결재 문제로 오랜만에 접속했는데, 재밌는 서비스가 추가되었더군요. AWS Deep Composer는 딥러닝에 기반해 "작곡"을 할 수 있는 서비스입니다. 전용 키보드도 판매하는 것 같은데, (자그마치 99달러!) 작은 가상 키보드를 제공해서 재미 삼아 가지고 놀기엔 충분한 것 같습니다. 저도 이런 게 생겼네? 하는 생각으로 들어갔다가 이것저것 건반 눌러보고, 모델이 생성한 음악 듣다 보니 1시간이 훌쩍 지나있었습니다. 

 

1) 소개

  • Deep composer 콘솔은 크롬에 최적화 되어 있습니다.
  • U-Net 아키텍처를 사용한 AR-CNN 방식generative adversarial network (GAN)에 기반한 Muse GAN 두가지 방식을 지원한다고 합니다.
  • 위에 언급한 두 가지 기술은 AWS github에서 예제 코드를 공개하고 있으며, AWS Sagemaker 이용자는 콘솔에서 바로 연결하여 자기만의 모델을 만들 수 있습니다.
  • Midi 파일을 통해 실제 음원으로 훈련이 가능합니다.

2) 사용법

  • 구체적인 학습방법이 아닌 간단하게 체험하고 대략적인 구조를 알아볼 수 있는 Music Studio 사용법입니다.

1. https://aws.amazon.com/ko/console/ 링크를 통해 aws에 접속합니다.

2. region이 "버지니아 북부"가 아니신 경우 수정하신 다음 deep composer를 검색합니다.(지원 region을 넓힐 것이라는 얘기는 따로 없는 것 같네요)

3. 최상단의 사진과 같은 화면이 나타나면 get started 버튼을 눌러줍니다.

4. Music studio 버튼을 클릭하여 콘솔로 들어갑니다.

5. 기본으로 "작은 별"이 설정되어 있습니다. 하단에는 가상 키보드가 있어 우측 상단 녹음 버튼을 통해 직접 원하는 음악을 연주할 수 있습니다.

6. 붉은색 박스친 부분에서 어떤 기술을 사용한 모델을 사용할 것인지 선택하고 초록색 박스를 통해 학습 모델을 선택할 수 있습니다.

  • Auto regressive 선택 시 모델은 바흐의 음악을 학습시킨 샘플 모델이 제공됩니다.
  • GAN 선택 시 U-net/Muse GAN을 선택할 수 있고, Auto regressive를 선택할 때보다 훨씬 다양한 스타일의 음악이 학습된 샘플 모델이 제공됩니다.

 

 

반응형
복사했습니다!