[논문 조사] Audio 2개를 mixing하거나, 이어붙이거나, 중첩시켜서 input으로 사용하는 생성모델 논문 조사
아래와 같이 세 가지 모델들을 찾아봤는데, 여러 오디오가 중첩된 비디오에서 오디오를 분리하는 과정(Audio separation)의 역과정에 대한 논문, 즉, Audio separation의 역과정인 분리된 오디오로 여러 오디오가 중첩된 비디오로 생성하는 모델은 현재까지 찾아본 바...
아래와 같이 세 가지 모델들을 찾아봤는데, 여러 오디오가 중첩된 비디오에서 오디오를 분리하는 과정(Audio separation)의 역과정에 대한 논문, 즉, Audio separation의 역과정인 분리된 오디오로 여러 오디오가 중첩된 비디오로 생성하는 모델은 현재까지 찾아본 바...
1. [ICLR 2023] PV3D: A 3D Generative Model for Portrait Video Generation
DreamBooth: https://dreambooth.github.io/
1. Dreambooth 구조 ⇒ for customizing
https://github.com/adobe-research/custom-diffusion
내용: video dataset 조사한 것 중에 하나 선택해서 video caption을 input으로 했을 때 audio 결과가 어떤지 audioldm 모델로 결과 뽑고, video(caption에 해당하는)랑 audio(audioldm모델로 뽑은 결과) 를 합쳤을 때 두개...
https://github.com/lxj616/make-a-stable-diffusion-video
ECCV 2022, Learning Visual Styles from Audio-Visual Associations
1. video captioning dataset
https://github.com/guyyariv/AudioToken
Ubuntu 설치 (완료) Conda 설치 (완료) cuda toolkit 설치 (완료) sudo apt install nvidia-cuda-toolkit cuda version 확인: nvcc -V ⇒ release 11...
(이전 컴퓨터에서 실행한 내용이라 실행 결과 파일은 첨부하지 못하였다.)