Repository: KwaiVGI/SynCamMaster Branch: main Commit: 43ea4d961189 Files: 222 Total size: 32.7 MB Directory structure: gitextract_iigplzbn/ ├── .gitignore ├── README.md ├── diffsynth/ │ ├── __init__.py │ ├── configs/ │ │ ├── __init__.py │ │ └── model_config.py │ ├── controlnets/ │ │ ├── __init__.py │ │ ├── controlnet_unit.py │ │ └── processors.py │ ├── data/ │ │ ├── __init__.py │ │ ├── simple_text_image.py │ │ └── video.py │ ├── extensions/ │ │ ├── ESRGAN/ │ │ │ └── __init__.py │ │ ├── FastBlend/ │ │ │ ├── __init__.py │ │ │ ├── api.py │ │ │ ├── cupy_kernels.py │ │ │ ├── data.py │ │ │ ├── patch_match.py │ │ │ └── runners/ │ │ │ ├── __init__.py │ │ │ ├── accurate.py │ │ │ ├── balanced.py │ │ │ ├── fast.py │ │ │ └── interpolation.py │ │ ├── ImageQualityMetric/ │ │ │ ├── BLIP/ │ │ │ │ ├── __init__.py │ │ │ │ ├── blip.py │ │ │ │ ├── blip_pretrain.py │ │ │ │ ├── med.py │ │ │ │ └── vit.py │ │ │ ├── __init__.py │ │ │ ├── aesthetic.py │ │ │ ├── clip.py │ │ │ ├── config.py │ │ │ ├── hps.py │ │ │ ├── imagereward.py │ │ │ ├── mps.py │ │ │ ├── open_clip/ │ │ │ │ ├── __init__.py │ │ │ │ ├── coca_model.py │ │ │ │ ├── constants.py │ │ │ │ ├── factory.py │ │ │ │ ├── generation_utils.py │ │ │ │ ├── hf_configs.py │ │ │ │ ├── hf_model.py │ │ │ │ ├── loss.py │ │ │ │ ├── model.py │ │ │ │ ├── model_configs/ │ │ │ │ │ └── ViT-H-14.json │ │ │ │ ├── modified_resnet.py │ │ │ │ ├── openai.py │ │ │ │ ├── pretrained.py │ │ │ │ ├── push_to_hf_hub.py │ │ │ │ ├── timm_model.py │ │ │ │ ├── tokenizer.py │ │ │ │ ├── transform.py │ │ │ │ ├── transformer.py │ │ │ │ ├── utils.py │ │ │ │ └── version.py │ │ │ ├── pickscore.py │ │ │ └── trainer/ │ │ │ ├── __init__.py │ │ │ └── models/ │ │ │ ├── __init__.py │ │ │ ├── base_model.py │ │ │ ├── clip_model.py │ │ │ └── cross_modeling.py │ │ ├── RIFE/ │ │ │ └── __init__.py │ │ └── __init__.py │ ├── models/ │ │ ├── __init__.py │ │ ├── attention.py │ │ ├── cog_dit.py │ │ ├── cog_vae.py │ │ ├── downloader.py │ │ ├── flux_controlnet.py │ │ ├── flux_dit.py │ │ ├── flux_ipadapter.py │ │ ├── flux_text_encoder.py │ │ ├── flux_vae.py │ │ ├── hunyuan_dit.py │ │ ├── hunyuan_dit_text_encoder.py │ │ ├── hunyuan_video_dit.py │ │ ├── hunyuan_video_text_encoder.py │ │ ├── hunyuan_video_vae_decoder.py │ │ ├── hunyuan_video_vae_encoder.py │ │ ├── kolors_text_encoder.py │ │ ├── lora.py │ │ ├── model_manager.py │ │ ├── omnigen.py │ │ ├── sd3_dit.py │ │ ├── sd3_text_encoder.py │ │ ├── sd3_vae_decoder.py │ │ ├── sd3_vae_encoder.py │ │ ├── sd_controlnet.py │ │ ├── sd_ipadapter.py │ │ ├── sd_motion.py │ │ ├── sd_text_encoder.py │ │ ├── sd_unet.py │ │ ├── sd_vae_decoder.py │ │ ├── sd_vae_encoder.py │ │ ├── sdxl_controlnet.py │ │ ├── sdxl_ipadapter.py │ │ ├── sdxl_motion.py │ │ ├── sdxl_text_encoder.py │ │ ├── sdxl_unet.py │ │ ├── sdxl_vae_decoder.py │ │ ├── sdxl_vae_encoder.py │ │ ├── stepvideo_dit.py │ │ ├── stepvideo_text_encoder.py │ │ ├── stepvideo_vae.py │ │ ├── svd_image_encoder.py │ │ ├── svd_unet.py │ │ ├── svd_vae_decoder.py │ │ ├── svd_vae_encoder.py │ │ ├── tiler.py │ │ ├── utils.py │ │ ├── wan_video_dit.py │ │ ├── wan_video_image_encoder.py │ │ ├── wan_video_text_encoder.py │ │ └── wan_video_vae.py │ ├── pipelines/ │ │ ├── __init__.py │ │ ├── base.py │ │ ├── cog_video.py │ │ ├── dancer.py │ │ ├── flux_image.py │ │ ├── hunyuan_image.py │ │ ├── hunyuan_video.py │ │ ├── omnigen_image.py │ │ ├── pipeline_runner.py │ │ ├── sd3_image.py │ │ ├── sd_image.py │ │ ├── sd_video.py │ │ ├── sdxl_image.py │ │ ├── sdxl_video.py │ │ ├── step_video.py │ │ ├── svd_video.py │ │ ├── wan_video.py │ │ └── wan_video_syncammaster.py │ ├── processors/ │ │ ├── FastBlend.py │ │ ├── PILEditor.py │ │ ├── RIFE.py │ │ ├── __init__.py │ │ ├── base.py │ │ └── sequencial_processor.py │ ├── prompters/ │ │ ├── __init__.py │ │ ├── base_prompter.py │ │ ├── cog_prompter.py │ │ ├── flux_prompter.py │ │ ├── hunyuan_dit_prompter.py │ │ ├── hunyuan_video_prompter.py │ │ ├── kolors_prompter.py │ │ ├── omnigen_prompter.py │ │ ├── omost.py │ │ ├── prompt_refiners.py │ │ ├── sd3_prompter.py │ │ ├── sd_prompter.py │ │ ├── sdxl_prompter.py │ │ ├── stepvideo_prompter.py │ │ └── wan_prompter.py │ ├── schedulers/ │ │ ├── __init__.py │ │ ├── continuous_ode.py │ │ ├── ddim.py │ │ └── flow_match.py │ ├── tokenizer_configs/ │ │ ├── __init__.py │ │ ├── cog/ │ │ │ └── tokenizer/ │ │ │ ├── added_tokens.json │ │ │ ├── special_tokens_map.json │ │ │ ├── spiece.model │ │ │ └── tokenizer_config.json │ │ ├── flux/ │ │ │ ├── tokenizer_1/ │ │ │ │ ├── merges.txt │ │ │ │ ├── special_tokens_map.json │ │ │ │ ├── tokenizer_config.json │ │ │ │ └── vocab.json │ │ │ └── tokenizer_2/ │ │ │ ├── special_tokens_map.json │ │ │ ├── spiece.model │ │ │ ├── tokenizer.json │ │ │ └── tokenizer_config.json │ │ ├── hunyuan_dit/ │ │ │ ├── tokenizer/ │ │ │ │ ├── special_tokens_map.json │ │ │ │ ├── tokenizer_config.json │ │ │ │ ├── vocab.txt │ │ │ │ └── vocab_org.txt │ │ │ └── tokenizer_t5/ │ │ │ ├── config.json │ │ │ ├── special_tokens_map.json │ │ │ ├── spiece.model │ │ │ └── tokenizer_config.json │ │ ├── hunyuan_video/ │ │ │ ├── tokenizer_1/ │ │ │ │ ├── merges.txt │ │ │ │ ├── special_tokens_map.json │ │ │ │ ├── tokenizer_config.json │ │ │ │ └── vocab.json │ │ │ └── tokenizer_2/ │ │ │ ├── preprocessor_config.json │ │ │ ├── special_tokens_map.json │ │ │ ├── tokenizer.json │ │ │ └── tokenizer_config.json │ │ ├── kolors/ │ │ │ └── tokenizer/ │ │ │ ├── tokenizer.model │ │ │ ├── tokenizer_config.json │ │ │ └── vocab.txt │ │ ├── stable_diffusion/ │ │ │ └── tokenizer/ │ │ │ ├── merges.txt │ │ │ ├── special_tokens_map.json │ │ │ ├── tokenizer_config.json │ │ │ └── vocab.json │ │ ├── stable_diffusion_3/ │ │ │ ├── tokenizer_1/ │ │ │ │ ├── merges.txt │ │ │ │ ├── special_tokens_map.json │ │ │ │ ├── tokenizer_config.json │ │ │ │ └── vocab.json │ │ │ ├── tokenizer_2/ │ │ │ │ ├── merges.txt │ │ │ │ ├── special_tokens_map.json │ │ │ │ ├── tokenizer_config.json │ │ │ │ └── vocab.json │ │ │ └── tokenizer_3/ │ │ │ ├── special_tokens_map.json │ │ │ ├── spiece.model │ │ │ ├── tokenizer.json │ │ │ └── tokenizer_config.json │ │ └── stable_diffusion_xl/ │ │ └── tokenizer_2/ │ │ ├── merges.txt │ │ ├── special_tokens_map.json │ │ ├── tokenizer_config.json │ │ └── vocab.json │ ├── trainers/ │ │ ├── __init__.py │ │ └── text_to_image.py │ └── vram_management/ │ ├── __init__.py │ └── layers.py ├── download_wan2.1.py ├── example_test_data/ │ ├── cameras/ │ │ └── camera_extrinsics.json │ └── metadata.csv ├── generate_sample_list.py ├── inference_syncammaster.py ├── models/ │ └── SynCamMaster/ │ └── checkpoints/ │ └── Put SynCamMaster ckpt file here.txt ├── requirements.txt ├── setup.py ├── train_syncammaster.py └── vis_cam.py ================================================ FILE CONTENTS ================================================ ================================================ FILE: .gitignore ================================================ *__pycache__ *.ckpt Wan-AI ================================================ FILE: README.md ================================================ # SynCamMaster: Synchronizing Multi-Camera Video Generation from Diverse Viewpoints