gitextract_x82jk08x/ ├── .gitignore ├── LICENSE ├── README.md ├── autoregressive/ │ ├── models/ │ │ ├── README.md │ │ ├── dinov2_adapter.py │ │ ├── generate.py │ │ ├── gpt.py │ │ ├── gpt_t2i.py │ │ └── vit_adapter.py │ ├── sample/ │ │ ├── sample_c2i.py │ │ ├── sample_c2i_ddp.py │ │ ├── sample_t2i.py │ │ ├── sample_t2i_MR.py │ │ └── sample_t2i_ddp.py │ ├── serve/ │ │ ├── README.md │ │ ├── fake_json/ │ │ │ ├── GPT-3B.json │ │ │ ├── GPT-B.json │ │ │ ├── GPT-L.json │ │ │ ├── GPT-XL.json │ │ │ └── GPT-XXL.json │ │ ├── gpt_model.py │ │ ├── gpu_executor.py │ │ ├── llm.py │ │ ├── llm_engine.py │ │ ├── model_runner.py │ │ ├── sample_c2i.py │ │ ├── sampler.py │ │ └── worker.py │ ├── test/ │ │ ├── metric.py │ │ ├── test_c2i.py │ │ ├── test_ssim.py │ │ └── test_t2i.py │ └── train/ │ ├── extract_codes_c2i.py │ ├── extract_codes_t2i.py │ ├── extract_file_ade.py │ ├── extract_file_cocostuff.py │ ├── extract_file_imagenet.py │ ├── extract_file_multigen.py │ ├── train_c2i.py │ ├── train_c2i_canny.py │ ├── train_c2i_depth.py │ ├── train_c2i_fsdp.py │ ├── train_t2i.py │ ├── train_t2i_canny.py │ ├── train_t2i_depth.py │ ├── train_t2i_depth_multiscale.py │ ├── train_t2i_hed.py │ ├── train_t2i_hed_multiscale.py │ ├── train_t2i_lineart.py │ ├── train_t2i_lineart_multiscale.py │ ├── train_t2i_seg.py │ └── train_t2i_seg_multiscale.py ├── condition/ │ ├── README.md │ ├── canny.py │ ├── depth.py │ ├── example/ │ │ └── c2i/ │ │ ├── canny/ │ │ │ ├── 15000.npy │ │ │ ├── 2312.npy │ │ │ ├── 48850.npy │ │ │ └── 650.npy │ │ └── depth/ │ │ ├── 101.npy │ │ ├── 10601.npy │ │ ├── 4351.npy │ │ └── 48901.npy │ ├── hed.py │ ├── lineart.py │ ├── midas/ │ │ ├── depth.py │ │ └── midas/ │ │ ├── __init__.py │ │ ├── base_model.py │ │ ├── blocks.py │ │ ├── dpt_depth.py │ │ ├── midas_net.py │ │ ├── midas_net_custom.py │ │ ├── transforms.py │ │ └── vit.py │ └── utils.py ├── create_npz.py ├── dataset/ │ ├── augmentation.py │ ├── build.py │ ├── coco.py │ ├── imagenet.py │ ├── openimage.py │ ├── pexels.py │ ├── t2i.py │ ├── t2i_control.py │ └── utils.py ├── demo/ │ ├── app.py │ ├── app_depth.py │ ├── app_edge.py │ └── model.py ├── evaluations/ │ ├── ade20k_mIoU.py │ ├── c2i/ │ │ ├── README.md │ │ └── evaluator.py │ ├── canny_f1score.py │ ├── clean_fid.py │ ├── cocostuff_mIoU.py │ ├── depth_rmse.py │ ├── hed_ssim.py │ ├── lineart_ssim.py │ └── t2i/ │ ├── PartiPrompts.tsv │ ├── README.md │ ├── coco_captions.csv │ └── evaluation.py ├── language/ │ ├── README.md │ ├── extract_t5_feature.py │ └── t5.py ├── requirements.txt ├── scripts/ │ ├── autoregressive/ │ │ ├── extract_codes_c2i.sh │ │ ├── extract_file_ade.sh │ │ ├── extract_file_cocostuff.sh │ │ ├── extract_file_imagenet.sh │ │ ├── extract_file_multigen.sh │ │ ├── sample_c2i.sh │ │ ├── sample_t2i_coco.sh │ │ ├── sample_t2i_parti.sh │ │ ├── test_c2i.sh │ │ ├── test_t2i.sh │ │ ├── train_c2i.sh │ │ ├── train_c2i_canny.sh │ │ ├── train_c2i_depth.sh │ │ ├── train_c2i_fsdp.sh │ │ ├── train_t2i_canny.sh │ │ ├── train_t2i_depth.sh │ │ ├── train_t2i_depth_multiscale.sh │ │ ├── train_t2i_hed.sh │ │ ├── train_t2i_hed_multiscale.sh │ │ ├── train_t2i_lineart.sh │ │ ├── train_t2i_lineart_multiscale.sh │ │ ├── train_t2i_seg.sh │ │ ├── train_t2i_seg_multiscale.sh │ │ ├── train_t2i_stage1.sh │ │ └── train_t2i_stage2.sh │ ├── language/ │ │ ├── extract_flan_t5_feat_laion_coco_stage1.sh │ │ ├── extract_flan_t5_feat_stage2.sh │ │ └── extract_flan_t5_feat_trunc_stage2.sh │ └── tokenizer/ │ ├── reconstruction_consistency_decoder.sh │ ├── reconstruction_vae.sh │ ├── reconstruction_vq.sh │ ├── reconstruction_vqgan.sh │ ├── train_vq.sh │ ├── train_vq_finetune.sh │ ├── train_vq_finetune_continue.sh │ └── val.sh ├── tokenizer/ │ ├── consistencydecoder/ │ │ ├── README.md │ │ ├── cd_demo.py │ │ └── reconstruction_cd_ddp.py │ ├── tokenizer_image/ │ │ ├── cache/ │ │ │ └── vgg.pth │ │ ├── discriminator.py │ │ ├── discriminator_patchgan.py │ │ ├── discriminator_stylegan.py │ │ ├── lpips.py │ │ ├── reconstruction_vq_ddp.py │ │ ├── vq_demo.py │ │ ├── vq_loss.py │ │ ├── vq_model.py │ │ ├── vq_model_hf.py │ │ └── vq_train.py │ ├── vae/ │ │ ├── README.md │ │ ├── reconstruction_vae_ddp.py │ │ └── sd_vae_demo.py │ ├── validation/ │ │ └── val_ddp.py │ └── vqgan/ │ ├── README.md │ ├── configs/ │ │ ├── vqgan_imagenet_f16_1024.yaml │ │ ├── vqgan_imagenet_f16_16384.yaml │ │ ├── vqgan_openimage_f8_16384.yaml │ │ └── vqgan_openimage_f8_256.yaml │ ├── layer.py │ ├── model.py │ ├── quantize.py │ ├── reconstruction_vqgan_ddp.py │ └── taming_vqgan_demo.py ├── tools/ │ ├── check_image_codes.py │ ├── convert_pytorch_lightning_to_torch.py │ ├── draw_figure.py │ ├── imagenet_en_cn.py │ ├── openimage_json.py │ ├── push_gpt_to_hf.py │ └── push_vae_to_hf.py └── utils/ ├── data.py ├── deepspeed.py ├── distributed.py ├── drop_path.py ├── ema.py ├── logger.py └── video.py