gitextract_cc8zu0m1/ ├── 4G_memory_rag/ │ └── langchain_demo.py ├── AIPC/ │ ├── Mac_feature_and_shortcut.json │ └── spider.py ├── MiniCPM-o-long_video_inference/ │ ├── README.md │ ├── infer.py │ └── requirements.txt ├── MiniCPMV2_6_awq/ │ ├── modeling_minicpmv.py │ └── quantize.py ├── OCR_Multimodal_Search/ │ ├── asset/ │ │ └── README.md │ ├── finetune/ │ │ ├── __init__.py │ │ ├── app.log │ │ ├── dataset.py │ │ ├── dataset_original.py │ │ ├── ds_config_zero2.json │ │ ├── ds_config_zero3.json │ │ ├── finetune.py │ │ ├── finetune_ds.sh │ │ ├── finetune_lora.sh │ │ ├── readme.md │ │ └── trainer.py │ └── infer/ │ ├── app.py │ ├── cli_demo.py │ ├── dataset.py │ ├── inference.py │ └── utils.py ├── OCR_VG/ │ ├── chat.py │ ├── data_demo/ │ │ ├── img_gt.json │ │ └── train_data_demo.json │ ├── gt_test.py │ ├── merge_box.py │ ├── omnilmm/ │ │ ├── __init__.py │ │ ├── constants.py │ │ ├── conversation.py │ │ ├── model/ │ │ │ ├── __init__.py │ │ │ ├── omnilmm.py │ │ │ ├── resampler.py │ │ │ └── utils.py │ │ ├── train/ │ │ │ └── train_utils.py │ │ └── utils.py │ └── simsun.ttc ├── README.md ├── README_application.md ├── README_en.md ├── agent_auto_plan/ │ ├── README.md │ ├── autoplan/ │ │ ├── all_param_inference.py │ │ ├── bing_search.py │ │ ├── fuctions.py │ │ ├── load_model.py │ │ ├── lora_inference_nomerge.py │ │ ├── main.py │ │ ├── prompt_plamte.py │ │ └── tools_introduction.py │ ├── finetune_language/ │ │ ├── README.md │ │ ├── dataset.py │ │ ├── ds_config_zero2.json │ │ ├── ds_config_zero3.json │ │ ├── finetune.py │ │ ├── finetune_ds.sh │ │ ├── finetune_lora.sh │ │ ├── merge_lora.py │ │ └── replace_file/ │ │ └── modeling_minicpmv.py │ ├── qwen_vllm.py │ ├── test_plan.json │ └── test_react.json ├── agent_demo/ │ ├── agent_demo.py │ ├── build_react_prompt.py │ ├── get_react_data.py │ └── react_qa_react.json ├── ft_language_replace_file/ │ └── finetune/ │ ├── __init__.py │ ├── dataset.py │ ├── ds_config_zero2.json │ ├── ds_config_zero3.json │ ├── finetune.py │ ├── finetune_ds.sh │ ├── finetune_lora.sh │ ├── merge_lora.py │ ├── only_language_web_demo.py │ ├── readme.md │ ├── replace_file/ │ │ ├── modeling_minicpmv.py │ │ └── resampler.py │ └── trainer.py ├── get_minicpmv2.6_embeding/ │ ├── dataset.py │ ├── inference.py │ ├── modeling_minicpmv.py │ └── readme.md ├── mbti_role_play/ │ ├── mbti_demo.py │ ├── mbti_sft_dpo_data/ │ │ └── get_rank_data.py │ └── self_awareness/ │ └── get_all_awarness_data.py ├── md/ │ ├── finetune/ │ │ ├── minicpm2.0/ │ │ │ ├── llama_factory.md │ │ │ ├── mlx_sft.md │ │ │ └── sft.md │ │ ├── minicpm3.0/ │ │ │ ├── llama_factory.md │ │ │ ├── pip_list.md │ │ │ └── sft.md │ │ ├── minicpmv2.5/ │ │ │ ├── sft.md │ │ │ └── swift.md │ │ └── minicpmv2.6/ │ │ ├── pip_list.md │ │ └── sft.md │ ├── inference/ │ │ ├── minicpm2.0/ │ │ │ ├── llama.cpp_android.md │ │ │ ├── llama.cpp_pc.md │ │ │ ├── mlx.md │ │ │ ├── ollama.md │ │ │ ├── powerinfer_android.md │ │ │ ├── powerinfer_pc.md │ │ │ ├── transformers.md │ │ │ └── vllm.md │ │ ├── minicpm3.0/ │ │ │ ├── llamcpp.md │ │ │ ├── ollama.md │ │ │ ├── sglang.md │ │ │ ├── transformers.md │ │ │ └── vllm.md │ │ ├── minicpmv2.5/ │ │ │ ├── LMdeploy.md │ │ │ ├── llamacpp_pc.md │ │ │ ├── ollama.md │ │ │ ├── swift_commandline.md │ │ │ ├── swift_python.md │ │ │ ├── transformers_multi_gpu.md │ │ │ ├── vllm.md │ │ │ └── xinference.md │ │ └── minicpmv2.6/ │ │ ├── llamacpp.md │ │ ├── ollama.md │ │ ├── transformers_mult_gpu.md │ │ ├── vllm.md │ │ └── vllm_api_server.md │ ├── integrate/ │ │ ├── function_call.md │ │ ├── langchain.md │ │ └── openai_api.md │ ├── md_en/ │ │ ├── finetune/ │ │ │ ├── minicpm2.0/ │ │ │ │ ├── llama_factory.md │ │ │ │ ├── mlx_sft.md │ │ │ │ └── sft.md │ │ │ ├── minicpm3.0/ │ │ │ │ ├── llama_factory.md │ │ │ │ ├── pip_list.md │ │ │ │ └── sft.md │ │ │ ├── minicpmv2.5/ │ │ │ │ ├── sft.md │ │ │ │ └── swift.md │ │ │ └── minicpmv2.6/ │ │ │ ├── pip_list.md │ │ │ └── sft.md │ │ ├── inegrate/ │ │ │ ├── function_call.md │ │ │ ├── langchain.md │ │ │ └── openai_api.md │ │ ├── inference/ │ │ │ ├── minicpm2.0/ │ │ │ │ ├── llama.cpp_android.md │ │ │ │ ├── llama.cpp_pc.md │ │ │ │ ├── mlx.md │ │ │ │ ├── ollama.md │ │ │ │ ├── powerinfer_android.md │ │ │ │ ├── powerinfer_pc.md │ │ │ │ ├── transformers.md │ │ │ │ └── vllm.md │ │ │ ├── minicpm3.0/ │ │ │ │ ├── llamacpp.md │ │ │ │ ├── sglang.md │ │ │ │ ├── transfomers.md │ │ │ │ └── vllm.md │ │ │ ├── minicpmv2.5/ │ │ │ │ ├── LMdeploy.md │ │ │ │ ├── llamacpp_pc.md │ │ │ │ ├── ollama.md │ │ │ │ ├── swift_commandline.md │ │ │ │ ├── swift_python.md │ │ │ │ ├── transformers_multi_gpu.md │ │ │ │ ├── vllm.md │ │ │ │ └── xinference.md │ │ │ └── minicpmv2.6/ │ │ │ ├── llamacpp.md │ │ │ ├── ollama.md │ │ │ ├── transformers_mult_gpu.md │ │ │ ├── vllm.md │ │ │ └── vllm_api_server.md │ │ └── quantize/ │ │ ├── minicpm2.0/ │ │ │ ├── awq.md │ │ │ ├── bnb.md │ │ │ └── gptq.md │ │ ├── minicpm3.0/ │ │ │ ├── awq.md │ │ │ ├── bnb.md │ │ │ └── gptq.md │ │ ├── minicpmv2.5/ │ │ │ └── bnb.md │ │ └── minicpmv2.6/ │ │ ├── awq.md │ │ └── bnb.md │ └── quantize/ │ ├── minicpm2.0/ │ │ ├── awq.md │ │ ├── bnb.md │ │ └── gptq.md │ ├── minicpm3.0/ │ │ ├── awq.md │ │ ├── bnb.md │ │ └── gptq.md │ ├── minicpmv2.5/ │ │ └── bnb.md │ └── minicpmv2.6/ │ ├── awq.md │ └── bnb.md └── windows_minicpm3.0_agent/ ├── app.py ├── cli_demo.py ├── dataset.py ├── get_reponse.py ├── inference.py ├── utils.py └── windows_agent.py