diff --git a/README.md b/README.md
index 0b604bc..7f97d3e 100644
--- a/README.md
+++ b/README.md
@@ -8,7 +8,7 @@ tasks:
端侧可用的 GPT-4o 级视觉、语音、多模态流式大模型
-[GitHub](https://github.com/OpenBMB/MiniCPM-o) | Online Demo [CN](https://minicpm-omni-webdemo.modelbest.cn)/[US](https://minicpm-omni-webdemo-us.modelbest.cn)
+[GitHub](https://github.com/OpenBMB/MiniCPM-o) | [Online Demo](https://minicpm-omni-webdemo-us.modelbest.cn)
## MiniCPM-o 2.6
@@ -32,8 +32,7 @@ MiniCPM-o 2.6 进一步优化了 MiniCPM-V 2.6 的众多视觉理解能力,其
- 💫 **易于使用。**
-MiniCPM-o 2.6 可以通过多种方式轻松使用:(1) [llama.cpp](https://github.com/OpenBMB/llama.cpp/blob/minicpm-omni/examples/llava/README-minicpmo2.6.md) 支持在本地设备上进行高效的 CPU 推理,(2) [int4](https://huggingface.co/openbmb/MiniCPM-o-2_6-int4) 和 [GGUF](https://huggingface.co/openbmb/MiniCPM-o-2_6-gguf) 格式的量化模型,有 16 种尺寸,(3) [vLLM](#vllm-部署-) 支持高吞吐量和内存高效的推理,(4) 通过[LLaMA-Factory](./docs/llamafactory_train.md)框架针对新领域和任务进行微调,(5) 使用 [Gradio](#本地-webui-demo-) 快速设置本地 WebUI 演示,(6) 部署于[国内](https://minicpm-omni-webdemo.modelbest.cn/
-) 或 [国外](https://minicpm-omni-webdemo-us.modelbest.cn/)服务器的在线 demo。
+MiniCPM-o 2.6 可以通过多种方式轻松使用:(1) [llama.cpp](https://github.com/OpenBMB/llama.cpp/blob/minicpm-omni/examples/llava/README-minicpmo2.6.md) 支持在本地设备上进行高效的 CPU 推理,(2) [int4](https://huggingface.co/openbmb/MiniCPM-o-2_6-int4) 和 [GGUF](https://huggingface.co/openbmb/MiniCPM-o-2_6-gguf) 格式的量化模型,有 16 种尺寸,(3) [vLLM](#vllm-部署-) 支持高吞吐量和内存高效的推理,(4) 通过[LLaMA-Factory](./docs/llamafactory_train.md)框架针对新领域和任务进行微调,(5) 使用 [Gradio](#本地-webui-demo-) 快速设置本地 WebUI 演示,(6) [在线demo](https://minicpm-omni-webdemo-us.modelbest.cn/)。
**模型架构。**