diff --git a/README.md b/README.md
index 4556b52..f1eca6b 100644
--- a/README.md
+++ b/README.md
@@ -8,7 +8,7 @@ tasks:
端侧可用的 GPT-4o 级视觉、语音、多模态流式大模型
-[GitHub](https://github.com/OpenBMB/MiniCPM-V) | Online Demo [CN](https://minicpm-omni-webdemo.modelbest.cn)/[US](https://minicpm-omni-webdemo-us.modelbest.cn)
+[GitHub](https://github.com/OpenBMB/MiniCPM-o) | Online Demo [CN](https://minicpm-omni-webdemo.modelbest.cn)/[US](https://minicpm-omni-webdemo-us.modelbest.cn)
## MiniCPM-o 2.6
@@ -32,7 +32,7 @@ MiniCPM-o 2.6 进一步优化了 MiniCPM-V 2.6 的众多视觉理解能力,其
- 💫 **易于使用。**
-MiniCPM-o 2.6 可以通过多种方式轻松使用:(1) [llama.cpp](https://github.com/OpenBMB/llama.cpp/blob/minicpm-omni/examples/llava/README-minicpmo2.6.md) 支持在本地设备上进行高效的 CPU 推理,(2) [int4](https://huggingface.co/openbmb/MiniCPM-V-2_6-int4) 和 [GGUF](https://huggingface.co/openbmb/MiniCPM-V-2_6-gguf) 格式的量化模型,有 16 种尺寸,(3) [vLLM](#vllm-部署-) 支持高吞吐量和内存高效的推理,(4) 通过[LLaMA-Factory](./docs/llamafactory_train.md)框架针对新领域和任务进行微调,(5) 使用 [Gradio](#本地-webui-demo-) 快速设置本地 WebUI 演示,(6) 部署于[国内](https://minicpm-omni-webdemo.modelbest.cn/
+MiniCPM-o 2.6 可以通过多种方式轻松使用:(1) [llama.cpp](https://github.com/OpenBMB/llama.cpp/blob/minicpm-omni/examples/llava/README-minicpmo2.6.md) 支持在本地设备上进行高效的 CPU 推理,(2) [int4](https://huggingface.co/openbmb/MiniCPM-o-2_6-int4) 和 [GGUF](https://huggingface.co/openbmb/MiniCPM-o-2_6-gguf) 格式的量化模型,有 16 种尺寸,(3) [vLLM](#vllm-部署-) 支持高吞吐量和内存高效的推理,(4) 通过[LLaMA-Factory](./docs/llamafactory_train.md)框架针对新领域和任务进行微调,(5) 使用 [Gradio](#本地-webui-demo-) 快速设置本地 WebUI 演示,(6) 部署于[国内](https://minicpm-omni-webdemo.modelbest.cn/
) 或 [国外](https://minicpm-omni-webdemo-us.modelbest.cn/)服务器的在线 demo。
@@ -43,13 +43,13 @@ MiniCPM-o 2.6 可以通过多种方式轻松使用:(1) [llama.cpp](https://git
- **可配置的声音方案。** 我们设计了包含传统文本系统提示词和**用于指定模型声音的语音系统提示词**结构。从而,模型可在推理时灵活地通过文字或语音样例控制声音风格,支持声音克隆和声音生成等高级能力。
-

+
### 性能评估
-

+
@@ -907,9 +907,9 @@ MiniCPM-o 2.6 可以通过多种方式轻松使用:(1) [llama.cpp](https://git
@@ -1343,7 +1343,7 @@ print(answer)
```
-Please look at [GitHub](https://github.com/OpenBMB/MiniCPM-V) for more detail about usage.
+Please look at [GitHub](https://github.com/OpenBMB/MiniCPM-o) for more detail about usage.
## llama.cpp推理
敬请期待