mirror of
https://www.modelscope.cn/OpenBMB/MiniCPM-o-2_6.git
synced 2025-08-16 05:35:59 +08:00
update readme
This commit is contained in:
parent
5ee056f2cb
commit
bcf8a7efff
@ -8,7 +8,7 @@ tasks:
|
||||
|
||||
<h1>端侧可用的 GPT-4o 级视觉、语音、多模态流式大模型</h1>
|
||||
|
||||
[GitHub](https://github.com/OpenBMB/MiniCPM-o) | Online Demo [CN](https://minicpm-omni-webdemo.modelbest.cn)/[US](https://minicpm-omni-webdemo-us.modelbest.cn) </a>
|
||||
[GitHub](https://github.com/OpenBMB/MiniCPM-o) | [Online Demo](https://minicpm-omni-webdemo-us.modelbest.cn) </a>
|
||||
|
||||
## MiniCPM-o 2.6
|
||||
|
||||
@ -32,8 +32,7 @@ MiniCPM-o 2.6 进一步优化了 MiniCPM-V 2.6 的众多视觉理解能力,其
|
||||
|
||||
|
||||
- 💫 **易于使用。**
|
||||
MiniCPM-o 2.6 可以通过多种方式轻松使用:(1) [llama.cpp](https://github.com/OpenBMB/llama.cpp/blob/minicpm-omni/examples/llava/README-minicpmo2.6.md) 支持在本地设备上进行高效的 CPU 推理,(2) [int4](https://huggingface.co/openbmb/MiniCPM-o-2_6-int4) 和 [GGUF](https://huggingface.co/openbmb/MiniCPM-o-2_6-gguf) 格式的量化模型,有 16 种尺寸,(3) [vLLM](#vllm-部署-) 支持高吞吐量和内存高效的推理,(4) 通过[LLaMA-Factory](./docs/llamafactory_train.md)框架针对新领域和任务进行微调,(5) 使用 [Gradio](#本地-webui-demo-) 快速设置本地 WebUI 演示,(6) 部署于[国内](https://minicpm-omni-webdemo.modelbest.cn/
|
||||
) 或 [国外](https://minicpm-omni-webdemo-us.modelbest.cn/)服务器的在线 demo。
|
||||
MiniCPM-o 2.6 可以通过多种方式轻松使用:(1) [llama.cpp](https://github.com/OpenBMB/llama.cpp/blob/minicpm-omni/examples/llava/README-minicpmo2.6.md) 支持在本地设备上进行高效的 CPU 推理,(2) [int4](https://huggingface.co/openbmb/MiniCPM-o-2_6-int4) 和 [GGUF](https://huggingface.co/openbmb/MiniCPM-o-2_6-gguf) 格式的量化模型,有 16 种尺寸,(3) [vLLM](#vllm-部署-) 支持高吞吐量和内存高效的推理,(4) 通过[LLaMA-Factory](./docs/llamafactory_train.md)框架针对新领域和任务进行微调,(5) 使用 [Gradio](#本地-webui-demo-) 快速设置本地 WebUI 演示,(6) [在线demo](https://minicpm-omni-webdemo-us.modelbest.cn/)。
|
||||
|
||||
|
||||
**模型架构。**
|
||||
|
Loading…
x
Reference in New Issue
Block a user