多模态本地运行 LLM App
多模态支持: 提供多种任务功能,包括文本生成文本、图像生成文本、音频转文本及文本生成图像(基于扩散模型)。
CPU推理优化: 在安卓平台上,MNN-LLM展现了卓越的CPU性能。
广泛的模型兼容性: 支持多种领先的模型提供商,包括Qwen、Gemma、Llama(涵盖TinyLlama与MobileLLM)、Baichuan、Yi、DeepSeek、InternLM、Phi、ReaderLM和Smolm。
本地运行: 完全在设备本地运行,确保数据隐私,无需将信息上传至外部服务器。