wiki:ollama
差别
这里会显示出您选择的修订版和当前版本之间的差别。
wiki:ollama [2025/03/30 19:13] – 创建 哈哈 | wiki:ollama [2025/03/30 19:15] (当前版本) – 哈哈 | ||
---|---|---|---|
行 37: | 行 37: | ||
| | ||
**跨平台支持**: Ollama 支持多种操作系统,包括 macOS、Linux 和 Windows。 | **跨平台支持**: Ollama 支持多种操作系统,包括 macOS、Linux 和 Windows。 | ||
+ | |||
+ | |||
+ | ====== 工作原理 ====== | ||
+ | |||
+ | ---- | ||
+ | |||
+ | |||
+ | Ollama 的工作原理可以概括为以下几个步骤: | ||
+ | |||
+ | * 模型下载: 用户通过 Ollama CLI 从模型库下载 LLM 模型文件。这些文件包含了模型的权重和配置信息。 | ||
+ | * 模型加载: Ollama 将下载的模型加载到用户的本地硬件上。 这通常涉及到将模型文件读入内存,并根据硬件配置进行优化。 | ||
+ | * 推理引擎: Ollama 使用底层的推理引擎(例如,llama.cpp)来执行模型的推理任务。 推理引擎负责接收用户输入,根据模型的参数生成预测结果。 | ||
+ | * 文本生成/ | ||
+ | * 模型管理: Ollama 负责管理本地已下载的模型,包括模型的安装、卸载、更新等。 | ||
+ | |||
+ | |||
行 44: | 行 60: | ||
[[https:// | [[https:// | ||
+ | |||
+ | [[https:// | ||
+ | |||
+ | |||
+ | |||
wiki/ollama.1743333188.txt.gz · 最后更改: 2025/03/30 19:13 由 哈哈