Ollama 的出现为我们带来了全新的AI应用可能性。凭借其出色的本地部署能力和广泛的AI功能,Ollama 必将成为开发者和普通用户的最爱。

Ollama—— 这是一个专为本地部署优化的 AI 模型。Ollama 在模型大小、性能和部署灵活性等方面都有非凡的表现,与传统云端部署相比,它可以轻松运行在普通的台式电脑或笔记本电脑上。这无疑是 AI 大模型的一次重大突破!

接下来,让我们一起来了解Ollama的更多细节:Windows基于Ollama部署本地AI大模型

 

一、大模型工具Ollama介绍

 

  • 官网地址:https://www.ollama.com/

图片图片

  • Ollama是一个用于部署和运行各种开源大模型的工具;
  • Ollama它能够帮助用户快速在本地运行各种大模型,极大地简化了大模型在本地运行的过程;
  • 用户通过执行几条命令就能在本地运行开源大模型,如Llama 2等;
  • 综上,Ollama是一个大模型部署运行工具,在该工具里面可以部署运行各种大模型,方便开发者在本地搭建一套大模型运行环境;

 

 二、Ollama工具下载

 

下载地址:https://ollama.com/download

图片图片

注意:Ollama的运行会受到所使用模型大小的影响

 

  • 例如:运行一个7 B(70亿参数)的模型至少需要8GB的可用内存(RAM),而运行一个13 B(130亿参数)的模型需要16GB的内存,33 B(330亿参数)的模型需要32GB的内存;

 

  • 需要考虑有足够的磁盘空间,大模型的文件大小可能比较大,建议至少为Ollama和其模型预留50GB的磁盘空间;

 

  • 性能较高的CPU可以提供更好的运算速度和效率,多核处理器能够更好地处理并行任务,选择具有足够核心数的CPU;

 

  • 显卡(GPU):Ollama支持纯CPU运行,但如果电脑配备了NVIDIA GPU,可以利用GPU进行加速,提高模型的运行速度和性能;

 

 

三、Ollama工具安装

 

点击OllamaSetup.exe安装:

图片图片

按照提示2步即可:

图片图片

图片图片

安装完成后测试:ollama –version。

图片图片

 

四、Ollama工具拉取大模型运行。

 

图片图片

Ollama拉取运行。

图片图片

Windows查看大模型端口:

netstat -ano | findstr 11434。

图片图片

默认Ollama API会监听11434端口,可以使用命令进行查看。

图片图片

成功!!!

 

Ollama 的出现为我们带来了全新的AI应用可能性。凭借其出色的本地部署能力和广泛的AI功能,Ollama 必将成为开发者和普通用户的最爱。

文章来自:51CTO

Loading

作者 yinhua

发表回复