DeepSeek+Chatbox 10分钟教会企业使用自己的AI
想快速给企业员工构建一个本地国产化AI的智能助手?如果你还不了解DeepSeek,还是AI小白,但您的企业又想快速上手使用DeepSeek,看魁鲸小编这篇就够了!
下面我介绍2款神器
1. ChatBox
Chatbox AI 是一款 AI 客户端应用和智能助手,支持众多先进的 AI 模型和 API,可在 Windows、MacOS、Android、iOS、Linux 和网页版上使用。
无论是文档、图片还是代码,只需将您的文件发送给 Chatbox。它将理解内容并提供智能响应,在每次交互中提高您的生产力和创造力。
当然可能你还希望你的AI能始终保持最新的数据和推理,ChatBox也支持通过 AI 联网搜索获取即时的信息。保持最新事实、新闻和来自互联网的数据。
2. ollama
随着大语言模型的广泛应用,本地部署模型的需求也日益增加。Ollama 提供了一个简单高效的本地部署平台,Ollama 是一个开源的大型语言模型(LLM)平台,旨在让用户能够轻松地在本地运行、管理和与大型语言模型进行交互。Ollama 提供了一个简单的方式来加载和使用各种预训练的语言模型,支持文本生成、翻译、代码编写、问答等多种自然语言处理任务。Ollama 的特点在于它不仅仅提供了现成的模型和工具集,还提供了方便的界面和 API,使得从文本生成、对话系统到语义分析等任务都能快速实现。与其他 NLP 框架不同,Ollama 旨在简化用户的工作流程,使得机器学习不再是只有深度技术背景的开发者才能触及的领域。Ollama 支持多种硬件加速选项,包括纯 CPU 推理和各类底层计算架构(如 Apple Silicon),能够更好地利用不同类型的硬件资源。
以下是ollama一些官方资料
Mac 安装 ollama
想要在企业内部把ollama玩起来,首先要先安装它,Ollama 支持多平台部署,你可以在官网,选择适合的平台,下载对应的安装包。
ollama就想当一个你自己的模型管理平台,官方提供了一个模型仓库,https://ollama.com/library (opens new window),在这里企业可以找到企业想要运行的模型。
官方建议:应该至少有 8 GB 可用 RAM 来运行 7 B 型号,16 GB 来运行 13 B 型号,32 GB 来运行 33 B 型号。
ollama可以利用命令方式安装任何你想要的它支持的模型,这里假设安装DeepSeek R1
输入命令安装
ollama run deepseek-r1
配置ChatBox使用本地DeepSeek R1
- 打开 Chatbox 软件,点击左下角的设置/Settings图标。
- 在设置中选择“模型提供方/Model Provider”,选择“Ollama”。
- 在“API 域名”框中填写 http://localhost:11434(Ollama 的默认端口)。
- 在“模型”下拉菜单中选择您部署的 DeepSeek 模型版本(如 deepseek-r1:1.5b)。
- 其他选项保持默认即可,最后点击“保存”。
这样是不是很简单,企业很容易就能在本地服务器也部署一套自己的简易AI系统,这里的127.0.0.1:11434是ollama默认的AI接口地址,企业完全可以部署到服务器并统一对内部提供接入入口。
获取更多信息请联系售前电话