让Ollama拥抱Intel Arc显卡:一键部署大模型工具实践

随着AI技术的飞速发展,大语言模型(LLM)如 Deepseek、GPT-4、Claude等正逐渐改变我们的工作和生活方式。开源社区也涌现出许多优秀的工具和框架。其中,Ollama 作为一款轻量级且易于部署的大语言模型(LLM)服务工具,因其出色的性能和灵活性而备受关注。

然而,在实际使用过程中,我们发现 Ollama 的官方支持主要集中在 NVIDIA GPU 和 CPU 上,对于 Intel 的集成显卡(Intel(R) Arc)并未提供直接的支持。尽管 Intel 官方提供了相关工具和技术支持,但操作流程较为复杂。

针对这一问题,olltel被开发出来,旨在简化在 Intel GPU 上运行 Ollama 的过程。通过封装和优化 Intel 提供的官方工具链,我们的工具能够帮助用户更轻松地在 Intel(R) Arc 架构上部署和运行 Ollama 服务。

工具简介

olltel 封装了Intel官方提供的AI推理工具包,并将其与Ollama服务相结合。通过图形化界面,用户可以轻松完成从环境配置到模型部署的整个流程。目前该工具仅支持多种Intel Arc显卡架构(不包括B系列)。

安装

驱动更新

请确保你的 GPU 驱动程序版本不低于 31.0.101.5522。 如果版本较低,从 Intel 官方下载页面 下载并安装最新的 GPU 驱动程序,否则可能会遇到输出乱码的问题。

工具安装

使用

初次使用需要初始化环境,该步骤可能需要代理
初始化环境

环境设置成功后跳转到Ollama 控制页面,可以在此处启动或关闭Ollama服务。如需使用 ollama 命令请点击 打开CMD打开powershell 按钮。在命令行中使用。
Ollama控制

后续

可以根据个人喜好搭配其他大语言模型前端工具,例如:Lobe ChatAnythingLLMChatbox AIOpen WebUI
可参考:五个优秀的免费 Ollama WebUI 客户端推荐

意见反馈

如有问题,欢迎提交Issues


参考资料:在 Intel GPU 上使用 IPEX-LLM 运行 Ollama