家人们,我是深度钻研科技产品的用户分享者,今天给大家带来超实用的 Ultra245K 打造 DeepSeek 本地模型攻略。当云端服务崩溃,本地部署的 DeepSeek 模型就像 “及时雨”,用 Ultra245K 搭建更是性价比拉满,下面详细说说。
一、选 Ultra245K 的原因
本地部署 AI 模型时,算力是个大难题。GPU 显存宝贵,部署大模型会占用大量显存,影响其他任务;CPU 计算负载高又会导致系统卡顿。Ultra245K 的核显完美解决了这些问题,它既能使用主机内存,又能独立于 CPU 运行,不影响整机性能。而且现在 Ultra 系列 CPU 降价,Ultra245K 性价比超高,是搭建本地 AI 模型的理想选择。
二、高性价比装机方案
1.CPU:Intel Ultra245K 采用精致小黑盒包装,正面透明窗设计独特,能直接看到 CPU,还印有型号、序列号等信息和二维码。背面的偏心凹槽设计让装机变得轻松,无需费力对准小三角。
2.主板:铭宣终结者 B860M 主板,12 相供电确保 Ultra245K 稳定运行。支持双通道 4 根 DDR5 内存,最大支持 128GB,原生支持 7000Mhz DDR5 内存频率,在高内存负载场景下性能提升明显。
3.内存:光威龙武 DDR5 16*2 6000mhz 套条,活动价 400 多就能拿下,性价比极高,能满足模型运行对内存的需求。
4.机箱:拓扑龙开放式机箱,只要 30 元,价格实惠,而且组装方便。
5.电源:爱国者 EP650 650w 全模组电源,200 元左右,供电稳定,为整个系统提供可靠保障。三、性能测试结果。
三、性能测试结果
1.3DMark CPU 性能测试:在 3DMark CPU Profile 测试中,Ultra245K 展现出强大的性能。单线程分数达到 1213 分,表明其在执行单核心任务时表现优异;最大线程得分高达 12348 分,说明多任务并行处理能力出色,能满足各种复杂应用场景的需求。
2.CPU-Z 性能跑分:CPU-Z 测试中,Ultra245K 单核心性能得分 800 分,多核心得分 10051 分,多核心成绩几乎与曾经的顶级处理器 12900K 持平,证明其在多任务处理方面能力强劲,能为用户提供流畅的计算体验。
3.核显性能评估:相比 14 代的 HD770 核显,Ultra245K 升级到 4Xe-core 新式核显。它具备 4 个 1.9GHz 的 Xecore,最大支持 8K 60hz 编解码,AI 算力在 int8 精度下达到 8TOPS,是 HD770 核显的 2.6 倍。还支持英特尔 DLBoost 深度学习加速技术,int4 量化部署时算力为 16TOPS,达到大模型端侧部署的算力门槛要求,为本地化 AI 推理提供高效运算支持。
四、模型部署步骤
(一)安装依赖软件
1.安装 IntelGPU 驱动:前往英特尔官网(https://www.intel.cn/content/www/cn/zh/products/sku/241067/intel-core-ultra-5-processor-245k-24m-cache-up-to-5-20-ghz/downloads.html),根据自己的操作系统下载最新的 GPU 驱动,安装过程按照提示进行操作。
2.下载 ipex-llm ollama 部署包:进入https://github.com/intel/ipex-llm/releases/tag/v2.2.0-nightly,下载 llama-cpp-ipex-llm-2.2.0b20250224-win-npu.zip 到本地,下载完成后解压。
(二)Ollama 启动和模型部署
1.在解压后的文件夹中,按住 Shift + 右键,选择在终端中打开。
2.在命令行中输入./start-ollama.bat,会弹出一个显示很多日志的命令行窗口,这表示 ollama 启动成功,不要关闭该窗口。
3.在同一命令行窗口中输入.ollama.exe pull deepseek-r1:7b,等待模型下载完成,下载时间会因网络情况有所不同。
(三)启动大模型前端
1.前往 AnythingLLM 官网(AnythingLLM | The all-in-one AI application for everyone)下载并安装软件。
2.安装完成后启动软件,在模型选择位置选择 ollama,可以看到 DeepSeekR1 模型已被识别。
3.创建工作区,例如命名为 DeepSeek-iGPU,选中工作区后点击 NewThread 开启新对话,就可以与 DeepSeekR1 模型进行交互了。从任务管理器中可以看到,核显基本满载,使用了 7.2G 主机内存,模型的 token 生成速率大约为 10token/s,个人使用时对话流畅。
五、NPU 支持情况
Ultra245K 引入了 NPU,虽然目前由于其较新,在部署过程中存在一些 bug,但已提交到 Intel ipex-llm。按照 ipex-llm 的更新速度,预计下个月左右就能使用 NPU 进行模型的推理与部署,届时将进一步解放核显,提升 AI 工作站的性能。
用 Ultra245K 打造 DeepSeek 本地模型,性价比超高,操作也并不复杂。大家如果感兴趣,不妨尝试一下,有任何问题都可以在评论区交流。
本文来自:什么值得买