
随着DeepSeek的火热流行,我萌生了在自己的台式电脑上本地部署一套AI大模型的念头。我的这台电脑之前主要用于AI作图和游戏,配置虽然不算顶尖,但应该足以支撑部署工作。电脑配备了AMD的RX 580 8G独立显卡,应该能够应对DeepSeek的部署需求。虽然网上有许多相关的教程,整个流程并不复杂,但其中也有一些易踩的坑,因此我想记录下自己的经验,与大家分享。
下面是我的电脑的基本配置及部署步骤:
电脑准备:
我的操作系统是Windows 10。
1. 检查AMD驱动版本:必须确保使用最新驱动(对于我的RX 580显卡,推荐版本是24.9.1)。如果未更新,可能会出现使用旧版驱动(如20.11.2和22.5.1)进行部署时遇到的调用显存失败、dll丢失等问题。可以在AMD下载最新GPU驱动。
推荐下载:amd-software-adrenalin-edition-25.3.1-minimalsetup-250312_web.exe,之后直接安装。
2. 卸载原有ollama(如果安装过的话):在Windows的应用和功能里卸载即可。如果未安装,则跳过此步骤。
下载相关文件:
ollama-for-amd:我使用的是0.3.2版本进行部署。由于我的显卡型号gfx803较老,高版本如0.3.14、0.4.1、0.5.x等可能会部署失败。
ROCmLib:同样使用0.5.7版本,高版本可能不支持gfx803。
ollama:[链接](/likelovewant/ollama-for-amd/releases/download/v0.3.2/OllamaSetup.exe)
ROCmLib:[链接](/likelovewant/ROCmLibs-for-gfx1103-AMD780M-APU/releases/download/v0.5.7/rocm.gfx803.optic.test.version.7z)
安装部署步骤:
1. 安装ollama:双击下载好的OllamaSetup.exe,按默认设置安装即可。在D盘或其他盘中创建一个名为ollama的文件夹,将ollama安装包移动至此文件夹内,并执行相关命令。
2. 拉取DeepSeek版本:完成ollama安装后,打开命令提示符窗口,输入特定命令拉取DeepSeek的特定版本。建议挂梯子以加快拉取速度。
3. 替换ROCmlib文件(此步骤视情况而定,部分电脑可能需要):退出ollama后,按照指示替换特定文件。注意替换过程中的文件路径要准确,否则可能会影响模型启动。
4. 测试运行:完成上述步骤后,通过命令测试运行DeepSeek。通过任务管理器确认显存调用是否正常。
5. 部署完成:至此,整个部署流程结束,可以开始使用AI进行对话了。
结合open-webui在页面中使用AI:
1. 安装python3.11:到官方下载python3.11并安装。
2. 换源:在命令提示符中输入相关命令更换pip源。
3. 安装open-webui:使用pip安装open-webui,并通过docker运行open-webui。
4. 运行ollama+open-webui:分别打开两个命令提示符窗口,运行ollama和open-webui的相关命令。通过浏览器访问open-webui的链接即可使用AI功能。
如果你对AI和大模型感兴趣的话,记得关注和收藏这篇文章哦!你的支持将是我分享更多干货的动力源泉!
