满血版DeepSeek上线武汉大学!快来解锁高阶玩法!

武汉大学经济与管理学院
2025-02-20 10:19 浏览量: 3053
 智能总结

武汉大学信息中心成功完成DeepSeek 全系大模型的部署调试

新学期伊始

武汉大学信息中心成功完成

DeepSeek 全系大模型的部署调试

本地化服务将有效保障

科研数据隐私与信息安全

支持灵活的定制开发和算法优化

云端调用充分利用公有云强大的AI算力

支持更加复杂的推理任务和应用场景

大模型包括哪些?

DeepSeek-R1-14B

中型规模模型

适合一般性的自然语言处理任务

DeepSeek-R1-32B

大规模模型

提供更广泛和深入的对话与推理支持

DeepSeek-R1-671B和

DeepSeek-V3-671B

云端满血模型

适合需要深度推理的任务

Qwen-14B

高效的语言生成能力

适用于文本创作、代码编写等多种场景

如何使用?网页端

访问‍https://aiop.whu.edu.cn/aiop/#/‍

登录后即可使用

a64847359321892ffde9de975402cdf.png

移动端

打开智慧珞珈APP

点击“应用中心-公共服务-AI智能体平台”

登录后即可使用

b542584e1af168b23e1f83d032a75f3.jpg

47d5c552ad997a199aec6a4b9d13fd5.png

还有什么高阶用法?

除提供随手可用的智能体应用外

借助强大的算力底座

武汉大学超算中心还支持

用户自行部署并运行DeepSeek

等各类开源大模型

深度探索大模型的部署

训练和推理应用

以支持更加专业的科研需求

如果你已经开通了超算中心账号

并且具有GPU的计算权限

那么快来学习如何操作吧!

在超算集群上运行DeepSeek

首先创建一个作业脚本

image.png

将以下文本粘贴到作业脚本中,然后保存文件

image.png

将此脚本作为作业进行提交

image.png

现在,检查您的作业是否正在运行

image.png

确定作业已启动后,通过 ssh 登录已分配的计算节点

image.png

SSH 登录计算节点后,加载 ollama

image.png

SSH 登录计算节点后,列出所有模型

image.png

SSH 登录计算节点后,运行 deepseek-r1:32b

image.png

image.png

特别提醒

模型路径:如果想使用自己的大模型,设置OLLAMA MODELS环境变量至自定义model的路径即可。

节点选择:对于 32B 以上的大模型,建议使用 A100 节点以获得更好的性能。

资源需求:根据具体需求调整作业脚本中的资源请求(如 GPU 数量、CPU 核心数等)。

编辑:许力文

(本文转载自武汉大学MBA和EMBA ,如有侵权请电话联系13810995524)

* 文章为作者独立观点,不代表MBAChina立场。采编部邮箱:news@mbachina.com,欢迎交流与合作。

收藏
订阅

热门推荐

备考交流

免费领取价值5000元MBA备考学习包(含近8年真题) 购买管理类联考MBA/MPAcc/MEM/MPA大纲配套新教材

扫码关注我们

  • 获取报考资讯
  • 了解院校活动
  • 学习备考干货
  • 研究上岸攻略

最新动态

      暂无数据