近日,国内通用大模型DeepSeek以燎原之势在全球各个领域迅猛发展,也为注册就送58满100可提款行业的高质量发展带来了新的巨大机遇。
目前,清华大学、浙江大学、上海交通大学、华中科技大学、武汉大学、北京航空航天大学等国内多所高校纷纷宣布,已经完成DeepSeek系列大模型的本地化部署。一起来看——
院校名单:
清华大学
浙江大学
上海交通大学
华中科技大学
武汉大学
北京航空航天大学
东南大学
北京理工大学
中国人民大学
北京师范大学
湖南大学
大连理工大学
华东师范大学
北京交通大学
河北工业大学
*注:排名不分先后,仅展示本文所列学校
1.清华大学
借助于KTransformers,普通用户可在仅配备单张24GB显存的消费级显卡上(如 RTX 4090D)上,本地运行DeepSeek-R1、V3的671B满血版。预处理速度最高达到286 tokens/s,推理生成速度最高能达到14 tokens/s
目前用户使用DeepSeek-R1主要通过云服务和“本地部署”,但存在官网服务器宕机和个人部署多为蒸馏版等问题。近日,清华大学KVCache.AI团队与趋境科技联合发布的KTransformers开源项目迎来重大更新,成功破解千亿级大模型本地部署难题,实现了在普通硬件上运行真正的DeepSeek-R1满血版。
该技术可在24GB显存+382GB内存的PC上运行DeepSeek-R1、V3的671B满血版,速度提高3-28倍。同时,支持更长的上下文(24GB单卡支持4~8K),并实现15%加速(每秒最多16个Tokens)。
据官方介绍,KTransformers是一个灵活的、以Python为中心的框架,其设计核心是可扩展性与优化能力。通过用一行代码实现和注入一个优化模块,用户就能访问兼容Transformers的界面、符合OpenAI和Ollama标准的RESTful API,甚至是类似ChatGPT的简化网页用户界面。
此外,KTransformers并非一个单纯的推理框架,也不限于DeepSeek模型,它可以兼容各式各样的MoE模型和算子,能够集成各种各样的算子,做各种组合的测试,同时还提供了Windows、Linux的平台的支持。
2.浙江大学
智能体“浙大先生”本地化部署满血版DeepSeek,通过CARSI联盟,面向全国829所高校免费开放共享
2月14日,浙江大学正式发布深度融合智能体“浙大先生”(chat.zju.edu.cn),本地化部署 DeepSeek V3、R1 模型。
具备四大核心亮点:
1、强大算力保障:依托“西湖之光”算力联盟,逐步建设超1000Pflops(FP16)的本地算力,与联盟成员的数千P云端算力打通,拥有弹性混合的云端算力资源,确保使用时不再出现“服务器繁忙”的情况。
2、CARSI共享便利:通过CARSI联盟,全国829所高校师生可于2月20日起直接登录chat.zju.edu.cn,免费使用DeepSeek V3/R1模型及其他智能体应用,突破校园IP限制。
3、集成全场景智能体:智能体广场接入多种应用体,除文字对话外,还有AI生图、AI视频、音乐工坊等玩法,涵盖教学、科研、生活等多个领域。
4、支持自主开发:平台连接浙大校内公共数据库,支持师生自主开发智能体,无论是创建基础应用还是打造专家级智能体都可实现。
3.上海交通大学
国内高校首个全国产化、“R1+V3”全系列本地部署的满血版DeepSeek 671B
近日,上海交通大学推出国内高校首个全国产化、“R1+V3”全系列本地部署的满血版DeepSeek 671B。该大模型服务由交大网络信息中心联合华为公司基于昇腾平台部署,数据不离校,为交大人专享。用户可通过移动端“交我办”App 或网页https://chat.sjtu.edu.cn(使用jAccount登录)进行体验。首批开放数量有限,用户需报名。
除基础问答外,本地化部署的DeepSeek已为上海交通大学AI应用平台提供新一代大模型底座,升级了高等数学、线性代数、数学分析等课程的数学深度推理AI学习工具,不仅回答准确率更高,还可给出解题思路指导和引导式问题,锻炼分析和推导能力,更多学科课程的AI教学应用将得到升级。
基于DeepSeek代码理解和深度分析能力,还将显著提升AI应用平台编程助手、论文速读、英文写作指导等应用辅助科研和学习的效果,如论文速读可快速总结论文创新点等,编程助手可进行代码创作和问题诊断,为师生打造更多强有力的AI助手。
4.华中科技大学
通过独占实例调用或公共集群调用开启对话
近日,华中科技大学完成了DeepSeek的本地化部署,校内可轻松访问,无需担心网络限制和数据隐私问题。可通过独占实例调用和公共集群调用:
1、独占实例调用
选择平台的DeepSeek应用模板,创建个人实例,通过Chatbox或Page Assist使用模型开启对话。
通过Chatbox使用模型:
访问https://chatboxai.app/zh下载软件,安装chatbox→在实例的详情页找到Ollama的API服务地址→将实例的Ollama API服务地址配置到Chatbox,选择相应模型,保存→开始对话
通过Page As