怎么在Windows操作系统部署阿里开源版通义千问(Qwen2)

|  原创作者/编辑:凯哥Java                            |  分类:人工智能学习系列教程

GitHub上qwen2截图

随着人工智能技术的不断进步,阿里巴巴通义千问团队近期发布了Qwen2系列开源模型,这一系列模型在多个领域展现出卓越的性能,特别是在自然语言理解、知识、代码、数学及多语言等能力上均显著超越当前领先的模型。本文将详细介绍如何在Windows操作系统上部署阿里开源版通义千问(Qwen2)模型,快速上手并体验这一强大的AI工具。

一、准备工作

在开始部署之前,请确保您的Windows系统满足以下要求:

1.     系统兼容性:确保您的Windows系统版本支持所需的软件安装。

2.     显卡驱动:如果您的计算机配备了独立显卡,请确保显卡驱动是最新的,以便更好地支持模型运行。

3.     硬盘空间:Qwen2模型文件较大,需要足够的硬盘空间来存储。

凯哥使用的电脑配置:

CPU:I7-12700F

内存:32GB

显卡:RTX3060 12G

cpu和内存

显卡

二、下载并安装Ollama

Ollama是一个用于运行大型AI模型的工具,支持多种模型格式,包括Qwen2。首先,您需要从Ollama的官方网站下载并安装Ollama。

  1. 访问Ollama官网:进入Ollama官网(https://ollama.com/download/windows)。

2.     下载并安装:点击“Download”按钮,选择Windows版本进行下载。下载完成后,按照提示进行安装。

这里凯哥就选择Windows版本的。

ollama官网下载页面

三、下载Qwen2模型

接下来,您需要从阿里通义千问的官方仓库下载Qwen2模型。

1.     访问官方教程:访问Qwen2官方教程(实际链接以官方提供为准)。

https://qwen.readthedocs.io/zh-cn/latest/

2.     选择适合的模型:根据您的硬件条件(如显卡显存大小),选择适合的Qwen2模型版本。在官方教程中,拉到最下面,可以看到效率评估。如下图:

找到效率评估

因为凯哥的显卡是12GB,所以凯哥选择Qwen2-7B-Instruct。如果你的显卡也是12GB,可以选择Qwen2-7B-Instruct版本。

Qwen2-7B-Instruct不同版本内存占用

凯哥使用的下载地址:https://modelscope.cn/models/qwen/Qwen2-7B-Instruct-GGUF/files

3.     下载模型文件:在官方教程中,找到模型下载链接,下载对应的.gguf文件。注意,模型文件可能包含多个精度版本(如q8、q16等),选择适合您需求的版本。

说明:

会看到不同的后缀,q”+ 用于存储权重的位数(精度)+ 特定变体,数字越大性能越强。

数字越大,精度越高,k是在所有的attention和feed_forward张量上将精度提升2位,m是在一半的attention和feed_forward张量上将精度提升2位。

根据自己的需求选择模型,凯哥这里直接选了q8。

凯哥选择的q8

四、部署Qwen2模型

下载完模型文件后,您可以使用Ollama来部署Qwen2模型。

1.     创建模型文件:在Windows上创建一个新文件夹(例如命名为“qwen”),将下载的.gguf文件放入该文件夹中。然后,在该文件夹内创建一个名为“Modelfile”的文本文件,内容填写为:

FROM ./qwen2-7b-instruct-q8_0.gguf

注意替换文件名以匹配您下载的模型文件。

2.     使用Ollama创建模型:打开命令行工具(如CMD或PowerShell),切换到包含Modelfile的文件夹。运行以下命令来创建Qwen2模型:

模型创建成功

如果显示“success”,则表示模型创建成功。

3.     运行模型:创建成功后,您可以通过以下命令来运行模型:

ollama run Qwen2-7B

此时,您应该能看到一个对话框或命令行界面,您可以在这里输入文本与模型进行交互。

命令行输入文案地方

在这里输入:你是谁?看看模型怎么交互的。

可以看到模型交互如下:

模型交互效果

补充说明:
如果要看本地有哪些大模型:ollama list

如果要删除这个模型的话:ollama rm xxx

如果要看运行了哪些大模型:ollama ps

运行结果:

运行效果

五、在Web界面中运行Qwen2

虽然直接在命令行中运行模型很方便,但为了获得更好的用户体验,您可以将Qwen2模型集成到Web界面中。

1.     安装Node.js

首先,需要在Windows上安装Node.js。访问Node.js官网,下载并安装最新版本的Node.js。

凯哥使用的是版本号是18.6

凯哥本地node版本

2.     下载ollama-webui

从GitHub或其他源下载ollama-webui的代码。

https://github.com/ollama-webui/ollama-webui-lite

3.     设置并启动Web界面

按照ollama-webui的文档说明,设置Node.js环境,安装依赖,并启动Web服务器。然后,在浏览器中打开Web页面,选择您的Qwen2模型即可开始对话。

3.1镜像提速:

入ollama-webui文件夹,设置国内镜像源提速:

npm config set registry http://mirrors.cloud.tencent.com/npm/

3.2 安装依赖

npm install

错误解决办法:

如果报错说要audit,则依次进行即可:

npm auditnpm audit fix

启动

3.3 启动Web界面:

命令执行完成就可以用看到如下图的访问地址:

启动成功输出访问地址

打开Web页面,选择你的模型即可开始对话:

访问页面

通过web和模型进行交互:

我们依然输入:你是谁?

在web也没和模型交互效果

好了,至此,你就可以在自己电脑上和模型进行对话了。

大家好:我是凯哥Java(kaigejava),如果大家感兴趣,可以一起学学AI。

六、总结

通过以上步骤,您可以在Windows操作系统上成功部署阿里开源版通义千问(Qwen2)模型,并通过命令行或Web界面与模型进行交互。Qwen2系列模型凭借其卓越的性能和广泛的应用场景,将为您的AI项目提供强大的支持。

希望本文能帮助您顺利部署阿里开源版通义千问模型,享受AI技术带来的便利与乐趣。如有任何疑问,请随时查阅官方文档或寻求技术支持。

怎么在Windows操作系统部署阿里开源版通义千问(Qwen2)的更多相关文章

  1. 阿里版ChatGPT:通义千问pk文心一言

    随着 ChatGPT 热潮卷起来,百度发布了文心一言.Google 发布了 Bard,「阿里云」官方终于也宣布了,旗下的 AI 大模型"通义千问"正式开启测试! 申请地址:http ...

  2. 部署eolinker开源版接口管理

    想找一个API接口管理的软件,为了安全性和扩展性考虑,希望是开源的,而且可以在内网独立部署.网上翻找了资料,经过一份比对之后,最终采用eolinker.过去有使用过RAP,但是感觉界面实在是太丑了. ...

  3. 小白教程 Java web maven项目Windows下部署阿里云服务器全过程(买服务器,打包项目,连接服务器,配置服务器,部署项目)

    -------------首先:购买服务器---------------- Step1: 在https://www.aliyun.com/?utm_content=se_1043015注册登录阿里云 ...

  4. 【Azure 应用服务】Azure Web App的服务(基于Windows 操作系统部署)在被安全漏洞扫描时发现了TCP timestamps漏洞

    问题背景 什么是TCP timestamps(TCP 时间戳)? The remote host implements TCP Timestamps, as defined by RFC1323 (h ...

  5. Windows操作系统下tomcat安装版图文教程

    下载tomcat安装文件,官方下载地址是:http://tomcat.apache.org/,本文以tomcat-7.0.26版本为例进行安装过程的说明: 1.双击apache-tomcat-7.0. ...

  6. 这个接口管理平台 eoLinker 开源版部署指南你一定不想错过

    本文主要内容是讲解如何在本地部署eoLinker开源版. 环境要求 1.PHP 5.5+ / PHP7+(推荐) 2.Mysql 5.5+ / Mariadb 5.5+ 3.Nginx(推荐) / A ...

  7. 这份接口管理平台 eoLinker 开源版的部署指南教程你一定不想错过

    本文主要内容是讲解如何在本地部署eoLinker开源版. 环境要求 1.PHP 5.5+ / PHP7+(推荐) 2.Mysql 5.5+ / Mariadb 5.5+ 3.Nginx(推荐) / A ...

  8. 同“窗”的较量:部署在 Windows 上的 .NET Core 版博客站点发布上线

    为了验证 docker swarm 在高并发下的性能问题,周一我们发布了使用 docker-compose 部署的 .net core 版博客站点(博文链接),但由于有1行代码请求后端 web api ...

  9. 阿里开源 OpenJDK 发行版 Dragonwell

    日有消息显示,阿里将于 21 日重磅发布其 OpenJDK 发行版 Alibaba Dragonwell. 我们知道 OpenJDK 是基于 GPL v2/Classpath Exception 的 ...

  10. 【翻译】《深入解析windows操作系统第6版下册》第10章:内存管理

    [翻译]<深入解析windows操作系统第6版下册>第10章:内存管理(第一部分) [翻译]<深入解析windows操作系统第6版下册>第10章:内存管理(第二部分) [翻译] ...

随机推荐

  1. sqoop导入导出到mysql,hbase,hive,hdfs系统,多表关联导出案例

    Sqoop工具1.协助 RDBMS 与 Hadoop 之间进行高效的大数据交流.把关系型数据库的数据导入到 Hadoop 与其相关的系统 (如HBase和Hive)同时也可以把数据从 Hadoop 系 ...

  2. PromQL全方位解读:监控与性能分析的关键技术

    本文全面探索PromQL,从基础语法到高级操作,详细介绍了数据聚合.时间序列分析及内置函数应用,旨在提升用户构建复杂监控策略和性能分析的能力. 关注[TechLeadCloud],分享互联网架构.云服 ...

  3. fisher线性判别分析和多分类问题探究

    本文继续来讨论另一种分类模型----fisher线性判别分析 目录 一.模型思想 二.SPSS的实现 1.参数设置 (1)定义范围 (2) 统计 (3)保存与分类 2.结果分析 (1)典则判别函数系数 ...

  4. 【一天一点.NET小知识】运用向量Vector<T>加速求和计算

    随着 .NET 版本的演进,从 .NET Standard 2.0 版本开始,支持 Vector<T> 类型. Vector<T> 类型:表示指定数值类型(适用于并行算法的低级 ...

  5. 机器学习策略篇:详解数据分布不匹配时,偏差与方差的分析(Bias and Variance with mismatched data distributions)

    详解数据分布不匹配时,偏差与方差的分析 估计学习算法的偏差和方差真的可以帮确定接下来应该优先做的方向,但是,当训练集来自和开发集.测试集不同分布时,分析偏差和方差的方式可能不一样,来看为什么. 继续用 ...

  6. 云服务器从阿里云迁移到华为云,FTP服务器的一些设置处理

    由于一些特殊原因,计划从阿里云上把ECS服务器的相关资源资源迁移到华为云上,为了保险起见,先申请一个月的华为云ECS服务器进行测试,首先就是搭建FTP服务器进行文件的上传处理,在使用FileZilla ...

  7. ComfyUI进阶:Comfyroll插件 (七)

    前言: 学习ComfyUI是一场持久战,而Comfyroll 是一款功能强大的自定义节点集合,专为 ComfyUI 用户打造,旨在提供更加丰富和专业的图像生成与编辑工具.借助这些节点,用户可以在静态图 ...

  8. 【ue源码】定制-蓝图部分

    今天在更新UE的伤害系统的时候出现了一个问题: 多个地方频繁调用一个函数,而这个函数肯定做优化,具体就是,把对应数据放入到队列,另外一个地方慢慢消费这个队列, 那么问题出现了,我使用的UE只有Sing ...

  9. openGL之多线程渲染

    随着Vulkan的引入,我们的图形技术的发展到达了一个新的顶点,但是呢,我们的老干爹OpenGL作为落日余晖,他在一些Vulkan才有的新功能上,也提供了一些支持,现在我们来讨论一下OpenGL之多线 ...

  10. 单细胞测序最好的教程(十):细胞类型注释迁移|万能的Transformer

    作者按 本章节主要讲解了基于transformer的迁移注释方法TOSICA,该算法在迁移注释上达到了SOTA的水平,在注释这么卷的赛道愣是杀出了一条血路.本教程首发于单细胞最好的中文教程,未经授权许 ...