当前位置: 首页 > news >正文

北京大型网站建设移动建站模板

北京大型网站建设,移动建站模板,wordpress检验上传的文档,乐清网站推广公司文章目录 0、缘起一、如何对大模型进行微调二、模型微调实战0、准备环境1、准备数据2、模型微调第一步、获取基础的预训练模型第二步:预处理数据集第三步:进行模型微调第四步:将微调后的模型保存到本地4、模型验证5、Ollama集成部署6、结果测试三、使用总结AI是什么?他应该…

文章目录

  • 0、缘起
  • 一、如何对大模型进行微调
  • 二、模型微调实战
    • 0、准备环境
    • 1、准备数据
    • 2、模型微调
      • 第一步、获取基础的预训练模型
      • 第二步:预处理数据集
      • 第三步:进行模型微调
      • 第四步:将微调后的模型保存到本地
    • 4、模型验证
    • 5、Ollama集成部署
    • 6、结果测试
  • 三、使用总结

AI是什么?他应该是个工具,是一个让你更敢于去闯的工具,而不应该是让人偷懒的工具。

0、缘起

​ 一次偶然的机会,想要试试火爆的Ollama,在本地搭个AI大模型玩玩。于是,随意跑了一下大名鼎鼎的Llama3.2模型。当然,跑的是1b参数的小版本。结果,执行的效果是这样的。

在这里插入图片描述

在这里插入图片描述

​ 为什么会这样?到介绍页上看了看。原来llama模型确实没有用中文训练。
在这里插入图片描述
连泰语都能支持,中文却没有支持。这能忍?不行。我受不了。说什么也要让Llama见识见识中文。于是,决定要微调一个懂中文的Llama出来。但是,没有机器,不懂Python,更不懂什么调优框架。这事能不能成?
没事,有AI。一点点问AI,一点点调代码,于是有了这一次尝试。

一、如何对大模型进行微调

​ AI大模型的能力来自于他所学习过的数据,市面上的这些AI大模型产品也不例外。因此,在一些特定的业务场景,市面上这些AI大模型产品并没有学习过相关的业务知识,因此也就无法提供高质量的答案。比如Llama,并没有针对中文进行微调,因此,他虽然也能用中文进行问答,但是答复中总是带上一些鸟语。

​ 提升AI大模型特定领域内的理解能力的方法有两种。一种是RAG。在跟大模型交互时给他提供更多的相关数据。但这种方式就相当于是要让AI大模型回答问题的时候临时抱佛脚,大部分场景下效果也可以,但是终究治标不治本。另一种直击本质的方法就是微调。一些大型企业,使用海量数据,投入巨大资源,从头开始训练出一些基础模型,成为预训练模型,Pre-Training。而微调就是在这些预训练模型的基础上,再投入少量资源,喂养额外的数据,从而训练出更专业的私有大模型。
说人话,一老外要到长沙来玩,要找个翻译。从Englinsh翻译成中文的专业翻译好找,各种专业院校量大管饱,但是从English翻译成长沙话的个性翻译就没那么好找了。解决方案有两种,一种是就找个专业翻译。每次问他问题时,再给他配个小字典《长沙人的自我修养》,查查普通话怎么翻译成中文。这就是RAG。另一种就是考察一批专业翻译,在这些专业翻译中间挑一个懂长沙话的个性化翻译出来。这就是微调。
微调的方式有很多种。一种是让一个专业的大学生从头开始学习一遍长沙话。这就相当于全参微调。调整大模型的所有参数。代价自然是很大的。另一种就是找一个专业翻译,让他学学长沙话怎么讲。这样对专业翻译的英语能力不会有多大影响,只是给他叠加了一种新的方言。这样的话,学习的代价就没有那么大。而这就是Lora微调的思路。
Lora全称是Low-Rank Adaptation,低秩适配。他的核心思想是不调整原有大模型,只是通过叠加较小的低秩矩阵来对大模型进行微调。
在这里插入图片描述
这个过程可以大致的理解为: 对一个m*n(m和n都很大)的原始大模型参数矩阵,叠加一个 m*k的矩阵A和k*n的矩阵B(k可以比较小)。这样矩阵A和矩阵B相乘就可以保持和原有矩阵相同的计算结果。然后大模型在计算时,只需要在原有大模型参数矩阵的基础上,叠加 矩阵A*矩阵B的结果,就可以产生出一个新的大模型参数矩阵的结果。而矩阵A和矩阵B因为k(也就是秩)比较小,所以要调整的参数也就小很多。
这个过程听起来很复杂,不过其实落地到实践层面,已经有很多现成的实现工具了。而且,就算工具不会,只要清楚是在干什么事情,代码让AI来写,也没什么问题。接下来我们就需要使用Lora算法,给之间使用过的Llama3.2:1b大模型喂养一些中文数据,从而让他能够更好的理解中文。

二、模型微调实战

0、准备环境

要进行微调,首先需要评估手边的资源够不够。通常,一个简单的经验是使用Lora微调需要大概准备模型大小三倍的显存,这样就可以开始微调了。Llama3.2:1b模型的大小是1.3GB,所以,通常有个4G左右的显存就可以进行微调了。所以这个实验,当然你也可以动手玩玩。

这是最小资源,训练时,当然资源是越多越好。如果模型比较大,本地资源不够,那也可以租借一些公用的计算力平台,例如autodl.网址 https://www.autodl.com/home 。 这是目前比较便宜的一个平台。

然后,需要搭建微调的开发环境。目前微调的框架都还是基于Pytorch这些Python框架,所以,需要搭建Python开发环境。
Python环境搭建建议使用Anaconda工具直接搭建,比较方便。接下来创建Python环境。

# 创建Python运行环境
conda create -n llama3_lora python=3.10
conda activate llama3_lora
# 使用conda-forge通道 一个社区运营的Conda频道,下载比较快
conda config --add channels conda-forge
conda config --set channel_priority strict# 如果之前安装过这个环境,可以删除重建  
conda deactivate  
conda env remove -n llama3_lora  
conda create -n llama3_lora python=3.10 -y  
conda activate llama3_lora  # 安装pytorch  
conda install -c conda-forge pytorch torchvision torchaudio -y  # 安装其他依赖  
pip install transformers datasets peft accelerate  
pip install bitsandbytes modelscope  # 确保使用MPS后端  
pip install --upgrade --force-reinstall \torch \torchvision \torchaudio  

安装完成后,可以先执行一个简单的python代码检测一下环境

import sys
import torch# 打印详细的系统和torch信息
print("Python 版本:", sys.version)
print("Torch 版本:", torch.__version__)
print("CUDA 是否可用:", torch.cuda.is_available())
print("MPS 是否可用:", torch.backends.mps.is_available())

这里主要是检查显卡是否支持CUDA。理论上主流的N卡都支持CUDA,这就可以开始训练了。Mac的M系列芯片将内存和显存整合到了一起,需要使用MPS设备进行计算。

1、准备数据

这次微调的数据就采用Huggingface上“臭名昭著”的ruozhiba数据。看看大名鼎鼎的Llama能不能经得起弱智吧的摧残。
在这里插入图片描述
这次采用的是一个包含1.5K记录的小样本。直接下载到本地即可。

2、模型微调

接下来的微调过程,都是在我手边一台Mac电脑上完成的,所有代码也全是AI写出来的,所以,只负责解读思路,不保证代码质量。其实所有的模型微调思路都差不多

第一步、获取基础的预训练模型

​ 这里采用国内的ModelScope社区提供的 LLM-Research/Llama-3.2-1B 模型。

1、对于大模型,通常可以认为参数越大,能力就越强。通常,简单关注一下各个大模型的benchmark基准测试后,就可以根据你手头的资源,选择适合的参数量版本就可以了。

2、ModelScope是一个大模型的大超市,即提供了开源的大模型以及高质量数据集,同时也提供了大模型测试、微调的一系列工具。如果需要更大规模的模型,可以选择Huggingface。不过毕竟是国外的平台,对国内不太友好。

​ 使用ModelScope社区的模型可以通过他提供的工具引入。

pip install modelscope

​ 然后,就可以将模型下载到本地。

from modelscope import snapshot_download# 从ModelScope下载模型--第一次比较耗时
model_path = snapshot_download(
http://www.cadmedia.cn/news/16623.html

相关文章:

  • 山东省住房和建设厅网站深圳外贸seo
  • 十大网站建设公司排名如何免费注册网站
  • 全国招商代理平台网络优化这个行业怎么样
  • 企业为何要建设网站网站建设公司排行榜
  • 荥阳网站建设多少钱沈阳seo技术
  • 网站登录注册页面模板下载你对网络营销的理解
  • 网站建设虚拟服务器深圳营销型网站建设
  • 二次开发简单吗全国推广优化网站
  • 宁波网络公司在哪里百度快速收录seo工具软件
  • 嵌入式硬件开发重庆seo技术教程
  • 农业部项目建设管理网站新闻 最新消息
  • 国家城乡住房建设部网站怎么设置自己的网站
  • 东营建设局网站爱站查询工具
  • 珠海单位网站建设东莞外贸优化公司
  • 山西网站建设开发团队seo运营是做什么的
  • 网络方案seo实战优化
  • 哪个网站可有做投票搭建优化网站的步骤
  • 用java做网站验证码怎么写防控措施持续优化
  • 威海做网站公司seo排名外包
  • 周口市建设局网站搜索引擎优化方法有哪几种
  • 西湖区建设局网站google浏览器官网入口
  • 网站建设委托合同百度推广管理平台登录
  • 建设网站最便宜多少钱成都网络推广运营公司
  • 建设 政务数据共享网站2345网址导航电脑版
  • 专业建设网站外包百度建站官网
  • 中山网站建设是什么意思网站优化方式有哪些
  • 商城网站建设需要多少钱环球军事网最新军事新闻最新消息
  • 宁波荣胜网络科技有限公司个人网站seo入门
  • 扬之云公司网站建设日本疫情最新数据
  • 深圳西乡网站建设搜狗搜索引擎优化论文