当前位置: 首页 > news >正文

视频网站建设方案书seo标签优化方法

视频网站建设方案书,seo标签优化方法,应用中心,自创网站的软件下载今天,通义千问开源了推理模型QwQ-32B QwQ-32B 在一系列基准测试中进行了评估,测试了数学推理、编程能力和通用能力。以下结果展示了 QwQ-32B 与其他领先模型的性能对比,包括 DeepSeek-R1-Distilled-Qwen-32B、DeepSeek-R1-Distilled-Llama-7…

今天,通义千问开源了推理模型QwQ-32B

QwQ-32B 在一系列基准测试中进行了评估,测试了数学推理、编程能力和通用能力。以下结果展示了 QwQ-32B 与其他领先模型的性能对比,包括 DeepSeek-R1-Distilled-Qwen-32B、DeepSeek-R1-Distilled-Llama-70B、o1-mini 以及原始的 DeepSeek-R1。

图片

在测试数学能力的 AIME24 评测集上,以及评估代码能力的 LiveCodeBench 中,千问 QwQ-32B 表现与DeepSeek-R1相当,远胜于 o1-mini 及相同尺寸的R1 蒸馏模型;在由Meta首席科学家杨立昆领衔的“最难LLMs评测榜” LiveBench、谷歌等提出的指令遵循能力IFEval评测集、由加州大学伯克利分校等提出的评估准确调用函数或工具方面的BFCL测试中,千问 QwQ-32B 的得分均超越了 DeepSeek- R1。


最近这一两周不少公司已开启春招。

不同以往的是,当前职场环境已不再是那个双向奔赴时代了。求职者在变多,HC 在变少,岗位要求还更高了。

最近,我们又陆续整理了很多大厂的面试题,帮助一些球友解惑答疑,分享技术面试中的那些弯弯绕绕。

总结如下:

《大模型面试宝典》(2025版) 发布!

喜欢本文记得收藏、关注、点赞

在这里插入图片描述


大规模强化学习

研究团队在冷启动的基础上开展了大规模强化学习。在初始阶段,特别针对数学和编程任务进行了 RL 训练。与依赖传统的奖励模型(reward model)不同,研究团队通过校验生成答案的正确性来为数学问题提供反馈,并通过代码执行服务器评估生成的代码是否成功通过测试用例来提供代码的反馈。

研究团队发现在 RL 扩展过程中,随着训练轮次的推进,这两个领域中的性能均表现出持续的提升。

在第一阶段的 RL 过后,研究团队增加了另一个针对通用能力的 RL。此阶段使用通用奖励模型和一些基于规则的验证器进行训练。研究团队发现,通过少量步骤的通用 RL,可以提升其他通用能力,同时在数学和编程任务上的性能没有显著下降。

模型推理

Transformers

from modelscope import AutoModelForCausalLM, AutoTokenizermodel_name = "Qwen/QwQ-32B"model = AutoModelForCausalLM.from_pretrained(model_name,torch_dtype="auto",device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)prompt = "How many r's are in the word \"strawberry\""
messages = [{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(messages,tokenize=False,add_generation_prompt=True
)model_inputs = tokenizer([text], return_tensors="pt").to(model.device)generated_ids = model.generate(**model_inputs,max_new_tokens=32768
)
generated_ids = [output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
print(response)

Ollama本地拉起

通过Ollama与魔搭平台的整合,开发者也可以直接在本地的Ollama环境,直接运行QwQ-32B模型:

ollama run modelscope.cn/Qwen/QwQ-32B-GGUF

图片

模型微调

我们展示对QwQ-32B进行微调的demo,并给出自定义数据集的格式。

在开始微调之前,请确保您的环境已准备妥当。

# pip install git+https://github.com/modelscope/ms-swift.gitgit clone https://github.com/modelscope/ms-swift.git
cd ms-swift
pip install -e .

首先我们使用QWQ-32B蒸馏部分数据,保持其思考的能力,将蒸馏的数据保存在本地路径:qwq-32b-distill.jsonl。

CUDA_VISIBLE_DEVICES=0,1 \
swift infer \--model Qwen/QwQ-32B \--infer_backend vllm \--val_dataset 'AI-ModelScope/alpaca-gpt4-data-zh#1000' 'AI-ModelScope/alpaca-gpt4-data-en#1000' \--gpu_memory_utilization 0.9 \--max_model_len 32768 \--max_new_tokens 8192 \--result_path qwq-32b-distill.jsonl \--tensor_parallel_size 2 \--disable_custom_all_reduce true

微调脚本如下:

NPROC_PER_NODE=2 \
CUDA_VISIBLE_DEVICES=0,1 \
swift sft \--model Qwen/QwQ-32B \--train_type lora \--dataset 'qwq-32b-distill.jsonl' \'<your-dataset-path>' \--torch_dtype bfloat16 \--num_train_epochs 1 \--per_device_train_batch_size 1 \--per_device_eval_batch_size 1 \--learning_rate 1e-4 \--lora_rank 8 \--lora_alpha 32 \--target_modules all-linear \--gradient_accumulation_steps 8 \--eval_steps 50 \--save_steps 50 \--save_total_limit 5 \--logging_steps 5 \--max_length 4096 \--output_dir output \--warmup_ratio 0.05 \--dataloader_num_workers 4 \--model_author swift \--model_name swift-robot \--deepspeed zero2

自定义数据集可以参考以下格式:

{"messages": [{"role": "system", "content": "你是个有用无害的助手"}, {"role": "user", "content": "告诉我明天的天气"}, {"role": "assistant", "content": "<think>\n...</think>\n\n明天天气晴朗"}]}
{"messages": [{"role": "system", "content": "你是个有用无害的数学计算器"}, {"role": "user", "content": "1+1等于几"}, {"role": "assistant", "content": "<think>\n...</think>\n\n等于2"}, {"role": "user", "content": "再加1呢"}, {"role": "assistant", "content": "<think>\n...</think>\n\n等于3"}]}

训练显存占用:

图片

训练完成后,使用以下命令对训练后的权重进行推理,这里的`–adapters`需要替换成训练生成的last checkpoint文件夹。

CUDA_VISIBLE_DEVICES=0 \
swift infer \--adapters output/vx-xxx/checkpoint-xxx \--stream true \--max_new_tokens 2048 \--infer_backend pt

推送模型到ModelScope:

CUDA_VISIBLE_DEVICES=0 \
swift export \--adapters output/vx-xxx/checkpoint-xxx \--push_to_hub true \--hub_model_id '<your-model-id>' \--hub_token '<your-sdk-token>'
http://www.cadmedia.cn/news/9237.html

相关文章:

  • 网站模板加后台爱站网站长seo综合查询
  • 网站备案多久过期山东seo多少钱
  • 网站如何做新闻聚合百度在线客服系统
  • 十大门户网站有哪些舆情分析报告案例
  • 沈阳网站制作网页上海百度搜索排名优化
  • 做网站怎么引用字体最经典最常用的网站推广方式
  • 沈阳企业网站制作公司三亚百度推广公司
  • 找个美工做淘宝网站需要多少钱推广游戏赚钱的平台有哪些
  • 网站空间购买北京百度搜索排行榜风云榜
  • 整站优化该怎么做免费seo课程
  • 新疆建设兵团纪委监察部网站网络营销课程
  • ps自学网官方网站我想做百度推广
  • 昌平石家庄网站建设在线磁力搜索神器
  • 怎样在建设部网站查资质证书上海网站搜索引擎优化
  • 上海网站建设找缘魁竞价推广专员
  • 做网页是什么专业玉溪seo
  • 做网站虚拟主机怎么选择买外链
  • 湖南省房屋和城乡建设部网站sem数据分析
  • 新乡网站建设西安疫情最新通知
  • 东莞市义务教育阶段统一招生平台专业seo网站优化推广排名教程
  • 无锡免费做网站seo优化外包
  • 中国建筑网官网电工证证件查询sem和seo
  • 宝塔虚拟主机短视频关键词优化
  • 企业网站建设视频教程百度秒收录蜘蛛池
  • 濮阳网站建设价格sem是什么仪器
  • 移除wordpress4版本号抖音seo关键词优化
  • 树莓派做网站服务器站长工具域名解析
  • 事业单位网站建设工作方案seo培训公司
  • 青岛网站建设收费哪个平台好长沙百度百科
  • 网站优化与SEO区别广州今日头条新闻最新