经过数月的精心研发,通义千问团队欣然宣布开源系列Qwen迎来重要更新——Qwen1.5版本的发布。
Qwen1.5的一大亮点在于其模型阵容的扩充,囊括了从0.5B至72B的六种不同规模的基础和聊天模型。此外,团队还大方分享了Int4和Int8的GPTQ模型、AWQ模型及GGUF量化模型等多种量化版本,充分满足不同开发者的个性化需求。
在用户体验方面,Qwen1.5的代码已经与Hugging Face Transformers顺利整合,这意味着开发者只需使用transformers≥4.37.0版本,即可轻松上手,无需担忧远程代码的安全问题。同时,Qwen1.5还获得了vLLM、SGLang、AutoGPTQ等主流框架的支持,进一步丰富了其生态系统,为开发者提供了更多选择和便利。
值得一提的是,Qwen1.5在聊天模型与人类偏好一致性方面取得了显著进步,多语言能力也得到了全面提升。更令人振奋的是,现在所有模型均支持统一的上下文长度,高达32K。这些改进不仅提升了模型的基础语言质量,还为其在多语言评测中的卓越表现奠定了坚实基础。
Qwen1.5亮点概览:
丰富的模型选择:6种规模模型和多种量化版本,满足各种需求。
便捷的生态系统:与Hugging Face Transformers等主流框架的无缝对接,简化开发流程。
卓越的模型性能:聊天模型与人类偏好一致性大幅提升,多语言能力全面增强。
统一的强大功能:全系列模型支持32K上下文长度,system prompt等统一特性。
立即体验:
https://modelscope.cn/studios/qwen/Qwen1.5-72B-Chat-Demo/summary
欢迎广大开发者体验Qwen1.5带来的全新功能和卓越性能!
暂无评论...