阿里巴巴开源1100亿参数版通义千问人工智能模型 模型推理时更加高效 – 蓝点网

阿里巴巴旗下通用人工智能研究团队目前已经推出参数高达 1100 亿的阿里通义千问人工智能模型,和此前推出的巴巴同样相同,Qwen1.5-110B 版模型依然是开源开源免费提供的,任何人都可以获取该模型并根据需要进行微调和使用。亿参

通义千问团队称近期开源社区陆续出现千亿参数规模以上的数版时更巴拉圭ws超级号群发大型语言模型,这些模型都在各项评测中取得了杰出的通义推理库克群岛ws绿标号成绩,通义千问现在也推出千亿规模参数的千问开源模型。

阿里巴巴开源1100亿参数版通义千问人工智能模型 模型推理时更加高效

Qwen1.5-110B 是人工基于通义千问 1.5 系列训练的模型,在基础能力评估中与 Meta-Llama3-70B 版媲美,模型模型在 Chat 评估中表现出色,加高包括 MT-Bench 和 AlpacaEval 2.0 测试。效蓝

该模型采用 Transformer 解码器架构,点网但包含分组查询注意力 (GAQ),阿里库克群岛ws接粉不死模型在推理时将会更加高效;110B 版模型支持 32K 上下文、巴巴支持英语、开源中文、法语、库克群岛ws无限群发西班牙语、德语、俄语、日语、库克群岛ws超级群发韩语、阿拉伯语、越南语等多种语言。

基准测试显示 Qwen1.5-110B 在基础能力方面与 Meta-Llama3-70B 版媲美,由于在这个模型中通义千问团队并没有对预训练方法进行大幅度改变,因此现在基础能力提升应该就是得益于增加模型 (参数) 规模。

阿里巴巴开源1100亿参数版通义千问人工智能模型 模型推理时更加高效

另一项测试似乎也证实这个观点,在与 Llama3-70B-Chat 以及 Qwen1.5-72B-Chat 相比,Qwen1.5-110B-Chat 能力都有提升,这表明在没有大幅度改变预训练方法的情况下,规模更大的基础语言模型也可以带来更好的 Chat 模型。

阿里巴巴开源1100亿参数版通义千问人工智能模型 模型推理时更加高效

有兴趣的用户可以阅读 Qwen1.5 博客了解该系列模型使用方法,包括 Qwen1.5-110B 的下载和使用等:https://qwenlm.github.io/blog/qwen1.5/

探索
上一篇:真人快打系列手游《真人快打:猛攻》宣布10月21日正式停止运营
下一篇:LOL英雄联盟2018赛季正式开启 全新征程不容错过