作者:浪潮人工智能研究院
2021 年,浪潮人工智能研究院发布了中文巨量模型“源 1.0”,其参数规模为 2457 亿,训练采用的中文数据集达 5TB,超越美国 OpenAI 组织研发的 GPT-3 模型。“源 1.0”在语言智能方面表现优异,获得中文语言理解评测基准 CLUE 榜单的零样本学习(zero-shot)和小样本学习(few-shot)两类总榜冠军。测试结果显示,人群能够准确分辨人与“源 1.0”作品差别的成功率低于 50%。
2025年05月08日
作者:浪潮人工智能研究院
2021 年,浪潮人工智能研究院发布了中文巨量模型“源 1.0”,其参数规模为 2457 亿,训练采用的中文数据集达 5TB,超越美国 OpenAI 组织研发的 GPT-3 模型。“源 1.0”在语言智能方面表现优异,获得中文语言理解评测基准 CLUE 榜单的零样本学习(zero-shot)和小样本学习(few-shot)两类总榜冠军。测试结果显示,人群能够准确分辨人与“源 1.0”作品差别的成功率低于 50%。
2025年05月08日
大模型调优旨在提升其性能、准确性、泛化能力等,以下是一些调优方法:
1. 超参数调整:超参数影响模型训练过程和性能,如学习率决定每次参数更新的步长,值太大会使模型不收敛,太小则训练缓慢;批量大小影响训练稳定性和速度,较大批量可加速但可能收敛到次优解;神经网络层数和神经元数量决定模型复杂度,过多易过拟合,过少则无法学习复杂模式。可通过网格搜索、随机搜索、贝叶斯优化等方法寻找最优超参数组合。
2025年05月08日
Albert是A Lite Bert的缩写,确实Albert通过词向量矩阵分解,以及transformer block的参数共享,大大降低了Bert的参数量级。在我读Albert论文之前,因为Albert和蒸馏,剪枝一起被归在模型压缩方案,导致我一直以为Albert也是为了优化Bert的推理速度,但其实Albert更多用在模型参数(内存)压缩,以及训练速度优化,在推理速度上并没有提升。如果说蒸馏任务是把Bert变矮瘦,那Albert就是把Bert变得矮胖。最近写的文本分类库里加入了Albert预训练模型,有在chinanews上已经微调好可以开箱即用的模型,感兴趣戳这里
2025年05月08日
机器之心发布
机器之心编辑部
腾讯 QQ 团队研究员对 BERT 进行了模型压缩,在效果损失很小的基础上,LTD-BERT 模型大小 22M,相比于 BERT 模型内存、存储开销可降低近 20 倍,运算速度方面 4 核 CPU 单机可以预测速度加速 80 余倍。相关代码和更多结果将在近期开源。
BERT 已经被验证是解决口语化短文本语义量化的极为有效的工具,对于口语化人机交互系统如 FAQ、语音助手等产品意义重大。但受限于模型的高复杂度和高计算量,其产业线上应用进展不如预期,尤其很难满足像 QQ、QQ 空间等亿级用户量产品对性能的需求。
2025年05月08日
开放词汇目标检测(Open-vocabulary Object Detection, OVD)是计算机视觉领域的前沿方向,旨在突破传统目标检测模型对预定义类别的依赖,使其能够通过文本描述或零样本学习识别未知类别对象。以下从技术背景、核心方法、应用场景及挑战三个维度展开分析。
2025年05月08日
飞书智能问答应用于员工服务场景,致力于减少客服人力消耗的同时,以卡片的形式高效解决用户知识探索性需求。飞书智能问答整合了服务台、wiki 中的问答对,形成问答知识库,在综合搜索、服务台中以一问一答的方式将知识提供给用户。