本文主要内容:YOLO11 全新发布(原理介绍+代码详见+结构框图)| YOLO11如何训练自己的数据集(NEU-DET为案列)
1.YOLO11介绍
Ultralytics YOLO11是一款尖端的、最先进的模型,它在之前YOLO版本成功的基础上进行了构建,并引入了新功能和改进,以进一步提升性能和灵活性。
2025年05月08日
本文主要内容:YOLO11 全新发布(原理介绍+代码详见+结构框图)| YOLO11如何训练自己的数据集(NEU-DET为案列)
Ultralytics YOLO11是一款尖端的、最先进的模型,它在之前YOLO版本成功的基础上进行了构建,并引入了新功能和改进,以进一步提升性能和灵活性。
2025年05月08日
背景介绍
数据、算法和算力是人工智能技术的三大要素。其中,算力体现着人工智能(AI)技术具体实现的能力,实现载体主要有CPU、GPU、FPGA和ASIC四类器件。CPU基于冯诺依曼架构,虽然灵活,却延迟很大,在推理和训练过程中主要完成其擅长的控制和调度类任务。GPU以牺牲灵活性为代价来提高计算吞吐量,但其成本高、功耗大,尤其对于推理环节,并行度的优势并不能完全发挥。专用ASIC芯片开发周期长,资金投入大,由于其结构固化无法适应目前快速演进的AI算法。FPGA因其高性能、低功耗、低延迟、灵活可重配的特性,被广泛地用作AI加速,开发者无需更换芯片,即可实现优化最新的AI算法,为产品赢得宝贵的时间。
2025年05月08日
作者:浪潮人工智能研究院
2021 年,浪潮人工智能研究院发布了中文巨量模型“源 1.0”,其参数规模为 2457 亿,训练采用的中文数据集达 5TB,超越美国 OpenAI 组织研发的 GPT-3 模型。“源 1.0”在语言智能方面表现优异,获得中文语言理解评测基准 CLUE 榜单的零样本学习(zero-shot)和小样本学习(few-shot)两类总榜冠军。测试结果显示,人群能够准确分辨人与“源 1.0”作品差别的成功率低于 50%。
2025年05月08日
大模型调优旨在提升其性能、准确性、泛化能力等,以下是一些调优方法:
1. 超参数调整:超参数影响模型训练过程和性能,如学习率决定每次参数更新的步长,值太大会使模型不收敛,太小则训练缓慢;批量大小影响训练稳定性和速度,较大批量可加速但可能收敛到次优解;神经网络层数和神经元数量决定模型复杂度,过多易过拟合,过少则无法学习复杂模式。可通过网格搜索、随机搜索、贝叶斯优化等方法寻找最优超参数组合。
2025年05月08日
Albert是A Lite Bert的缩写,确实Albert通过词向量矩阵分解,以及transformer block的参数共享,大大降低了Bert的参数量级。在我读Albert论文之前,因为Albert和蒸馏,剪枝一起被归在模型压缩方案,导致我一直以为Albert也是为了优化Bert的推理速度,但其实Albert更多用在模型参数(内存)压缩,以及训练速度优化,在推理速度上并没有提升。如果说蒸馏任务是把Bert变矮瘦,那Albert就是把Bert变得矮胖。最近写的文本分类库里加入了Albert预训练模型,有在chinanews上已经微调好可以开箱即用的模型,感兴趣戳这里
2025年05月08日
机器之心发布
机器之心编辑部
腾讯 QQ 团队研究员对 BERT 进行了模型压缩,在效果损失很小的基础上,LTD-BERT 模型大小 22M,相比于 BERT 模型内存、存储开销可降低近 20 倍,运算速度方面 4 核 CPU 单机可以预测速度加速 80 余倍。相关代码和更多结果将在近期开源。
BERT 已经被验证是解决口语化短文本语义量化的极为有效的工具,对于口语化人机交互系统如 FAQ、语音助手等产品意义重大。但受限于模型的高复杂度和高计算量,其产业线上应用进展不如预期,尤其很难满足像 QQ、QQ 空间等亿级用户量产品对性能的需求。
2025年05月08日
开放词汇目标检测(Open-vocabulary Object Detection, OVD)是计算机视觉领域的前沿方向,旨在突破传统目标检测模型对预定义类别的依赖,使其能够通过文本描述或零样本学习识别未知类别对象。以下从技术背景、核心方法、应用场景及挑战三个维度展开分析。