2025年05月23日
迁移学习的出现进一步加速了计算机视觉——图像分类用例的快速发展。 在大型图像数据集上训练计算机视觉神经网络模型需要大量的计算资源和时间。
幸运的是,通过使用预训练模型可以缩短时间和资源。 利用预训练模型的特征表示的技术称为迁移学习。 预训练通常使用高端计算资源和海量数据集进行训练。
2025年05月23日
自 2012 年 AlexNet 在 ImageNt 比赛上获得冠军,卷积神经网络逐渐取代传统算法成为处理计算机视觉任务的核心。在这几年,研究人员从提升特征提取能力,改进回传梯度更新效果,缩短训练时间,可视化内部结构,减少网络参数量,模型轻量化, 自动设计网络结构等这些方面,对卷积神经网络的结构有了较大的改进,逐渐研究出了 AlexNet、ZFNet、VGG、NIN、GoogLeNet 和 Inception 系列、ResNet、WRN 和 DenseNet 等一系列经典模型。
2025年05月23日
本系列文章,之前有讲到VGGNet、ResNet、DenseNet、GoogLeNet等模型,它们的效果已经被充分验证,而且被广泛应用在各类计算机视觉任务上。这里我们介绍一篇优秀作品,SENet是ImageNet最后一届(ImageNet 2017)的图像识别冠军,全称是Squeeze-and-Excitation Networks,由Momenta公司所作并发布于2017 CVPR。SENet的思路很简单,也很容易扩展到已有的网络结构当中。
2025年05月23日
上大学的时候,在书店看到过一本书,书名叫《那些忧伤的年轻人》。
随手翻过几页,感觉就是文青的无病呻吟,没啥意思,但记住了作者名字,许知远。
后来才知道,这个名字是装逼界的天花板。
今天之所以又想起来这个书名,是因为看了一个视频。
是一个上海的记者辗转失业之后,也在搞自媒体,用视频号讲了很多故事。
2025年05月23日
为了保证图书馆报纸期刊的连续完整和收藏管理,3月1日,民乐县图书馆对2020年征订的11类报纸和92类杂志期刊进行了合并装订。
前期工作人员通过电话、微信等方式对借出的2020年的期刊杂志进行催回催收并分类整理,随后对过期报纸按照时间段、杂志期刊按照薄厚不一分别分类装订,通过排序加工、编目装订,共装订过期报纸合订本100册,过期杂志期刊合订本300册,分别为过刊过报包上牛皮纸封面并贴上标签,注明刊类刊期、分类号、邮发代号,整齐摆放在书库中收藏,以供读者查询。通过对上年报刊的整理装订,充实了馆内收藏,也确保了工作的连续。(李洁)
2025年05月23日
Transformer 确实是个“大块头”,对新手来说容易觉得复杂,因为它涉及多头注意力、位置编码、残差连接等概念,还夹杂着数学和代码。别担心,我会用最直白的方式拆解它,帮你从零开始理解 Transformer,就像讲故事一样,逐步建立直觉,再加上类比和简单例子,让它变得“好懂”又“有趣”。