机器之心专栏
作者:徐迅
2025年03月26日
在前几篇文章中,我们学习了如何使用卷积神经网络(CNN)和迁移学习解决图像分类问题。本文将介绍一种全新的深度学习模型——生成对抗网络(Generative Adversarial Network, GAN)
2025年03月26日
在前几篇文章中,我们学习了如何使用全连接神经网络和卷积神经网络(CNN)解决手写数字识别问题。然而,在实际应用中,我们常常需要处理更复杂的图像分类任务,例如识别猫狗、车辆、植物等。对于这些任务,从头训练一个深度学习模型通常需要大量的数据和计算资源。
2025年03月26日
大家好,今天要讲的内容是多分类中的交叉熵损失函数。
交叉熵误差,cross entropy error,用来评估模型输出的概率分布和真实概率分布的差异情况,一般用于解决分类问题。它有两种定义形式,分别对应二分类与多分类问题。
在二分类问题中,E=- [y * log(p) + (1 - y) * log(1 - p)],其中y是样本的真实标记,p是模型的预测概率。
2025年03月26日
不同的损失函数可用于不同的目标。在这篇文章中,我将带你通过一些示例介绍一些非常常用的损失函数。这篇文章提到的一些参数细节都属于tensorflow或者keras的实现细节。
损失函数的简要介绍
损失函数有助于优化神经网络的参数。我们的目标是通过优化神经网络的参数(权重)来最大程度地减少神经网络的损失。通过神经网络将目标(实际)值与预测值进行匹配,再经过损失函数就可以计算出损失。然后,我们使用梯度下降法来优化网络权重,以使损失最小化。这就是我们训练神经网络的方式。
2025年03月26日
交叉熵损失是深度学习中应用最广泛的损失函数之一,这个强大的损失函数是建立在交叉熵概念上的。当我开始使用这个损失函数时,我很难理解它背后的直觉。在google了不同材料后,我能够得到一个令人满意的理解,我想在这篇文章中分享它。
为了全面理解,我们需要按照以下顺序理解概念:自信息, 熵,交叉熵和交叉熵损失
"你对结果感到惊讶的程度"
一个低概率的结果与一个高概率的结果相比,低概率的结果带来的信息量更大。现在,如果$y_i$是第i个结果的概率,那么我们可以把自信息s表示为:
2025年03月26日
特征模型(features model)是人工智能深度学习的灵魂,其优劣程度决定了前端推理结果的成败,包括计算性能与精确度的综合考量,是整个人工智能应用的最关键环节,而
2025年03月26日
LG - 机器学习 CV - 计算机视觉 CL - 计算与语言 AS - 音频与语音 RO - 机器人
(*表示值得重点关注)
1、[CL] *Language ID in the Wild: Unexpected Challenges on the Path to a Thousand-Language Web Text Corpus
2025年03月26日
1,n-gram模型:基于n元语法的统计语言模型;
优点:易于实现,速度快,效果稳定;
缺点:无法捕捉长距离的依赖关系,需要大量训练数据,容易产生数据稀疏和过拟合问题。
2,RNN语言模型:基于循环网络的神经网络语言模型;
由输入层,隐藏层(不仅取决于当前输入,还取决于上一时间状态),输出层组成;