Happy月月鸟的博客

Thinking will not overcome fear but action will.

ResNet(Residual Neural Network)

深度学习

ResNet(Residual Neural Network)是由何凯明等人于2015年提出的一种深度卷积神经网络,因其提出的“残差连接”(Residual Connections)或称为“跳跃连接”(Skip Connections)而闻名。ResNet 解决了在深层神经网络中常见的“梯度消失”问题,并允许模型在极大深度下仍然有效地进行训练。它的出现使得网络可以达到数百甚至上千层的深度,同...

词嵌入模型(Word Embedding Models)

自然语言处理中的词嵌入技术

词嵌入模型(Word Embedding Models)是自然语言处理(NLP)中的一种核心技术,旨在将词语映射到高维向量空间中,使得具有相似语义的词语在向量空间中的距离较近。这种向量化表示方式便于计算机理解词语之间的语义关系。 词嵌入模型(Word Embedding Models)详解 1. Word2Vec 详细解析 Word2Vec 是一种将单词转换为向量的模型,通过训练生...

集成学习

机器学习

集成学习(Ensemble Learning)是机器学习中的一种方法,旨在通过结合多个单一模型的预测结果,提升整体模型的性能和泛化能力。其核心思想是不同模型可以相互弥补彼此的不足,最终获得比单个模型更好的预测效果。 1.集成学习的基本概念 集成学习包含以下几个关键概念: 基学习器(Base Learners) 基学习器是集成学习的基础模型,通常是相对简单的模型,比如决策树...

无监督学习-聚类

机器学习

聚类是无监督学习中的一项重要技术,它的主要目标是将没有标签的数据划分为多个簇,使得同一簇内的数据相似度最大,不同簇之间的相似度最小。聚类在数据挖掘、模式识别、图像处理等领域有广泛的应用。下面是对无监督学习中聚类的详细解析。 1. 什么是聚类? 聚类是一种无监督学习方法,通过寻找数据的自然分布模式,将数据划分为不同的子集或簇。在同一簇中的数据点彼此之间相似度高,而不同簇之间的差异较大。 ...

无监督学习-降维

机器学习

无监督学习中的降维是一种用于在保持数据特征信息的前提下,减少数据维度的方法。降维的目的是简化数据的表示,去除冗余信息,帮助理解和可视化数据,并提高某些机器学习模型的计算效率和性能。下面是对降维的详细解析。 1. 为什么需要降维? 高维数据的挑战: 维度诅咒:随着数据维度增加,数据变得稀疏,距离计算失去意义。 计算资源的消耗:高维数据带来较大的存储和计...

机器学习中的激活函数(Activation Function)

机器学习课程

激活函数(Activation Function)是神经网络中非常重要的组成部分,其主要作用是为每个神经元引入非线性特性,使网络能够学习和表示复杂的数据模式。激活函数的选择对神经网络的性能、收敛速度、以及训练的有效性有很大影响。 1. Sigmoid 函数(S型函数) 定义: \(f(x) = \frac{1}{1 + e^{-x}}\) 特点: 输出范围在 (0) 到 (1)...

监督学习-回归

机器学习

回归是监督学习中的一种基本任务,它的目标是根据输入特征预测连续数值输出。与分类问题不同,回归问题的输出不是离散的类别,而是一个或多个连续的数值。回归广泛应用于金融预测、房价预测、需求预测等领域。下面是对监督学习中回归的详细解析。 1. 什么是回归? 回归任务的目标是通过学习数据中输入特征与输出值之间的关系,预测出一个连续的输出值。形式上,给定输入数据 ( X ) 和输出 ( Y ),回归...

Vision Transformer模型

深度学习

好的,下面是对ViT模型各个方面的详细介绍。 1. 背景 ViT(Vision Transformer)由Google Research于2020年提出,旨在解决传统卷积神经网络(CNN)在处理视觉任务时的一些局限性。ViT借鉴了Transformer在NLP中的成功,通过自注意力机制改善对图像信息的捕捉能力。该模型的提出标志着计算机视觉领域的一个重要转折点,开启了使用纯Transform...

基于Transformer的大模型

深度学习

1. BERT(Bidirectional Encoder Representations from Transformers) BERT(Bidirectional Encoder Representations from Transformers)是谷歌在2018年发布的一种自然语言处理模型。它是基于Transformer架构的预训练语言模型,特别以其双向性和在多种NLP任务中的出色表...

Transformer 模型

深度学习

Transformer模型是一种基于注意力机制的深度学习模型,由Vaswani等人在2017年提出。Transformer模型在自然语言处理(NLP)领域中取得了巨大的成功,特别是在机器翻译、文本生成等任务中表现优异。它的核心思想是通过自注意力(Self-Attention)机制来捕捉输入序列中的依赖关系,解决了RNN(循环神经网络)和LSTM(长短期记忆网络)难以并行化和处理长距离依赖的问...