《动手学深度学习》 第3章 线性神经网络 部分笔记

news/2024/4/28 15:51:22

文章目录

  • 前言
  • 一、线性回归
    • 1.知识点
      • (1)解析解
      • (2)泛化
      • (3)随机梯度下降
      • (4)python列表推导
      • (5)全连接层
  • 二、线性回归的从零开始实现
    • 1.知识点
      • (1)scatter()
      • (2)random.shuffle()
      • (3)yield()
    • 2.练习
      • (2)假设试图为电压和电流的关系建立一个模型。自动微分可以用来学习模型的参数吗?
      • (4)计算二阶导数时可能会遇到什么问题?这些问题可以如何解决?
      • (5)为什么在squared_loss函数中需要使用reshape函数?
      • (6)尝试使用不同的学习率,观察损失函数值下降的快慢。
      • (7)如果样本个数不能被批量大小整除,data_iter函数的行为会有什么变化?
  • 三、线性回归的简洁实现
    • 1.知识点
      • (1)data.TensorDataset()
      • (2)data.DataLoader()
      • (3)iter()和next()
      • (4)Sequential()
      • (5)下划线_: 原地操作
    • 2.练习
      • (1)如果将小批量的总损失替换为小批量损失的平均值,需要如何更改学习率?
  • 四、softmax回归
    • 1.知识点
      • (1)独热编码
  • 五、图像分类数据集
    • 1.知识点
      • (1)subplots()
      • (2)zip()
      • (3)enumerate()
      • (4)imshow()
    • (2)练习
      • 1.减少batch_size(如减少到1)是否会影响读取性能?
  • 六、softmax回归的从零开始实现
    • 1.知识点
      • (1)交叉熵
      • (2)isinstance
      • (3)eval() 评估模式
      • (4)numel()
      • (5)with torch.no_grad()
      • (6)lambda()
      • (7)hasattr
      • (8)cla()
      • (9)assert()
    • 2.练习
      • (1、2、3)自定义softmax函数和交叉熵损失函数的问题的解决方案
      • (4)返回概率最大的分类标签总是最优解吗?例如,医疗诊断场景下可以这样做吗?
      • (5)假设我们使用softmax回归来预测下一个单词,可选取的单词数目过多可能会带来哪些问题?

前言

这篇博客主要记录了学习第三章过程中,个人不了解的地方,以及学习这些知识点搜集的资料,以便后续复习查看。

因此,此博客只含有部分个人新学的知识点,而不会将所有知识点整理总结。

同时,知识点部分也只是简单地了解了概念,以此辅助学习,而没有深入内核。

下方为电子版书籍网页,其中代码可复制到jupyternotebook,直接运行,提高学习效率
《动手学深度学习电子版书籍》

一、线性回归

1.知识点

(1)解析解

解析解与数值解

在这里插入图片描述

(2)泛化

深入理解泛化

优化(optimization)是指调节模型以在训练数据上得到最佳性能(即机器学习中的学习),而泛化(generalization)是指训练好的模型在前所未见的数据上的性能好坏。

(3)随机梯度下降

随机梯度下降详解

在这里插入图片描述

(4)python列表推导

【技能树共建】Python 列表推导式

(5)全连接层

全连接层详解

对于线性回归,每个输入都与每个输出相连, 我们将这种变换 称为全连接层(fully-connected layer)或称为稠密层

在这里插入图片描述
在这里插入图片描述
在这一节末尾,我很喜欢下面这段话,记录一下下。

“当然,许多这样的单元可以通过正确连接和正确的学习算法拼凑在一起, 从而产生的行为会比单独一个神经元所产生的行为更有趣、更复杂, 这种想法归功于我们对真实生物神经系统的研究。

当今大多数深度学习的研究几乎没有直接从神经科学中获得灵感。 我们援引斯图尔特·罗素和彼得·诺维格在他们的经典人工智能教科书 Artificial Intelligence:A Modern Approach (Russell and Norvig, 2016) 中所说的:虽然飞机可能受到鸟类的启发,但几个世纪以来,鸟类学并不是航空创新的主要驱动力。 同样地,如今在深度学习中的灵感同样或更多地来自数学、统计学和计算机科学。”

二、线性回归的从零开始实现

1.知识点

(1)scatter()

这篇博客较为详细,可以系统学习scatter,如果只是想简单理解,可以看下文

scatter() 函数在 Matplotlib 中可以接受多个参数,以便用户能够自定义散点图的样式、颜色、大小等。
一些常用的参数:
s:指定散点的大小,可以是一个数值或一个数组,用于设置每个点的大小。
c:指定散点的颜色,可以是一个颜色名称(如 ‘red’、‘blue’)或一个颜色序列,用于设置每个点的颜色。
marker:指定散点的形状,可以是一个字符(如 ‘o’ 表示圆形、‘s’ 表示方形)或一个符号(如 ‘^’ 表示三角形、‘*’ 表示星号)。
alpha:指定散点的透明度,取值范围为 0 到 1,0 表示完全透明,1 表示不透明。
label:指定散点的标签,用于生成图例。

例子:

在这里插入图片描述
在这里插入图片描述

(2)random.shuffle()

作用:打乱数据集顺序

【Python基础】random.shuffle()的用法

(3)yield()

python中yield的用法详解——最简单,最清晰的解释

yield 是 Python 中的一个关键字,通常用于生成器函数中。生成器函数是一种特殊的函数,它可以在迭代过程中暂停并返回一个中间结果,然后在需要时再继续执行。yield 的作用是将函数的执行结果返回给调用者,并且保留了函数的当前状态,以便下次调用时可以从之前的状态继续执行。当在一个函数中使用 yield 时,这个函数就成为了一个生成器函数。

2.练习

(注:部分答案由AI给出)

(2)假设试图为电压和电流的关系建立一个模型。自动微分可以用来学习模型的参数吗?

自动微分可以用来学习电压和电流关系模型的参数。在机器学习中,自动微分技术通常被用于训练模型参数,使得模型能够更好地拟合数据并学习输入和输出之间的关系。

具体来说,在建立电压和电流关系模型时,可以定义一个参数化的模型函数,例如:

def model(voltage, params):current = some_function_of(voltage, params)return current

然后,利用自动微分工具(如 PyTorch 或 TensorFlow)来计算模型输出与真实观测值之间的损失,并通过反向传播算法来更新模型参数,使得模型预测的电流与真实电流更加接近。

自动微分通过计算损失函数对模型参数的梯度,从而指导参数更新方向,使得模型能够逐渐优化和学习到电压和电流之间的关系。这样,自动微分为学习模型参数提供了一种高效的方式,无需手动推导梯度或者编写复杂的优化算法。

(4)计算二阶导数时可能会遇到什么问题?这些问题可以如何解决?

问题
计算量大: 计算二阶导数通常比计算一阶导数更加复杂和耗时,因为需要考虑更多的交叉导数项。
数值稳定性: 在计算二阶导数时,数值稳定性可能成为一个问题,特别是当函数具有复杂的形式或者存在数值不稳定的情况时,如除以接近零的数或指数函数等。
高阶导数消失: 在某些情况下,高阶导数可能会消失,导致二阶导数的计算结果不准确或者丢失了一些信息。
计算效率低: 由于计算二阶导数通常需要更多的计算量和存储空间,可能会导致计算效率变低。

解决方法
使用自动微分工具: 使用现有的自动微分工具(如 PyTorch 或 TensorFlow)来计算高阶导数,这些工具能够有效地管理计算过程并提高计算效率。
数值稳定性处理: 在计算过程中注意数值稳定性,避免出现数值不稳定的操作,可以通过数值稳定的计算技巧来减少误差的累积。
截断高阶导数: 在实际应用中,有时可以截断高阶导数的计算,只计算到某个特定阶数的导数,以减少计算复杂度和提高效率。
优化算法选择: 对于特定的优化问题,可以根据问题特点选择合适的优化算法,有些算法可能不需要显式地计算二阶导数就能够取得很好的效果。

(5)为什么在squared_loss函数中需要使用reshape函数?

在 squared_loss 函数中使用 reshape 函数的目的是确保 y 和 y_hat 的形状一致,以便进行减法和平方操作。

在深度学习中,经常会遇到需要对张量进行形状匹配的情况。如果 y 和 y_hat 的形状不一致,直接进行减法操作可能会导致维度不匹配的错误。因此,为了保证运算能够进行,需要将 y 调整为与 y_hat 相同的形状。

具体来说,假设 y_hat 的形状是 (batch_size, 1),而 y 的形状是 (batch_size,),即 y 是一个一维张量。在这种情况下,我们需要使用 reshape 函数将 y 转换为与 y_hat 相同的形状,即 (batch_size, 1),以便进行减法和平方操作。

在这里插入图片描述

(6)尝试使用不同的学习率,观察损失函数值下降的快慢。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

(7)如果样本个数不能被批量大小整除,data_iter函数的行为会有什么变化?

我设置的数据总数为8,batch_size数为10,运行结果如下:

在这里插入图片描述
可以看到,虽然设置batch_size为10,但是由于数据只有8个,所以只会输出8个

当最后一个批次的样本数量少于批量大小时,batch_indices 的索引范围会超出实际的样本索引范围,这可能导致索引越界错误。为了解决这个问题,可以在代码中进行处理,例如:

在计算 batch_indices 时,确保不超过样本总数,避免索引越界。
在处理最后一个批次时,可以选择忽略剩余的样本、补齐到批量大小或者采取其他策略,如下:

for i in range(0, num_examples, batch_size):batch_indices = torch.tensor(indices[i: min(i + batch_size, num_examples)])  # 确保不超过样本总数if len(batch_indices) < batch_size and len(batch_indices) > 0:# 可以添加处理最后一个批次的代码,比如补齐样本、忽略剩余样本或者其他操作# 这里只是简单地打印出不完整的批次print("Incomplete batch:")yield features[batch_indices], labels[batch_indices]

三、线性回归的简洁实现

1.知识点

(1)data.TensorDataset()

data.TensorDataset是PyTorch中用于包装张量数据的类,通常用于构建数据集和对应的标签集。它可以将数据张量和标签张量作为输入,并将它们封装成一个数据集对象,以便于进行后续的数据处理、批量读取等操作。

import torch
from torch.utils.data import TensorDataset, DataLoader# 假设有训练数据 data 和对应的标签 label
data = torch.tensor([[1.0, 2.0], [3.0, 4.0]])
label = torch.tensor([0, 1])# 使用 TensorDataset 封装数据和标签
dataset = TensorDataset(data, label)# 构建 DataLoader 进行数据加载
dataloader = DataLoader(dataset, batch_size=2, shuffle=True)

(2)data.DataLoader()

data.DataLoader 是 PyTorch 中用于数据加载的工具,它可以实现对数据集的批量读取、打乱顺序、并行加载等功能。通常情况下,我们会将封装好的数据集(比如 TensorDataset)传入 DataLoader 中,以便于进行批量处理和训练神经网络模型。

import torch
from torch.utils.data import TensorDataset, DataLoader# 假设有训练数据 data 和对应的标签 label
data = torch.tensor([[1.0, 2.0], [3.0, 4.0]])
label = torch.tensor([0, 1])# 使用 TensorDataset 封装数据和标签
dataset = TensorDataset(data, label)# 构建 DataLoader 进行数据加载
batch_size = 2
# shuffle 是在使用 DataLoader 加载数据时的一个参数,用于指定是否对数据进行打乱顺序。
# 当shuffle设置为 True 时,DataLoader 会在每个 epoch(训练周期)开始前将数据集打乱顺序
# 这样可以使得每个 epoch 中模型看到的数据顺序都是不同的,有助于增加模型的泛化能力。
shuffle = True
num_workers = 2  # 并行加载的线程数
dataloader = DataLoader(dataset, batch_size=batch_size, shuffle=shuffle, num_workers=num_workers)# 遍历 DataLoader 并输出每个 batch 的数据和标签
for batch_data, batch_label in dataloader:print("Batch data:", batch_data)print("Batch label:", batch_label)# 在这里可以进行模型训练等操作

运行结果:
在这里插入图片描述

(3)iter()和next()

在 Python 中,iter() 是一个内置函数,用于将可迭代对象转换为迭代器。迭代器是一种能够逐个返回元素的对象,而可迭代对象是一种能够被迭代器遍历的对象。

使用 iter() 函数可以将可迭代对象转换为迭代器。一旦转换完成,我们就可以使用 next() 函数从迭代器中逐个获取元素。当迭代器没有更多元素时,会抛出 StopIteration 异常。

下面是一个简单的示例,展示了如何使用 iter() 和 next():

my_list = [1, 2, 3, 4, 5]  # 可迭代对象my_iter = iter(my_list)  # 将列表转换为迭代器print(next(my_iter))  # 输出:1
print(next(my_iter))  # 输出:2
print(next(my_iter))  # 输出:3

在上面的示例中,我们首先创建了一个列表 my_list,它是一个可迭代对象。然后,我们使用 iter() 函数将 my_list 转换为迭代器 my_iter。接着,通过连续调用 next() 函数,我们可以逐个获取迭代器中的元素。

需要注意的是,一旦迭代器中没有更多元素,再次调用 next() 函数就会引发 StopIteration 异常,因此需要在使用时进行适当的异常处理。

(4)Sequential()

nn.Sequential 是 PyTorch 中的一个模型容器,用于以顺序的方式组织多个神经网络模块。它允许我们按照顺序将这些模块串联起来,构建一个更复杂的神经网络模型。

使用 nn.Sequential,我们可以通过简单地传入一系列的模块来定义我们的模型结构,而无需手动编写前向传播函数。

下面展示了如何使用 nn.Sequential 定义一个简单的全连接神经网络模型:

import torch
import torch.nn as nnmodel = nn.Sequential(nn.Linear(10, 20),  # 第一个全连接层,输入大小为10,输出大小为20nn.ReLU(),         # ReLU 激活函数nn.Linear(20, 30),  # 第二个全连接层,输入大小为20,输出大小为30nn.ReLU()          # ReLU 激活函数
)

(5)下划线_: 原地操作

在 Python 中,下划线 _ 通常用作一个临时变量或占位符。它的具体含义取决于上下文。

在 PyTorch 中,方法名称以 _ 结尾的形式,例如 normal_() 和 fill_(),表示它们是原地(in-place)操作。原地操作是指在不创建新对象的情况下,直接修改原始对象的值。它们会直接修改权重和偏置参数的值,而不会返回任何结果。

import torch# 创建一个张量
x = torch.tensor([1.0, 2.0, 3.0])# 使用原地操作对张量进行修改
x.add_(1.0)  # 原地加法操作,等同于 x = x + 1.0print(x)  # 输出修改后的张量

2.练习

(1)如果将小批量的总损失替换为小批量损失的平均值,需要如何更改学习率?

当将小批量的总损失替换为小批量损失的平均值时,通常需要相应地调整学习率。这是因为平均损失和总损失具有不同的尺度。

假设使用的是随机梯度下降(SGD)优化算法,并且在每个小批量样本上计算了损失,然后求取这些损失的平均值作为小批量的总损失。在这种情况下,可以将学习率除以小批量大小来调整学习率。

具体来说,如果原始学习率为 lr,小批量大小为 batch_size,则在每次更新模型参数时,将学习率设置为 lr / batch_size。这样可以保持学习率的相对大小不变,同时适应了小批量损失的平均值。

四、softmax回归

1.知识点

(1)独热编码

机器学习中使用的独热编码

五、图像分类数据集

1.知识点

(1)subplots()

plt: subplot()、subplots()详解及返回对象figure、axes的理解

(2)zip()

zip()函数的用法

(3)enumerate()

python enumerate用法总结

(4)imshow()

Matplotlib imshow() 方法 菜鸟教程

(2)练习

1.减少batch_size(如减少到1)是否会影响读取性能?

AI给的答案:

减少 batch_size 可能会影响读取性能,具体取决于数据集的大小和存储方式、硬件设备以及数据读取的方式。

数据集大小和存储方式:如果数据集较小且存储在较慢的存储介质上(例如硬盘而非固态硬盘),较小的 batch_size 可能会增加数据读取的开销,因为在每个训练步骤中都需要从磁盘加载更多的数据。

硬件设备:在使用 GPU 进行训练时,较小的 batch_size 可能无法充分利用 GPU 的并行计算能力,导致 GPU 的利用率下降,从而影响性能。另一方面,如果系统内存有限,减少 batch_size 可能会减少内存占用,从而提高整体性能。

数据读取方式:如果使用了数据预加载或者数据预处理技术,较小的 batch_size 可能会增加数据加载和处理的开销,尤其是在每个训练步骤中都需要对数据进行额外的处理时。

综上所述,减少 batch_size 可能会对读取性能产生影响,但影响的具体程度取决于多个因素。在实际情况下,可以根据具体的硬件环境和数据集特点进行实验,并根据实际效果来确定最佳的 batch_size 大小。

六、softmax回归的从零开始实现

1.知识点

(1)交叉熵

交叉熵损失函数原理详解

(2)isinstance

isinstance 是 Python 的一个内置函数,用于检查一个对象是否属于指定类或类型。

语法如下:

isinstance(object, classinfo)
object:要检查的对象。
classinfo:类名、类型或者由它们组成的元组。
isinstance 函数会返回一个布尔值,表示该对象是否属于指定的类或类型。

例如:

x = 5
print(isinstance(x, int))  # 输出 True,因为 x 是整数类型
print(isinstance(x, str))  # 输出 False,因为 x 不是字符串类型

(3)eval() 评估模式

快速学pytorch之评估模式:model.eval()

在 PyTorch 中,通过调用 eval() 方法可以将模型切换为评估模式,这通常用于在推理阶段使用模型而不进行梯度计算。评估模式下,模型中的一些特定层(如 Dropout)可能会表现出不同的行为,以保证模型的输出稳定性。

(4)numel()

numel 是 PyTorch 中的一个函数,用于返回张量中元素的总数。具体来说,numel 返回的是张量的维度大小的乘积,即张量中包含的元素个数。

(5)with torch.no_grad()

with torch.no_grad() 是 PyTorch 中的上下文管理器,用于在该上下文中禁用梯度计算。在这个上下文中,PyTorch 不会跟踪张量的梯度,这样可以节省内存并提高运行效率。通常情况下,with torch.no_grad(): 被用于推断阶段,即在不需要计算梯度的情况下进行模型的推理。

(6)lambda()

python——lambda函数

(7)hasattr

【python】hasattr( )的用法

hasattr 是 Python 中的一个内置函数,用于检查对象是否具有指定的属性。

语法如下:

hasattr(object, attribute)

object 是要检查的对象。
attribute 是要检查的属性名。

(8)cla()

cla() 是 Matplotlib 中 Axes 对象的一个方法,用于清除当前 Axes 对象中的内容,即清空当前绘图区域,准备绘制新的内容。调用 cla() 方法可以清除之前绘制的图形,以便在同一个 Axes 对象上重新绘制新的图形或数据。

(9)assert()

python中assert的用法(简洁明了)

Python中的assert用法

在 Python 中,assert 语句用于检查一个条件是否为真,如果条件为假,则会引发 AssertionError 异常。assert 语句的一般形式如下:

assert condition, message

condition 是需要被检查的条件,如果条件为假(False),则会触发 AssertionError。
message 是可选的,用于在 AssertionError 中指定出错时的信息。

当程序执行到 assert 语句时,会首先对 condition 进行求值,如果为真(True),则程序继续执行;如果为假(False),则会引发 AssertionError。这种断言通常用于在开发和测试阶段对程序执行的结果进行检查,帮助发现潜在的问题或错误。

2.练习

(注:以下答案全部由AI生成)

(1、2、3)自定义softmax函数和交叉熵损失函数的问题的解决方案

在这里插入图片描述

Softmax 函数的问题:

当输入向量中的元素较大时,指数函数可能导致数值溢出或数值稳定性问题。
计算结果可能存在数值不稳定性,并且可能影响模型的训练和预测结果。

交叉熵损失函数的问题:

对数函数在定义域内为负无穷到正无穷,如果输入包含非常接近或等于零的值,可能导致计算出现无穷大或无法收敛的情况。
针对上述问题,可以采取以下解决方案:

Softmax 函数的数值稳定处理:

在计算 softmax 函数时,可以对输入向量进行归一化处理,即减去输入向量中的最大值,以减小指数函数的值,提高数值稳定性。
可以使用 softmax 函数的 log-sum-exp 表示来计算,以避免指数函数操作带来的数值问题。

交叉熵损失函数的数值稳定处理:

在计算交叉熵损失函数时,可以对预测概率值进行限制,避免输入值接近或等于零。
可以在计算交叉熵损失函数时,对预测概率值进行平滑处理,如添加一个极小值,以避免对数函数计算出现异常情况。
通过以上处理方式,可以提高数值稳定性,避免数值计算问题,确保模型训练和预测的准确性和稳定性。

(4)返回概率最大的分类标签总是最优解吗?例如,医疗诊断场景下可以这样做吗?

在大多数情况下,返回概率最大的分类标签并不总是最优解,特别是在医疗诊断等领域。虽然概率最大的分类标签可能是模型认为最有可能的类别,但在实际应用中需要综合考虑其他因素。

在医疗诊断场景下,确诊结果可能受到多个因素的影响,包括但不限于:

误诊风险:仅仅依赖于概率最大的分类标签可能忽略了其他可能性,增加了误诊的风险。
医疗专家知识:医疗诊断往往需要结合医疗专家的知识和经验,综合考虑病人的病史、症状等信息。
不确定性:医疗诊断可能存在一定的不确定性,患者的病情可能具有多样性和复杂性,单一概率最大的分类标签可能无法完全覆盖所有情况。

因此,在医疗诊断等重要场景下,通常会采取以下策略来提高诊断准确性和可靠性:

多因素综合考虑:除了模型输出的概率最大分类标签外,还需考虑其他因素,如医疗专家意见、辅助检查结果等。
不确定性估计:对模型输出的概率值进行不确定性估计,提供患者可能属于不同类别的概率范围,而非仅仅依赖于单一分类标签。
风险评估:综合考虑误诊风险,采取相应的风险管理措施,如进一步检查或复核。

综合考虑各种因素,可以帮助提高医疗诊断的准确性和可靠性,避免仅仅依赖于概率最大的分类标签而造成误诊的情况。

(5)假设我们使用softmax回归来预测下一个单词,可选取的单词数目过多可能会带来哪些问题?

当使用 softmax 回归来预测下一个单词时,如果可选取的单词数目过多,可能会导致以下问题

计算复杂度高:
随着可选单词数目的增加,softmax 函数的计算复杂度会呈指数级增长,需要计算所有可能单词的概率分布。这将导致训练时间和推理时间大幅增加。
内存消耗大:
需要存储所有可能单词的概率分布,如果可选取的单词数目很大,将占用大量内存空间。
稀疏性问题:
当可选取的单词数目过多时,训练数据中每个样本对应的标签向量会变得非常稀疏,这会使模型难以学习有效的表示,影响模型的泛化能力。
标签噪声:
过多的可选单词可能导致训练数据中存在大量的标签噪声,使模型难以准确学习每个单词的概率分布。

为了解决上述问题,可以采取以下策略
降低类别数量:
可以通过合并相似的单词或者仅选择出现频率较高的单词作为候选,来降低可选取的单词数目。
层次 softmax:
使用层次 softmax(hierarchical softmax)来减少 softmax 函数的计算复杂度,通过构建树形结构对单词进行分类,减少概率计算的时间复杂度。
负采样:
使用负采样(negative sampling)代替 softmax 来训练模型,通过随机采样出一小部分负例来估计概率,从而降低计算复杂度。

通过以上策略,可以在保证模型效果的同时,降低计算复杂度和内存消耗,提高模型的训练和推理效率。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.cpky.cn/p/10966.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈,一经查实,立即删除!

相关文章

每日一题 --- 977. 有序数组的平方[力扣][Go]

今天这一题和昨天的知识点是一样的&#xff0c;就是双指针法。 题目&#xff1a; 给你一个按 非递减顺序 排序的整数数组 nums&#xff0c;返回 每个数字的平方 组成的新数组&#xff0c;要求也按 非递减顺序 排序。 示例 1&#xff1a; 输入&#xff1a;nums [-4,-1,0,3,1…

Django验证码(二)

一、生成图片 1.1、说明 通过pillow模板库生成图片,步骤如下 安装pillow模板建立 生成验证码内容 方法建立 生成验证码颜色 方法建立 生成验证码 方法1.2、需要安装 Pillow 库 pip install Pillow==9.3.01.3、生成验证码内容 import randomdef random_str(length=4):"…

Java学习笔记(17)

集合进阶 单列集合 Collection List set Add clear remove contains isempty size Add方法可能也会添加失败 同理&#xff0c;可能删除失败 Contains细节 为什么要重写equals&#xff1f; 因为contains底层用的是object类中的equals方法&#xff0c;比较的是地址值&#xf…

目标检测——PP-YOLO算法解读

PP-YOLO系列&#xff0c;均是基于百度自研PaddlePaddle深度学习框架发布的算法&#xff0c;2020年基于YOLOv3改进发布PP-YOLO&#xff0c;2021年发布PP-YOLOv2和移动端检测算法PP-PicoDet&#xff0c;2022年发布PP-YOLOE和PP-YOLOE-R。由于均是一个系列&#xff0c;所以放一起解…

微服务day05(中) -- ES索引库操作

索引库就类似数据库表&#xff0c;mapping映射就类似表的结构。 我们要向es中存储数据&#xff0c;必须先创建“库”和“表”。 2.1.mapping映射属性 mapping是对索引库中文档的约束&#xff0c;常见的mapping属性包括&#xff1a; type&#xff1a;字段数据类型&#xff0c;…

日志监控之 Grafana+Promtail+Loki

主要解决问题&#xff1a;项目负载均衡后&#xff0c;日志文件分散在多个位置&#xff0c;需要登录主机查看日志文件&#xff0c;在不确定那一个节点记录日志的情况下&#xff0c;很不方便&#xff0c;因此&#xff0c;使用GrafanaPromtailLoki的访问收集到同一个服务上。&…