网站备案号有什么用最好的科技资讯网站
2026/1/11 3:53:03 网站建设 项目流程
网站备案号有什么用,最好的科技资讯网站,网站是灰色系的网站,网站开发技术 文库深度学习是机器学习的分支#xff0c;机器学习领域演化出深度学习#xff0c;主要是因为传统机器学习在处理复杂、非结构化数据#xff08;如图像、音频、文本#xff09;时遇到了挑战#xff0c;特别是传统机器方法需要大量人工设计特征#xff0c;耗时且需要领域知识机器学习领域演化出深度学习主要是因为传统机器学习在处理复杂、非结构化数据如图像、音频、文本时遇到了挑战特别是传统机器方法需要大量人工设计特征耗时且需要领域知识模型难以捕捉数据中的深层关联。深度学习引入了深层神经网络、反向传播、卷积和循环网络等新思路实现了从原始数据中自动提取层次化特征极大减少了对人工特征工程的依赖。其在图像识别、语音识别、自然语言处理及生成任务中表现出色尤其擅长处理非线性关系和大规模数据。随着互联网和传感器技术的发展海量标注数据涌现同时 GPU 和分布式计算技术的成熟为训练深层神经网络提供了算力支持使得处理大规模数据的复杂模型成为可能。什么是深度学习深度学习核心是通过构建和训练多层神经网络深度神经网络模拟人脑的复杂决策能力让计算机能够从大量数据中自主学习复杂的特征和规律以处理和分析图像、语音、文本等非结构化数据。图中展示了简单神经网络和深度神经网络其中包含三个关键元素节点每个节点称为神经元负责接收输入数据通常为单一特征或特征组合进行加权求和等运算然后将结果传递给下一层的神经元。连线神经元之间的连线代表信息传递的路径以及其权重。在训练过程中这些连线负责传递信息并使用权重来调整信号强度以最小化预测误差。分层神经元按功能纵向分层每层与下一层全连接形成输入层→隐藏层→输出层的架构输入层负责接收数据输入通常以特征形式呈现每个神经元对应一个特征。隐藏层进行数据转换和特征提取通过加权处理输入特征生成更高层次的抽象特征。输出层生成预测结果每个神经元对应一个输出变量。由于深度学习有非常多新的概念接下来我们通过训练一个可以识别手写数字的模型来简单介绍深度学习的一些概念。使用深度学习识别手写数字我们的目标是训练一个深度神经网络模型能够准确地识别手写数字。在详细讲解之前可以先领取Mnist手写数字识别配套源码文件和800G人工智能学习资料包含数学与Python编程基础、深度学习机器学习入门到实战计算机视觉自然语言处理大模型资料合集不仅有配套教程讲义还有对应源码数据集。更有零基础入门学习路线不论你处于什么阶段这份资料都能帮助你更好地入门到进阶。需要的兄弟可以按照这个图的方式免费获取准备数据MNIST 是一个经典的手写数字识别数据集包含了 60000 张训练图片和 10000 张测试图片每张图片为 28x28 像素的灰度图像代表数字 0 到 9。MNIST 手写数字数据集通过 Keras 直接加载当首次运行这段代码时TensorFlow 会自动下载 MNIST 数据集并缓存到系统的默认缓存目录下载之后数据直接加载到内存中。MNIST 数据集是一个拓展名为.npz的NumPy 的压缩数据格式文件不能用常规解压软件直接解压查看可以通过一段简单代码查看其内容。import numpy as np import os import matplotlib.pyplot as plt # 加载mnist.npz文件 mnist_path os.path.expanduser(~/.keras/datasets/mnist.npz) data np.load(mnist_path) # 显示数据集包含的数组 print(MNIST 数据集包含以下数组:) print(data.files) # 提取数据 x_train data[x_train] y_train data[y_train] x_test data[x_test] y_test data[y_test] # 显示数据形状 print(f\n训练图像: {x_train.shape}, 类型: {x_train.dtype}) print(f训练标签: {y_train.shape}, 类型: {y_train.dtype}) print(f测试图像: {x_test.shape}, 类型: {x_test.dtype}) print(f测试标签: {y_test.shape}, 类型: {y_test.dtype}) # 显示几张图像示例 plt.rcParams[font.family] SimSong plt.figure(figsize(10, 5)) for i in range(10): plt.subplot(2, 5, i1) plt.imshow(x_train[i], cmapgray) plt.title(f标签: {y_train[i]}) plt.axis(off) plt.tight_layout() plt.savefig(mnist_samples.png) # 保存图像到文件 print(\n已保存10张示例图像到 mnist_samples.png) # 将部分数据保存为普通图像文件 output_dir mnist_extracted ifnot os.path.exists(output_dir): os.makedirs(output_dir) # 保存前20张训练图像 for i in range(20): img_path f{output_dir}/train_{i}_label_{y_train[i]}.png plt.imsave(img_path, x_train[i], cmapgray) print(f\n已提取20张训练图像到 {output_dir} 目录)MNIST 数据集包含以下数组: [x_train, x_test, y_train, y_test] 训练图像: (60000, 28, 28), 类型: uint8 训练标签: (60000,), 类型: uint8 测试图像: (10000, 28, 28), 类型: uint8 测试标签: (10000,), 类型: uint8数据处理对训练集的图像数据进行归一化处理将每个像素值除以 255.0得到每个像素值的范围在 0 - 1 之间的新数组然后在训练集数据中拆出 10% 用于交叉验证的数据集。# 数据预处理将像素归一化到 0-1 之间提升训练效率 train_images train_images / 255.0 test_images test_images / 255.0 # 从训练集中划分出验证集验证集占比 20% train_images, val_images, train_labels, val_labels train_test_split( train_images, train_labels, test_size0.2, random_state42)定义模型接下来我们利用 Keras 可以定义深度神经网络模型了Keras 是一个高级神经网络 API允许开发者通过简单的代码组合不同的神经网络层快速、简洁地构建、训练和评估深度学习模型目前已经被 Tensorflow 框架集成。# 定义模型 model keras.Sequential([ # 输入层输入 28x28 的图像 keras.Input(shape(28, 28)), # 将 28x28 的图像展平为一维向量 keras.layers.Flatten(), # 第一个隐藏层有 128 个神经元使用 ReLU 激活函数 keras.layers.Dense(128, activationrelu), # 第二个隐藏层有 64 个神经元使用 ReLU 激活函数 keras.layers.Dense(64, activationrelu), # 输出层有 10 个神经元对应 0 - 9 这 10 个数字类别使用 softmax 激活函数 keras.layers.Dense(10, activationsoftmax) ])keras.Sequential() 用于创建顺序模型顺序模型中各层会按照添加的顺序依次执行前一层的输出会作为后一层的输入。keras.Input() 函数用于定义输入层shape(28, 28)表示输入数据是 28 像素宽、28 像素高的二维图像。keras.layers.Flatten() 是一个扁平化层由于后续的全连接层Dense层要求输入为一维向量而输入的图像是 28x28 的二维矩阵所以该层的作用是将 28x28 的二维图像数据 “展平” 成一个长度为28 * 28 784的一维向量。keras.layers.Dense() 用于创建全连接层128 表示该层包含 128 个神经元。每个神经元会接收上一层的输入并对这些输入进行加权求和然后通过激活函数处理后输出。activation 用来指定了该层使用的激活函数ReLU、softmax 都是激活函数每层中神经元的数据量是怎么决定的输入层根据数据特征数量设置神经元。例如 28x28 的图像展平后有 784 个特征所以输入层有784个神经元。隐藏层神经元数量一般通过经验和试验确定前层神经元数量相对较多用于学习更具体的局部特征后层减少神经元数量迫使模型抽象特征降低模型复杂度减少过拟合风险。输出层输出层神经元的数量由具体的任务和输出的类别数量决定分类任务在多分类问题中输出层神经元的数量等于类别的数量。例如手写数字识别任务要识别的数字有 0 - 9 共 10 个类别所以输出层就设置 10 个神经元回归任务输出层神经元的数量通常为 1 个。例如预测房价只需要一个预测值输出层就设置 1 个神经元。激活函数激活函数Activation Function 是神经网络中每个神经元输出时应用的非线性变换函数。它决定了一个神经元是否被激活以及传递给下一个神经元的信息量。若没有激活函数多层神经网络将退化为线性模型无法学习复杂的非线性关系。有几个常用的激活函数ReLU输出范围在 [0, ∞) 之间计算简单且高效能够有效缓解梯度消失问题是当前最常用的隐藏层激活函数。Sigmoid输出范围在 (0, 1) 之间将输入映射为 0 到 1 之间的概率值常用于二分类问题的输出层。Softmax每个元素在 (0, 1) 之间且所有元素之和为 1通常用于多分类任务的输出层用于表示每个类别的概率。训练模型首先对模型进行配置确定模型在训练过程中所使用的优化器、损失函数和评估指标。model.compile(optimizeradam, losssparse_categorical_crossentropy, metrics[accuracy])loss在前面的章节接触过了 MSE 损失函数sparse_categorical_crossentropy 适用于多分类问题当标签是整数编码时使用。optimizer优化器的作用是在训练过程中调整模型的参数以最小化损失函数。常见的优化器有Adam综合性能较好在很多场景下都能取得不错的效果是一种常用的默认选择。SGD随机梯度下降是最基础的优化算法每次迭代时随机选择小批样本计算梯度根据梯度更新模型的参数简单任务且数据量较大时可考虑。Adagrad根据每个参数的历史梯度信息自适应地调整学习率处理稀疏数据时效果较好。RMSPropAdagrad 的改进引入衰减系数避免学习率单调递减的问题大多数情况下表现良好特别是在非凸优化问题中。Adadelta无需手动设置学习率适用于各种任务尤其在数据量较大、模型较复杂的情况下表现较好。metrics评估指标用于在训练和测试过程中监控模型的性能可以帮助开发者了解模型在每个 epoch 训练后的表现。接下来就可以按照指定的参数配置使用训练集数据对模型进行迭代训练同时使用验证数据评估模型的性能。model.fit( train_images, train_labels, epochs5, batch_size32, validation_data(val_images, val_labels) )epochs指定模型对整个训练数据集进行训练的轮数。单次训练难以让随机初始化参数的模型收敛到较优解多轮训练可通过多次迭代更新参数、充分学习数据分布规律。batch_size指定每次训练处理的样本数在训练过程中模型不会一次性处理整个训练数据集而是将训练数据分成多个小批次batch每次只处理一个批次的数据并根据该批次数据的梯度更新模型的参数。validation_data在训练过程中对模型进行验证。在每一轮训练中训练数据会被分成多个批次模型依次处理每个批次的数据并根据该批次数据的梯度更新模型的参数。每一轮训练结束后模型会使用验证数据进行评估并输出验证集上的损失和评估指标。重复上述过程直到达到指定的训练轮数。MNIST 训练集共有 60000 张图片20% 的数据划分为验证集训练集实际使用48000 张图片每批 32 张图片每个 epoch 需要 1500 步才能处理完所有训练数据。随着训练轮数的增加模型通常会逐渐学习到数据中的模式和特征损失函数的值持续下降模型的 accuracy 达到 98.8%。但并不是轮数越多越好过多的训练轮数可能会导致过拟合即模型在训练集上表现很好但在测试集上表现不佳。评估模型接下来使用测试数据集对已经训练好的模型进行评估从而了解模型在未见过的数据上的性能表现。# 评估模型 test_loss, test_acc model.evaluate(test_images, test_labels) print(fTest accuracy: {test_acc})测试准确率0.9749约 97.5%看来模型训练效果还不错。进行预测有了模型之后就能对测试集做个预测看看整体效果了。# 进行预测 predictions model.predict(test_images) # 找出每个样本中概率最大的元素所在的索引也就是预测的类别 predicted_labels np.argmax(predictions, axis1) # 打印前 10 个样本的预测结果和真实标签 for i in range(10): print(f样本 {i}预测标签 {predicted_labels[i]}, 真实标签 {test_labels[i]})感兴趣也可以把预测结果用图形表示import matplotlib.pyplot as plt def plot_image(i, predictions_array, true_label, img): predictions_array, true_label, img predictions_array, true_label[i], img[i] plt.grid(False) plt.xticks([]) plt.yticks([]) plt.imshow(img, cmapplt.cm.binary) predicted_label np.argmax(predictions_array) if predicted_label true_label: color blue else: color red plt.xlabel(f{predicted_label} {100*np.max(predictions_array):2.0f}% ({true_label}), colorcolor) def plot_value_array(i, predictions_array, true_label): predictions_array, true_label predictions_array, true_label[i] plt.grid(False) plt.xticks(range(10)) plt.yticks([]) thisplot plt.bar(range(10), predictions_array, color#777777) plt.ylim([0, 1]) predicted_label np.argmax(predictions_array) thisplot[predicted_label].set_color(red) thisplot[true_label].set_color(blue) # 显示前 15 个测试图像的预测结果 num_rows 5 num_cols 3 num_images num_rows * num_cols plt.figure(figsize(2 * 2 * num_cols, 2 * num_rows)) for i in range(num_images): plt.subplot(num_rows, 2 * num_cols, 2 * i 1) plot_image(i, predictions[i], test_labels, test_images) plt.subplot(num_rows, 2 * num_cols, 2 * i 2) plot_value_array(i, predictions[i], test_labels) plt.tight_layout() plt.show()完整代码import tensorflow as tf from tensorflow import keras import numpy as np import matplotlib.pyplot as plt from sklearn.model_selection import train_test_split # 加载 MNIST 手写数字数据集 mnist keras.datasets.mnist (train_images, train_labels), (test_images, test_labels) mnist.load_data() # 数据预处理将像素归一化到 0-1 之间提升训练效率 train_images train_images / 255.0 test_images test_images / 255.0 # 从训练集中划分出验证集验证集占比 20% train_images, val_images, train_labels, val_labels train_test_split( train_images, train_labels, test_size0.2, random_state42) # 定义模型 model keras.Sequential([ # 输入层输入 28x28 的图像 keras.Input(shape(28, 28)), # 将 28x28 的图像展平为一维向量 keras.layers.Flatten(), # 第一个隐藏层有 128 个神经元使用 ReLU 激活函数 keras.layers.Dense(128, activationrelu), # 第二个隐藏层有 64 个神经元使用 ReLU 激活函数 keras.layers.Dense(64, activationrelu), # 输出层有 10 个神经元对应 0 - 9 这 10 个数字类别使用 softmax 激活函数 keras.layers.Dense(10, activationsoftmax) ]) # 训练模型 model.compile(optimizeradam, losssparse_categorical_crossentropy, metrics[accuracy]) model.fit( train_images, train_labels, epochs5, batch_size32, validation_data(val_images, val_labels) ) # 评估模型 test_loss, test_acc model.evaluate(test_images, test_labels) print(fTest accuracy: {test_acc}) # 进行预测 predictions model.predict(test_images) # 找出每个样本中概率最大的元素所在的索引也就是预测的类别 predicted_labels np.argmax(predictions, axis1) # 打印前 10 个样本的预测结果和真实标签 for i in range(10): print(f样本 {i}预测标签 {predicted_labels[i]}, 真实标签 {test_labels[i]}) # 可视化预测结果 def plot_image(i, predictions_array, true_label, img): predictions_array, true_label, img predictions_array, true_label[i], img[i] plt.grid(False) plt.xticks([]) plt.yticks([]) plt.imshow(img, cmapplt.cm.binary) predicted_label np.argmax(predictions_array) if predicted_label true_label: color blue else: color red plt.xlabel(f{predicted_label} {100*np.max(predictions_array):2.0f}% ({true_label}), colorcolor) def plot_value_array(i, predictions_array, true_label): predictions_array, true_label predictions_array, true_label[i] plt.grid(False) plt.xticks(range(10)) plt.yticks([]) thisplot plt.bar(range(10), predictions_array, color#777777) plt.ylim([0, 1]) predicted_label np.argmax(predictions_array) thisplot[predicted_label].set_color(red) thisplot[true_label].set_color(blue) # 显示前 15 个测试图像的预测结果 num_rows 5 num_cols 3 num_images num_rows * num_cols plt.figure(figsize(2 * 2 * num_cols, 2 * num_rows)) for i in range(num_images): plt.subplot(num_rows, 2 * num_cols, 2 * i 1) plot_image(i, predictions[i], test_labels, test_images) plt.subplot(num_rows, 2 * num_cols, 2 * i 2) plot_value_array(i, predictions[i], test_labels) plt.tight_layout() plt.show()这段代码使用了全连接神经网络Fully Connected Neural Network架构也称为多层感知机Multi-Layer PerceptronMLP。输入层接收 28×28 像素的手写数字图像Flatten 层将 2D 图像 (28×28) 展平为一维向量 (784)第一个隐藏层128 个神经元使用ReLU激活函数第二个隐藏层64 个神经元使用 ReLU 激活函数输出层10 个神经元对应 0-9 十个数字类别使用 softmax 激活函数这是一个基础神经网络模型没有使用卷积层或其它复杂结构只使用了全连接层。如果使用 CNN 模型架构核心代码大概是这样。# 定义 CNN 模型 model keras.Sequential([ # 输入层输入 28x28 的单通道图像需要添加通道维度 keras.Input(shape(28, 28, 1)), # 第一个卷积层有 32 个滤波器卷积核大小为 3x3使用 ReLU 激活函数 keras.layers.Conv2D(32, kernel_size(3, 3), activationrelu), # 最大池化层池化窗口大小为 2x2 keras.layers.MaxPooling2D(pool_size(2, 2)), # 第二个卷积层有 64 个滤波器卷积核大小为 3x3使用 ReLU 激活函数 keras.layers.Conv2D(64, kernel_size(3, 3), activationrelu), # 最大池化层池化窗口大小为 2x2 keras.layers.MaxPooling2D(pool_size(2, 2)), # 将卷积层的输出展平为一维向量 keras.layers.Flatten(), # 全连接层有 128 个神经元使用 ReLU 激活函数 keras.layers.Dense(128, activationrelu), # 输出层有 10 个神经元对应 0 - 9 这 10 个数字类别使用 softmax 激活函数 keras.layers.Dense(10, activationsoftmax) ])后续章节我们再来了解不同类型的模型架构以及它们擅长的领域场景。Transformer 与 TensorflowTransformer 是基于自注意力机制的神经网络架构主要用于自然语言处理NLP等序列建模任务本质上是一种解决问题的设计理念与方案。TensorFlow 是由 Google 开发的开源机器学习框架 提供了丰富的工具和库来构建、训练和部署各种机器学习模型本质上是一个工具实现。可以利用 TensorFlow 提供的操作、函数和类来实现 Transformer 架构进行模型训练和推理。工程同学也能简单把 Transformer 和 Tensorflow 的关系理解为 MVC 架构与 Spring MVC 的关系。Tensorflow 与 PyTorchTensorFlow 与 PyTorch 是当前深度学习领域中最为流行的两个开源框架TensorFlow 由 Google Brain 团队于 2015 年 11 月发布原生支持分布式计算适合大规模模型和数据的训练。在 TensorFlow 1.x 时代静态计算图的概念对于初学者来说较为复杂。2017 年发布 TensorFlow 2.0强调易用性与灵活性集成了 Keras 高级 API支持动态图模式提高了用户体验。PyTorch 由 Facebook 于 2016 年 1 月发布旨在为研究人员提供一个灵活且高效的深度学习框架。发布初版采用动态计算图使得模型构建和调试过程更加直观和简便尤其适合研究和快速原型开发。2018 年发布 PyTorch 1.0标志着框架的成熟增强了生产部署能力。两者各有优势TensorFlow 更加适合需要强大部署能力和完整生态系统的工业应用而 PyTorch 则因其灵活性和易用性深受研究人员和开发者的青睐超过 80% 的新研究论文优先使用 PyTorch 实现虽然文中示例主要是用 Tensorflow但如果仅仅是想了解深度学习建议使用 PyTorch。

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询