【AlexNet】数字手势识别

您所在的位置:网站首页 握手手势 【AlexNet】数字手势识别

【AlexNet】数字手势识别

2024-07-10 07:33| 来源: 网络整理| 查看: 265

文章目录 1. 项目准备1.1. 问题导入1.2. 数据集简介 2. AlexNet模型3. 实验步骤3.0. 前期准备3.1. 数据准备3.2. 网络配置3.3. 模型训练3.4. 模型评估3.5. 模型预测 写在最后

1. 项目准备 1.1. 问题导入

图像分类是根据图像的语义信息将不同类别图像区分开来,是计算机视觉中重要的基本问题。本实验将使用经典神经网络模型AlexNet预测手势图片所表示的数字。

1.2. 数据集简介

本次实验使用的数据集是由土耳其一所中学制作,数据集由Main文件夹中的训练/测试数据集和Infer文件夹中的预测数据集组成,包含0-9共10种数字的手势图片,实验图片都是大小为100 * 100像素、RGB格式的图像。

这是数据集的下载链接:手势识别数据集 - AI Studio

2. AlexNet模型

得益于硬件的发展(GPU的使用等)和各种算法的改进,在2012的ImageNet图像分类竞赛中,AlexeNet模型以远超第二名的成绩夺冠。AlexNet模型是Hinton及其学生Alex Krizhevsky等人(2012)在论文ImageNet Classification with Deep Convolutional Neural Networks提出的网络模型,也是在那年之后,更多的更深的神经网络被提出,卷积神经网络乃至深度学习重新引起了广泛的关注。AlexNet模型的网络结构如下图所示。

3. 实验步骤

3.0. 前期准备 导入模块

注意:本案例仅适用于PaddlePaddle 2.0+版本

import os import zipfile import random import numpy as np from PIL import Image import matplotlib.pyplot as plt import paddle from paddle import nn from paddle import metric as M from paddle.io import DataLoader, Dataset from paddle.nn import functional as F from paddle.optimizer import Adam from paddle.optimizer.lr import NaturalExpDecay 设置超参数 BATCH_SIZE = 32 # 每批次的样本数 CLASS_DIM = 10 # 手势种类数 EPOCHS = 10 # 训练轮数 LOG_GAP = 30 # 输出训练信息的间隔 INIT_LR = 3e-4 # 初始学习率 LR_DECAY = 0.5 # 学习率衰减率 SRC_PATH = "./data/Gestures.zip" # 压缩包路径 DST_PATH = "./data" # 解压路径 DATA_PATH = DST_PATH + "/Main" # 实验数据集路径 INFER_PATH = DST_PATH + "/Infer" # 预测数据集路径 MODEL_PATH = "AlexNet.pdparams" # 模型参数保存路径 3.1. 数据准备 解压数据集 由于数据集中的数据是以压缩包的形式存放的,因此我们需要先解压数据压缩包。 if not os.path.isdir(DATA_PATH) or not os.path.isdir(INFER_PATH): z = zipfile.ZipFile(SRC_PATH, "r") # 打开压缩文件,创建zip对象 z.extractall(path=DST_PATH) # 解压zip文件至目标路径 z.close() print("数据集解压完成!") 划分数据集 我们需要按1:9比例划分测试集和训练集,分别生成两个包含数据路径和标签映射关系的列表。 train_list, test_list = [], [] # 存放数据的路径及标签的映射关系 file_folders = os.listdir(DATA_PATH) # 统计数据集下的文件夹 for folder in file_folders: imgs = os.listdir(os.path.join(DATA_PATH, folder)) for idx, img in enumerate(imgs): path = os.path.join(DATA_PATH, folder, img) if idx % 10 == 0: # 按照1:9的比例划分数据集 test_list.append([path, folder]) else: train_list.append([path, folder]) 数据预处理 我们需要对数据集图像进行缩放和归一化处理。 class MyDataset(Dataset): ''' 自定义的数据集类 ''' def __init__(self, label_list, transform): ''' * `label_list`: 标签与文件路径的映射列表 * `transform`:数据处理函数 ''' super(MyDataset, self).__init__() random.shuffle(label_list) # 打乱映射列表 self.label_list = label_list self.transform = transform def __getitem__(self, index): ''' 根据位序获取对应数据 ''' img_path, label = self.label_list[index] img = self.transform(img_path) return img, int(label) def __len__(self): ''' 获取数据集样本总数 ''' return len(self.label_list) def data_mapper(img_path, show=False): ''' 图像处理函数 ''' img = Image.open(img_path) if show: # 展示图像 display(img) # 将其缩放为224*224的高质量图像: img = img.resize((224, 224), Image.ANTIALIAS) # 把图像变成一个numpy数组以匹配数据馈送格式: img = np.array(img).astype("float32") # 将图像矩阵由“rgb,rgb,rbg...”转置为“rr...,gg...,bb...”: img = img.transpose((2, 0, 1)) # 将图像数据归一化,并转换成Tensor格式: img = paddle.to_tensor(img / 255) return img train_dataset = MyDataset(train_list, data_mapper) # 训练集 test_dataset = MyDataset(test_list, data_mapper) # 测试集 定义数据提供器 我们需要分别构建用于训练和测试的数据提供器,其中训练数据提供器是乱序、按批次提供数据的。 train_loader = DataLoader(train_dataset, # 训练数据集 batch_size=BATCH_SIZE, # 每批读取的样本数 num_workers=0, # 加载数据的子进程个数 shuffle=True, # 打乱训练数据集 drop_last=False) # 不丢弃不完整的样本 test_loader = DataLoader(test_dataset, # 测试数据集 batch_size=BATCH_SIZE, # 每批读取的样本数 num_workers=0, # 加载数据的子进程个数 shuffle=False, # 不打乱测试数据集 drop_last=False) # 不丢弃不完整的样本 3.2. 网络配置

AlexNet模型网络结构如下图所示:

class AlexNet(nn.Layer): def __init__(self, in_channels=3, n_classes=10): ''' * `in_channels`: 输入的通道数 * `n_classes`: 输出分类数量 ''' super(AlexNet, self).__init__() # Conv2D(输入通道数,输出通道数,卷积核大小,卷积步长,填充长度) # MaxPool2D(池化核大小,池化步长) self.conv1 = nn.Conv2D(in_channels, 96, 11, stride=4, padding=2) self.pool1 = nn.MaxPool2D(3, 2) self.conv2 = nn.Conv2D(96, 256, 5, stride=1, padding=2) self.pool2 = nn.MaxPool2D(3, 2) self.conv3 = nn.Conv2D(256, 384, 3, stride=1, padding=1) self.conv4 = nn.Conv2D(384, 384, 3, stride=1, padding=1) self.conv5 = nn.Conv2D(384, 256, 3, stride=1, padding=1) self.pool3 = nn.MaxPool2D(3, 2) self.fc1 = nn.Linear(256*6*6, 4096) self.drop1 = nn.Dropout(0.25) self.fc2 = nn.Linear(4096, 4096) self.drop2 = nn.Dropout(0.25) self.fc3 = nn.Linear(4096, n_classes) def forward(self, x): # 前向传播参数,连接各层组成神经网络 x = F.relu( self.conv1(x) ) x = self.pool1(x) x = F.relu( self.conv2(x) ) x = self.pool2(x) x = F.relu( self.conv3(x) ) x = F.relu( self.conv4(x) ) x = F.relu( self.conv5(x) ) x = self.pool3(x) x = paddle.flatten(x, 1, -1) x = F.relu( self.fc1(x) ) x = self.drop1(x) x = F.relu( self.fc2(x) ) x = self.drop2(x) y = self.fc3(x) return y 实例化模型 model = AlexNet(in_channels=3, n_classes=CLASS_DIM) 3.3. 模型训练 model.train() # 开启训练模式 scheduler = NaturalExpDecay( learning_rate=INIT_LR, gamma=LR_DECAY ) # 定义学习率衰减器 optimizer = Adam( learning_rate=scheduler, parameters=model.parameters() ) # 定义Adam优化器 loss_arr, acc_arr = [], [] # 用于可视化 for ep in range(EPOCHS): for batch_id, data in enumerate(train_loader()): x_data, y_data = data y_data = y_data[:, np.newaxis] # 增加一维维度 y_pred = model(x_data) # 预测结果 acc = M.accuracy(y_pred, y_data) # 计算准确率 loss = F.cross_entropy(y_pred, y_data) # 计算交叉熵 if batch_id != 0 and batch_id % LOG_GAP == 0: # 定期输出训练结果 print("Epoch:%d,Batch:%3d,Loss:%.5f,Acc:%.5f"\ % (ep, batch_id, loss, acc)) acc_arr.append(acc.item()) loss_arr.append(loss.item()) optimizer.clear_grad() loss.backward() optimizer.step() scheduler.step() # 每轮衰减一次学习率 paddle.save(model.state_dict(), MODEL_PATH) # 保存训练好的模型

模型训练结果如下:

Epoch:0,Batch: 0,Loss:2.70293,Acc:0.06250 Epoch:0,Batch: 30,Loss:2.30669,Acc:0.18750 Epoch:1,Batch: 0,Loss:2.17180,Acc:0.15625 Epoch:1,Batch: 30,Loss:1.20216,Acc:0.53125 Epoch:2,Batch: 0,Loss:0.83113,Acc:0.75000 Epoch:2,Batch: 30,Loss:0.42846,Acc:0.78125 Epoch:3,Batch: 0,Loss:0.17984,Acc:0.96875 Epoch:3,Batch: 30,Loss:0.24534,Acc:0.90625 Epoch:4,Batch: 0,Loss:0.23818,Acc:0.93750 Epoch:4,Batch: 30,Loss:0.28972,Acc:0.84375 Epoch:5,Batch: 0,Loss:0.07945,Acc:0.96875 Epoch:5,Batch: 30,Loss:0.07204,Acc:0.96875 Epoch:6,Batch: 0,Loss:0.08238,Acc:0.96875 Epoch:6,Batch: 30,Loss:0.09043,Acc:0.96875 Epoch:7,Batch: 0,Loss:0.06805,Acc:0.96875 Epoch:7,Batch: 30,Loss:0.02860,Acc:1.00000 Epoch:8,Batch: 0,Loss:0.09906,Acc:0.96875 Epoch:8,Batch: 30,Loss:0.26927,Acc:0.96875 Epoch:9,Batch: 0,Loss:0.02094,Acc:1.00000 Epoch:9,Batch: 30,Loss:0.04960,Acc:0.96875 可视化训练过程 fig = plt.figure(figsize=[10, 8]) # 训练误差图像: ax1 = fig.add_subplot(211, facecolor="#E8E8F8") ax1.set_ylabel("Loss", fontsize=18) plt.tick_params(labelsize=14) ax1.plot(range(len(loss_arr)), loss_arr, color="orangered") ax1.grid(linewidth=1.5, color="white") # 显示网格 # 训练准确率图像: ax2 = fig.add_subplot(212, facecolor="#E8E8F8") ax2.set_xlabel("Training Steps", fontsize=18) ax2.set_ylabel("Accuracy", fontsize=18) plt.tick_params(labelsize=14) ax2.plot(range(len(acc_arr)), acc_arr, color="dodgerblue") ax2.grid(linewidth=1.5, color="white") # 显示网格 fig.tight_layout() plt.show() plt.close()

3.4. 模型评估 model.eval() # 开启评估模式 test_costs, test_accs = [], [] for batch_id, data in enumerate(test_loader()): x_data, y_data = data y_data = y_data[:, np.newaxis] # 增加一维维度 y_pred = model(x_data) # 预测结果 acc = M.accuracy(y_pred, y_data) # 计算准确率 loss = F.cross_entropy(y_pred, y_data) # 计算交叉熵 test_accs.append(acc.item()) test_costs.append(loss.item()) test_loss = np.mean(test_costs) # 每轮测试的平均误差 test_acc = np.mean(test_accs) # 每轮测试的平均准确率 print("Eval \t Loss:%.5f,Acc:%.5f" % (test_loss, test_acc))

模型评估结果如下:

Eval Loss:0.10308,Acc:0.96429 3.5. 模型预测 预处理预测数据 truth_lab = random.randint(0, 9) # 预测图片的真实标签 infer_path = INFER_PATH + '/infer_%d.JPG' % truth_lab # 预测图片的路径 infer_img = data_mapper(infer_path, show=True) # 获取预测图片 infer_img = infer_img[np.newaxis, :, :, :] # 为图像数组增加一维

载入模型并开始预测 model.eval() # 开启评估模式 model.set_state_dict( paddle.load(MODEL_PATH) ) # 载入预训练模型参数 result = model(infer_img) infer_lab = np.argmax(result) # 返回数组result中的最大值的索引值 print("真实标签:%d,预测结果:%d" % (truth_lab, infer_lab))

模型预测结果如下:

该图片的真实标签为7,模型预测结果为7 写在最后 如果您发现项目存在问题,或者如果您有更好的建议,欢迎在下方评论区中留言讨论~这是本项目的链接:实验项目 - AI Studio,点击fork可直接在AI Studio运行~这是我的个人主页:个人主页 - AI Studio,来AI Studio互粉吧,等你哦~【友链滴滴】欢迎大家随时访问我的个人博客~


【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3