MAML小样本学习算法解读及代码实现

您所在的位置:网站首页 ucsd在哪 MAML小样本学习算法解读及代码实现

MAML小样本学习算法解读及代码实现

2023-04-25 01:33| 来源: 网络整理| 查看: 265

0 分享至

用微信扫码二维码

分享至好友和朋友圈

研究背景及基本概念

研究背景

深度学习之所以在近年来大获成功,很大程度上得益于大数据技术的发展。深度神经网络强大的函数拟合能力,需要通过在人工标注的大数据集上长时间训练,才能获得强泛化能力,从而应用于各行各业。相比深度学习模型,人类智能只需要通过少量几张图片,就能迅速准确地学习掌握图像中类别主体的关键本质特征,并推广到同类别其他从未见过的样本上。如何使深度神经网络模拟人类学习的过程,高效地训练,习得新概念,是深度学习下一步要攻克的重要难题。小样本学习(Few-Shot Learning,FSL)的相关研究,即是实现该目标的重要环节。

MAML元学习算法是小样本学习领域中的经典方法,本文将重点讲解该方法的理论和飞桨代码实现。本章首先对小样本学习的问题定义、评价标准和常用数据集进行介绍,以期读者对本领域概况获得基本了解。

问题定义

假设数据集中包含 个类别,将这个数据集按类别划分为不相交的两部分,一部分称为基础集(Base set) ,一部分称为新颖集(Novel Set) , 其中, ,且 。模型在基础集上离线训练,以获得所需的先验知识和特征提取能力。在基础集上的具体训练方式,因算法的不同而异。对新颖集 随机采样N个类别,每个类别采样K个样本,这 个带标签的样本构成支持集(Support set)S,小样本学习任务便是在这个很小的数据集S上进行,称为N-way K-shot任务。此外,对这N个类别再采样 个无标签样本构成查询集Q,在Q上进行小样本模型的分类测试。通常,N=5,K=1或5。

本文所述的MAML算法,是在基础集上以相同方式构建了若干个N-way K-shot训练任务,进行离线训练。这种训练方式是一种元学习的训练方法,保持了与测试过程相同的任务构建流程,能够最大程度避免协变量偏移。

为了更清晰地展示数据集的划分方法,这里以miniImageNet数据集[1]为例,进行图形化展示,如下图所示。该数据集共有100个类别,每个类别各有600张图像样本。

评价标准

在600轮(或1000轮等等)不同的N-way K-shot任务上,分别进行小样本学习,得到在查询集上的top-1分类准确率。最终的评估指标是这600个任务上的平均准确率和置信区间。

常用数据集

miniImageNet[1]:由Oriol Vinyals等在Matching Networks[1]中首次提出。在Matching Networks中, 作者提出对ILSVRC-12中的类别和样本进行抽取(参见其Appendix B),形成了一个数据子集,将其命名为miniImageNet,包含100类共60000张彩色图片,其中每类有600个样本,图像大小为84×84。随后,普林斯顿大学的博士生Sachin Ravi[2]将该数据集随机划分为64个基础集类,16个验证集类和20个新颖集类。

下载链接:

https://aistudio.baidu.com/aistudio/datasetdetail/105646

tieredImageNet[3]:同样是ILSVRC-12的子集,包含ImageNet中层次结构较高级别的34个大类(category),每个大类包含10~30个小类(class)。该数据集中各子集的划分方法如下表所示。

下载链接:

https://aistudio.baidu.com/aistudio/datasetdetail/92380

FC100[4]:即Fewshot-CIFAR100,截取自CIFAR100数据集,共包含100个类别,每个类别600张图片,图像大小为32×32×3。其中基础集60个类别,验证集和新颖集各60个类别。

下载链接:

https://aistudio.baidu.com/aistudio/datasetdetail/92333

Omniglot[5]:包含50个不同的字母表,每个字母表中的字母各包含20个手写字符样本,每一个手写样本都是不同人通过亚马逊Mechanical Turk在线绘制的。Omniglot数据集的多样性强于MNIST数据集,常用于小样本识别任务。

下载链接:

https://aistudio.baidu.com/aistudio/datasetdetail/78550

CUB[6]:该数据集是一个细粒度数据集,全部由鸟类图片构成,共包含200个类别,其中100个类别为基础集,50个类别为验证集,50个类别为新颖集。

下载链接:

https://aistudio.baidu.com/aistudio/datasetdetail/23613

MAML模型算法

模型无关元学习(Model-Agnostic Meta-Learning,简称MAML)算法[7],其模型无关体现在,能够与任何使用了梯度下降法的模型相兼容,广泛应用于各种不同的机器学习任务,包括图像分类、目标检测、强化学习等。元学习的目标,是在大量不同的任务上训练一个模型,使其能够使用极少量的训练数据(即小样本),进行极少量的梯度下降步数,就能够迅速适应新任务,解决新问题。

模型方法

MAML算法的训练目的是获得一组最优的初始化参数,使得模型能够快速适配(fast adaptation)新任务。作者认为,某些特征比另一些特征更容易迁移到其他任务中,这些特征具有跨任务间的通用性。既然小样本学习任务只提供少量标记样本,模型在小样本上多轮迭代训练后必然导致过拟合,那么就应该尽可能使模型只迭代训练几步。这就要求模型已经具有广泛适配于各种任务的初始化参数,这组参数应包含模型在基础集上所学到的先验知识。

假设模型可以用函数 θ 表示, θ 为模型参数。适配新任务 时,模型通过梯度下降法迭代一步(或若干步),参数 θ 更新为 θ ,即 θ θ α θ

其中, α 为超参数,用于控制适配过程的学习率。

在多个不同任务 上,模型通过计算 θ 的损失来评估模型参数 θ 。具体地,元学习的目标是获得一组参数 θ ,使得模型在任务分布 上,能够快速适配所有任务,使得损失最小。用公式表达如下:

通过随机梯度下降(SGD)法,模型参数 θ 按照以下公式进行更新:

这里需要注意,我们最终要优化的参数是 θ ,但计算损失函数却是在微调后的参数 θ 上进行,训练过程可通过下图示意。

由于上述元学习算法在损失计算和优化参数方面的特点,训练包括了两层循环。外层循环是元学习过程,通过在任务分布 上采样一组任务 ,计算在这组任务上的损失函数;内层循环是微调过程,即针对每一个任务 ,迭代一次(或若干次)梯度下降,将参数进行更新为 θ ,然后计算在参数为 θ 时的损失。梯度反向传递时,需要跨越两层循环传递到初始参数 θ 上,完成元学习的参数更新。

完整的MAML算法如下图所示。

实验结果

在Omniglot和miniImageNet数据集上,文献给出的实验结果如下图所示。

飞桨实现

本小节给出本人在“飞桨论文复现挑战赛(第三期)”中完成的部分关键代码。完整项目代码已在GitHub和AI Studio上开源,欢迎读者star、fork。链接如下:

GitHub地址:

https://github.com/hrdwsong/maml-paddle

AI Studio地址:

https://aistudio.baidu.com/aistudio/projectdetail/1869590?contributionType=1&shared=1

关键代码实现

该模型比较特殊,梯度需要穿过内外两层循环传递到原始参数。如果基于nn.Layer类进行常规的模型搭建,在内循环更新梯度时,模型参数会被覆盖,导致初始参数丢失。得益于飞桨动态图模式灵活组网的特点,本项目将模型参数和算子分离设计,在外循环中保存原始参数副本 θ ;内循环中通过该副本更新参数,计算损失函数。计算图通过动态图模式自动构建,最终将梯度反传回原始参数 θ 。

MAML类的代码如下:

1class MAML(paddle.nn.Layer):2 def __init__(self, n_way):3 super(MAML, self).__init__()4 # 定义模型中全部待优化参数5 self.vars = []6 self.vars_bn = []7 # ------------------------第1个conv2d-------------------------8 weight = paddle.static.create_parameter(shape=[64, 1, 3, 3],9 dtype='float32',10 default_initializer=nn.initializer.KaimingNormal(),11 is_bias=False)12 bias = paddle.static.create_parameter(shape=[64],13 dtype='float32',14 is_bias=True) # 初始化为零15 self.vars.extend([weight, bias])16 # 第1个BatchNorm17 weight = paddle.static.create_parameter(shape=[64],18 dtype='float32',19 default_initializer=nn.initializer.Constant(value=1),20 is_bias=False)21 bias = paddle.static.create_parameter(shape=[64],22 dtype='float32',23 is_bias=True) # 初始化为零24 self.vars.extend([weight, bias])25 running_mean = paddle.to_tensor(np.zeros([64], np.float32), stop_gradient=True)26 running_var = paddle.to_tensor(np.zeros([64], np.float32), stop_gradient=True)27 self.vars_bn.extend([running_mean, running_var])28 # ------------------------第2个conv2d------------------------29 weight = paddle.static.create_parameter(shape=[64, 64, 3, 3],30 dtype='float32',31 default_initializer=nn.initializer.KaimingNormal(),32 is_bias=False)33 bias = paddle.static.create_parameter(shape=[64],34 dtype='float32',35 is_bias=True)36 self.vars.extend([weight, bias])37 # 第2个BatchNorm38 weight = paddle.static.create_parameter(shape=[64],39 dtype='float32',40 default_initializer=nn.initializer.Constant(value=1),41 is_bias=False)42 bias = paddle.static.create_parameter(shape=[64],43 dtype='float32',44 is_bias=True) # 初始化为零45 self.vars.extend([weight, bias])46 running_mean = paddle.to_tensor(np.zeros([64], np.float32), stop_gradient=True)47 running_var = paddle.to_tensor(np.zeros([64], np.float32), stop_gradient=True)48 self.vars_bn.extend([running_mean, running_var])49 # ------------------------第3个conv2d------------------------50 weight = paddle.static.create_parameter(shape=[64, 64, 3, 3],51 dtype='float32',52 default_initializer=nn.initializer.KaimingNormal(),53 is_bias=False)54 bias = paddle.static.create_parameter(shape=[64],55 dtype='float32',56 is_bias=True)57 self.vars.extend([weight, bias])58 # 第3个BatchNorm59 weight = paddle.static.create_parameter(shape=[64],60 dtype='float32',61 default_initializer=nn.initializer.Constant(value=1),62 is_bias=False)63 bias = paddle.static.create_parameter(shape=[64],64 dtype='float32',65 is_bias=True) # 初始化为零66 self.vars.extend([weight, bias])67 running_mean = paddle.to_tensor(np.zeros([64], np.float32), stop_gradient=True)68 running_var = paddle.to_tensor(np.zeros([64], np.float32), stop_gradient=True)69 self.vars_bn.extend([running_mean, running_var])70 # ------------------------第4个conv2d------------------------71 weight = paddle.static.create_parameter(shape=[64, 64, 3, 3],72 dtype='float32',73 default_initializer=nn.initializer.KaimingNormal(),74 is_bias=False)75 bias = paddle.static.create_parameter(shape=[64],76 dtype='float32',77 is_bias=True)78 self.vars.extend([weight, bias])79 # 第4个BatchNorm80 weight = paddle.static.create_parameter(shape=[64],81 dtype='float32',82 default_initializer=nn.initializer.Constant(value=1),83 is_bias=False)84 bias = paddle.static.create_parameter(shape=[64],85 dtype='float32',86 is_bias=True) # 初始化为零87 self.vars.extend([weight, bias])88 running_mean = paddle.to_tensor(np.zeros([64], np.float32), stop_gradient=True)89 running_var = paddle.to_tensor(np.zeros([64], np.float32), stop_gradient=True)90 self.vars_bn.extend([running_mean, running_var])91 # ------------------------全连接层------------------------92 weight = paddle.static.create_parameter(shape=[64, n_way],93 dtype='float32',94 default_initializer=nn.initializer.XavierNormal(),95 is_bias=False)96 bias = paddle.static.create_parameter(shape=[n_way],97 dtype='float32',98 is_bias=True)99 self.vars.extend([weight, bias])100101 def forward(self, x, params=None, bn_training=True):102 if params is None:103 params = self.vars104 weight, bias = params[0], params[1] # 第1个CONV层105 x = F.conv2d(x, weight, bias, stride=1, padding=1)106 weight, bias = params[2], params[3] # 第1个BN层107 running_mean, running_var = self.vars_bn[0], self.vars_bn[1]108 x = F.batch_norm(x, running_mean, running_var, weight=weight, bias=bias, training=bn_training)109 x = F.relu(x) # 第1个relu110 x = F.max_pool2d(x, kernel_size=2) # 第1个MAX_POOL层111 weight, bias = params[4], params[5] # 第2个CONV层112 x = F.conv2d(x, weight, bias, stride=1, padding=1)113 weight, bias = params[6], params[7] # 第2个BN层114 running_mean, running_var = self.vars_bn[2], self.vars_bn[3]115 x = F.batch_norm(x, running_mean, running_var, weight=weight, bias=bias, training=bn_training)116 x = F.relu(x) # 第2个relu117 x = F.max_pool2d(x, kernel_size=2) # 第2个MAX_POOL层118 weight, bias = params[8], params[9] # 第3个CONV层119 x = F.conv2d(x, weight, bias, stride=1, padding=1)120 weight, bias = params[10], params[11] # 第3个BN层121 running_mean, running_var = self.vars_bn[4], self.vars_bn[5]122 x = F.batch_norm(x, running_mean, running_var, weight=weight, bias=bias, training=bn_training)123 x = F.relu(x) # 第3个relu124 x = F.max_pool2d(x, kernel_size=2) # 第3个MAX_POOL层125 weight, bias = params[12], params[13] # 第4个CONV层126 x = F.conv2d(x, weight, bias, stride=1, padding=1)127 weight, bias = params[14], params[15] # 第4个BN层128 running_mean, running_var = self.vars_bn[6], self.vars_bn[7]129 x = F.batch_norm(x, running_mean, running_var, weight=weight, bias=bias, training=bn_training)130 x = F.relu(x) # 第4个relu131 x = F.max_pool2d(x, kernel_size=2) # 第4个MAX_POOL层132 x = paddle.reshape(x, [x.shape[0], -1]) ## flatten133 weight, bias = params[-2], params[-1] # linear134 x = F.linear(x, weight, bias)135 output = x136 return output137138 def parameters(self, include_sublayers=True):139 return self.vars

元学习器类的代码如下:

1class MetaLearner(nn.Layer):2 def __init__(self, n_way, glob_update_step, glob_update_step_test, glob_meta_lr, glob_base_lr):3 super(MetaLearner, self).__init__()4 self.update_step = glob_update_step # task-level inner update steps5 self.update_step_test = glob_update_step_test6 self.net = MAML(n_way=n_way)7 self.meta_lr = glob_meta_lr # 外循环学习率8 self.base_lr = glob_base_lr # 内循环学习率9 self.meta_optim = paddle.optimizer.Adam(learning_rate=self.meta_lr, parameters=self.net.parameters())1011 def forward(self, x_spt, y_spt, x_qry, y_qry):12 task_num = x_spt.shape[0]13 query_size = x_qry.shape[1] # 75 = 15 * 514 loss_list_qry = [0 for _ in range(self.update_step + 1)]15 correct_list = [0 for _ in range(self.update_step + 1)]1617 # 内循环梯度手动更新,外循环梯度使用定义好的更新器更新18 for i in range(task_num):19 # 第0步更新20 y_hat = self.net(x_spt[i], params=None, bn_training=True) # (setsz, ways)21 loss = F.cross_entropy(y_hat, y_spt[i])22 grad = paddle.grad(loss, self.net.parameters()) # 计算所有loss相对于参数的梯度和23 tuples = zip(grad, self.net.parameters()) # 将梯度和参数一一对应起来24 # fast_weights这一步相当于求了一个\theta - \alpha*\nabla(L)25 fast_weights = list(map(lambda p: p[1] - self.base_lr * p[0], tuples))26 # 在query集上测试,计算准确率27 # 这一步使用更新前的数据,loss填入loss_list_qry[0],预测正确数填入correct_list[0]28 with paddle.no_grad():29 y_hat = self.net(x_qry[i], self.net.parameters(), bn_training=True)30 loss_qry = F.cross_entropy(y_hat, y_qry[i])31 loss_list_qry[0] += loss_qry32 pred_qry = F.softmax(y_hat, axis=1).argmax(axis=1) # size = (75) # axis取-1也行33 correct = paddle.equal(pred_qry, y_qry[i]).numpy().sum().item()34 correct_list[0] += correct35 # 使用更新后的数据在query集上测试。loss填入loss_list_qry[1],预测正确数填入correct_list[1]36 with paddle.no_grad():37 y_hat = self.net(x_qry[i], fast_weights, bn_training=True)38 loss_qry = F.cross_entropy(y_hat, y_qry[i])39 loss_list_qry[1] += loss_qry40 pred_qry = F.softmax(y_hat, axis=1).argmax(axis=1) # size = (75)41 correct = paddle.equal(pred_qry, y_qry[i]).numpy().sum().item()42 correct_list[1] += correct4344 # 剩余更新步数45 for k in range(1, self.update_step):46 y_hat = self.net(x_spt[i], params=fast_weights, bn_training=True)47 loss = F.cross_entropy(y_hat, y_spt[i])48 grad = paddle.grad(loss, fast_weights)49 tuples = zip(grad, fast_weights)50 fast_weights = list(map(lambda p: p[1] - self.base_lr * p[0], tuples))5152 if k < self.update_step - 1:53 with paddle.no_grad():54 y_hat = self.net(x_qry[i], params=fast_weights, bn_training=True)55 loss_qry = F.cross_entropy(y_hat, y_qry[i])56 loss_list_qry[k + 1] += loss_qry57 else: # 对于最后一步update,要记录loss计算的梯度值,便于外循环的梯度传播58 y_hat = self.net(x_qry[i], params=fast_weights, bn_training=True)59 loss_qry = F.cross_entropy(y_hat, y_qry[i])60 loss_list_qry[k + 1] += loss_qry6162 with paddle.no_grad():63 pred_qry = F.softmax(y_hat, axis=1).argmax(axis=1)64 correct = paddle.equal(pred_qry, y_qry[i]).numpy().sum().item()65 correct_list[k + 1] += correct6667 loss_qry = loss_list_qry[-1] / task_num # 计算最后一次loss的平均值68 self.meta_optim.clear_grad() # 梯度清零69 loss_qry.backward()70 self.meta_optim.step()7172 accs = np.array(correct_list) / (query_size * task_num) # 计算各更新步数acc的平均值73 loss = np.array(loss_list_qry) / task_num # 计算各更新步数loss的平均值74 return accs, loss7576 def finetunning(self, x_spt, y_spt, x_qry, y_qry):77 # assert len(x_spt.shape) == 478 query_size = x_qry.shape[0]79 correct_list = [0 for _ in range(self.update_step_test + 1)]8081 new_net = deepcopy(self.net)82 y_hat = new_net(x_spt)83 loss = F.cross_entropy(y_hat, y_spt)84 grad = paddle.grad(loss, new_net.parameters())85 fast_weights = list(map(lambda p: p[1] - self.base_lr * p[0], zip(grad, new_net.parameters())))8687 # 在query集上测试,计算准确率88 # 这一步使用更新前的数据89 with paddle.no_grad():90 y_hat = new_net(x_qry, params=new_net.parameters(), bn_training=True)91 pred_qry = F.softmax(y_hat, axis=1).argmax(axis=1) # size = (75)92 correct = paddle.equal(pred_qry, y_qry).numpy().sum().item()93 correct_list[0] += correct9495 # 使用更新后的数据在query集上测试。96 with paddle.no_grad():97 y_hat = new_net(x_qry, params=fast_weights, bn_training=True)98 pred_qry = F.softmax(y_hat, axis=1).argmax(axis=1) # size = (75)99 correct = paddle.equal(pred_qry, y_qry).numpy().sum().item()100 correct_list[1] += correct101102 for k in range(1, self.update_step_test):103 y_hat = new_net(x_spt, params=fast_weights, bn_training=True)104 loss = F.cross_entropy(y_hat, y_spt)105 grad = paddle.grad(loss, fast_weights)106 fast_weights = list(map(lambda p: p[1] - self.base_lr * p[0], zip(grad, fast_weights)))107108 y_hat = new_net(x_qry, fast_weights, bn_training=True)109110 with paddle.no_grad():111 pred_qry = F.softmax(y_hat, axis=1).argmax(axis=1)112 correct = paddle.equal(pred_qry, y_qry).numpy().sum().item()113 correct_list[k + 1] += correct114115 del new_net116 accs = np.array(correct_list) / query_size117 return accs

复现结果

本项目在Omniglot数据集上进行了实验复现,其复现的结果如下表所示:

小结

本文对小样本学习领域的研究背景、基本概念、常用数据集进行了简要介绍,重点阐述了MAML元学习模型的实现方法、实验结果和关键代码。该模型是入门小样本学习的必经之路,也是评估新算法性能指标的基石。熟悉并掌握该经典模型,将对今后的理论研究或实践应用奠定基础。飞桨官方的小样本学习工具包PaddleFSL已经包含了包括计算机视觉和自然语言处理应用问题的小样本学习解决方案,如MAML,ProtoNet,Relation Net等等,是首个基于飞桨的小样本学习工具包,欢迎大家关注并一起探讨。

https://github.com/tata1661/FSL-Mate/tree/master/PaddleFSL

参考文献

[1] Vinyals O, Blundell C, Lillicrap T, et al. Matching Networks for One Shot Learning[J], 2016.

[2] Ravi S, Larochelle H. Optimization as a model for few-shot learning[J], 2016.

[3] Ren M, Triantafillou E, Ravi S, et al. Meta-learning for semi-supervised few-shot classification[J]. arXiv preprint arXiv:1803.00676, 2018.

[4] Oreshkin B N, Rodriguez P, Lacoste A. Tadam: Task dependent adaptive metric for improved few-shot learning[J]. arXiv preprint arXiv:1805.10123, 2018.

[5] Lake B, Salakhutdinov R, Gross J, et al. One shot learning of simple visual concepts[C]. Proceedings of the annual meeting of the cognitive science society, 2011.

[6] Wah C, Branson S, Welinder P, et al. The caltech-ucsd birds-200-2011 dataset[J], 2011.

[7] Finn C, Abbeel P, Levine S. Model-agnostic meta-learning for fast adaptation of deep networks[C]. International Conference on Machine Learning, 2017: 1126-1135.

END

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

/阅读下一篇/ 返回网易首页 下载网易新闻客户端


【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3