【2023.06.30】记录陪学数学建模

您所在的位置:网站首页 win10安全中心重置 【2023.06.30】记录陪学数学建模

【2023.06.30】记录陪学数学建模

2023-07-03 20:25| 来源: 网络整理| 查看: 265

目录 写在前面正文开始范数l~p~范数l~0~范数l~1~范数l~2~范数 三阶行列式的计算方法

写在前面

六月底这天突然发现自己闲出屁来了,于是想到之前答应某人要陪她学习,于是开始了陪学数学建模系列。今天我们开始第一讲,python语言介绍、环境安装和线性代数知识的补充与线性规划的引入。

正文开始

在很多机器学习的著作当中经常可见范数这个词,今天就来记录一下各种范数。

范数 lp范数

一般将任意向量x的lp范数定义为: ∣ ∣ x ∣ ∣ p = ∑ i ∣ x i ∣ p p ||x||_p=\sqrt[p]{\sum_{i} |x_i|^p} ∣∣x∣∣p​=p​i∑​∣xi​∣p ​

l0范数

∣ ∣ x ∣ ∣ 0 = ∑ i ∣ x i ∣ 0 0 ||x||_0=\sqrt[0]{\sum_{i} |x_i|^0} ∣∣x∣∣0​=0i∑​∣xi​∣0 ​ 表示向量 x \bm{x} x中非0元素的个数,等同于 ∣ ∣ x ∣ ∣ 0 = ∑ ( 1 ∣ x i ≠ 0 ) ||x||_0=\sum(1|x_i\neq0) ∣∣x∣∣0​=∑(1∣xi​=0)。 在诸多机器学习的模型中,比如压缩感知,我们很多时候希望最小化向量的l0范数。一个标准的l0范数优化问题往往可以写成如下形式: m i n ∣ ∣ x ∣ ∣ 0 s . t . A x = b min||x||_0\\ s.t.A\bm{x}=\bm{b} min∣∣x∣∣0​s.t.Ax=b 然而,由于l0范数仅仅表示向量中非0元素的个数,因此这个优化模型在数学上被认为是一个NP-hard问题,即直接求解它很复杂,也不可能找到解。需要注意的是,正是由于该优化问题难以求解,因此压缩感知模型是将l0范数最小化问题转换成l1范数最小化问题。

l1范数

∣ ∣ x ∣ ∣ 1 = ∑ i ∣ x i ∣ 1 1 ||x||_1=\sqrt[1]{\sum_{i} |x_i|^1} ∣∣x∣∣1​=1i∑​∣xi​∣1 ​ 等于向量中所有元素绝对值之和。 相应的,一个l1范数优化问题为 m i n ∣ ∣ x ∣ ∣ 1 s . t . A x = b min||x||_1\\ s.t.A\bm{x}=\bm{b} min∣∣x∣∣1​s.t.Ax=b 这个问题相比于l0范数优化问题更容易求解,可以借助现有的凸优化算法(线性规划或者是非线性规划),就能够找到我们想要的可行解。鉴于此,依赖于l1范数优化问题的机器学习模型如压缩感知就能够进行求解。

l2范数

l2范数同理如下: ∣ ∣ x ∣ ∣ 1 = ∑ i ∣ x i ∣ 1 1 ||x||_1=\sqrt[1]{\sum_{i} |x_i|^1} ∣∣x∣∣1​=1i∑​∣xi​∣1 ​ 优化问题: m i n ∣ ∣ x ∣ ∣ 2 s . t . A x = b min||x||_2\\ s.t.A\bm{x}=\bm{b} min∣∣x∣∣2​s.t.Ax=b

三阶行列式的计算方法

在这里插入图片描述 记住上面的图,实现相加,虚线相减!



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3