编程及软件开发解决方案库

2000万优秀解决方案库,覆盖所有编程及软件开发类,极速查询

今日已更新 722 篇代码解决方案

  • 1:R语言︱异常值检验、离群点分析、异常值处理

    其中异常值检测的方法主要有:箱型图、简单统计量(比如观察<em>极值</em>)异常值处

    https://www.u72.net/daima/uuk7.html - 2024-08-22 02:47:57 - 代码库
  • 2:数学建模培训第一天---线性规划

    . --- subject to)下,求解目标函数的<em>极值</em>以下截图都是 司守奎 的《数学建模算法与程序》中的内容  线性规划的公式为 [x

    https://www.u72.net/daima/nf9k9.html - 2024-10-08 19:28:39 - 代码库
  • 3:梯度下降法

    经常使用于求凸函数<em>极值</em>。梯度是个向量。其形式为一般是表示函数上升最快的方向。因此。我们仅仅须要每一步往

    https://www.u72.net/daima/mmc1.html - 2024-09-17 21:47:35 - 代码库
  • 4:4-SIFT特征提取和检测的基本步骤

    1-有4个主要步骤尺度空间的<em>极值</em>检测 搜索所有尺度空间上的图像,通过高斯微分函数来识别潜在的对尺度和选择不变的兴趣点。特征点定位 在每个候选的

    https://www.u72.net/daima/ncs9b.html - 2024-10-10 13:28:40 - 代码库
  • 5:拉格朗日乘子法

    .)=0的约束条件下的<em>极值</em>的方法。     主要思想:引入一个新的参数λ(即拉格朗日乘子),将约

    https://www.u72.net/daima/sr0w.html - 2024-08-20 07:26:36 - 代码库
  • 6:模式匹配之常见匹配算法---SIFT/SURF、haar特征、广义hough变换的特性对比分析

    识别算法概述: SIFT/SURF基于灰度图,一、首先建立图像金字塔,形成三维的图像空间,通过Hessian矩阵获取每一层的局部极大值,然后进行在<em>极值</em>点周围26个点进行

    https://www.u72.net/daima/nk9b0.html - 2024-08-04 12:39:55 - 代码库
  • 7:算法之选择排序算法

    然后把该<em>极值</em>移动到数组的另一边。

    https://www.u72.net/daima/nk8v7.html - 2024-09-28 05:04:39 - 代码库
  • 8:常见的聚类算法

    1.K-means算法K-means算法是硬聚类算法,是典型的基于原型的目标函数聚类方法的代表,它是数据点到原型的某种距离作为优化的目标函数,利用函数求<em>极值</em>的方法

    https://www.u72.net/daima/ndsh5.html - 2024-08-05 00:39:42 - 代码库
  • 9:数学建模----线性规划

    我理解的线性规划就是在给定的一些线性方程可以列出的约束条件下求解目标函数的<em>极值</em>。

    https://www.u72.net/daima/nfxm8.html - 2024-10-07 15:21:39 - 代码库
  • 10:JSOI2008最大数(线段树)

    所以我们可以事先建好一棵200000个子节点的线段树,然后求<em>极值</em>

    https://www.u72.net/daima/kb47.html - 2024-07-06 19:17:35 - 代码库
  • 11:最小二乘法小结

        最小二乘法是用来做函数拟合或者求函数<em>极值</em>的方法。在机器学习,尤其是回归模型中,经常可以看到最小二乘法的身影,这里就对我对最小二乘法的认知做

    https://www.u72.net/daima/f42v.html - 2024-08-17 03:22:24 - 代码库
  • 12:遗传算法的C语言实现(二)-----以求解TSP问题为例

    上一次我们使用遗传算法求解了一个较为复杂的多元非线性函数的<em>极值</em>问题,也基本了解了遗传算法的实现基本步骤。这一次,我再以经典的TSP问题为例,更加

    https://www.u72.net/daima/xaw1.html - 2024-08-26 13:17:40 - 代码库
  • 13:机器学习中梯度下降法和牛顿法的比较

    在机器学习的优化问题中,梯度下降法和牛顿法是常用的两种凸函数求<em>极值</em>的方法,他们都是为了求得目标函数的近似解。在逻辑斯蒂回归模型的参数求解中,一般用

    https://www.u72.net/daima/8sec.html - 2024-09-11 18:10:04 - 代码库
  • 14:遗传算法的C语言实现(二)

    上一次我们使用遗传算法求解了一个较为复杂的多元非线性函数的<em>极值</em>问题,也基本了解了遗传算法的实现基本步骤。这一次,我再以经典的TSP问题为例,更加

    https://www.u72.net/daima/nzuzz.html - 2024-09-22 03:44:17 - 代码库
  • 15:梯度下降法与牛顿下降法速度的比较

    “牛顿下降法和梯度下降法在机器学习和自适应滤波中都很重要,本质上是为了寻找<em>极值</em>点的位置。但是收敛的速度不同。 本文中就两种方法来探究一下,哪种收

    https://www.u72.net/daima/ndxb8.html - 2024-09-30 12:20:39 - 代码库
  • 16:【转】树链剖分

    &ldquo;在一棵树上进行路径的修改、求<em>极值</em>、求和&rdquo;乍一看只要线段树就能轻松解决,实际上,仅凭线段树是不能搞定它的。我们需要用到一种貌似高级的复

    https://www.u72.net/daima/whfc.html - 2024-07-15 20:13:22 - 代码库
  • 17:2017 3月29日 上午

    上午的内容是看3段高等数学视频,并做笔记,内容为一元函数微积分的应用,分为导数的应用和积分的应用,导数的应用有<em>极值</em>的判别,拐点的判别,求渐近线和求最值,

    https://www.u72.net/daima/8nwh.html - 2024-09-11 03:36:07 - 代码库
  • 18:拉格朗日乘子法

    举个2维的例子来说明:假设有自变量x和y,给定约束条件g(x,y)=c,要求f(x,y)在约束g下的<em>极值</em>。

    https://www.u72.net/daima/m0ff.html - 2024-09-17 04:43:55 - 代码库
  • 19:机器学习笔记5——nomal equation

        还记得两个变量求极致么,有这么一个结论,如果你已知有个最值,那么你可以放心的把唯一的<em>极值</em>当作最值。当然要注意边界条件。比方开阔号那就可以直

    https://www.u72.net/daima/818s.html - 2024-09-12 03:10:12 - 代码库
  • 20:BZOJ1758: [Wc2010]重建计划

    平均值的<em>极值</em>其实也可以算是一种分数规划,只不过分母上b[i]=1然后我们就可以二分这个值。类似与 HNOI最小圈如果没有 链

    https://www.u72.net/daima/nsz30.html - 2024-08-10 01:45:34 - 代码库