编程及软件开发解决方案库

2000万优秀解决方案库,覆盖所有编程及软件开发类,极速查询

今日已更新 700 篇代码解决方案

  • 1:视觉机器学习笔记------CNN学习

                        卷积神经网络是第一个被成功训练的多层神经网络结构,具有较强的容错、自学习及并行处理能力。一、基本原理1.CNN算法思想     卷积神经网络可以看作

    https://www.u72.net/daima/xm08.html - 2024-08-28 04:43:55 - 代码库
  • 2:机器学习实战笔记7(Adaboost)

                        1:简单概念描述       Adaboost是一种弱学习算法到强学习算法,这里的弱和强学习算法,指的当然都是分类器,首先我们需要简单介绍几个概念。1:弱学习器:在二分

    https://www.u72.net/daima/01aw.html - 2024-07-18 06:50:21 - 代码库
  • 3:opencv支持的机器学习算法

                        CXCORE库:Mahalanobis距离: K均值: CV库:人脸检测/Haar分类器 ML库:正态朴素贝叶斯分类器: 决策树: Boosting: 随机森林: EM算法: K近邻(KN

    https://www.u72.net/daima/0442.html - 2024-08-29 11:19:31 - 代码库
  • 4:机器学习基石》---Linear Models for Classification

                        1 用回归来做分类到目前为止,我们学习了线性分类,线性回归,逻辑回归这三种模型。以下是它们的pointwise损失函数对比(为了更容易对比,都把它们写作s和y的函

    https://www.u72.net/daima/26x6.html - 2024-09-01 23:23:36 - 代码库
  • 5:机器学习——利用SVD简化数据

                        奇异值分解(Singular Value Decompositon,SVD),可以实现用小得多的数据集来表示原始数据集。 优点:简化数据,取出噪声,提高算法的结果缺点:数据的转换可能

    https://www.u72.net/daima/211s.html - 2024-09-01 15:57:31 - 代码库
  • 6:Ubuntu安装Python机器学习包

                        1.安装pip$ mkdir ~/.pip$ vi ~/.pip/pip.conf[global]trusted-host=mirrors.aliyun.comindex-url=http://mirrors.aliyun.com/pypi/simple/

    https://www.u72.net/daima/2c2a.html - 2024-09-01 03:53:14 - 代码库
  • 7:机器学习实战笔记6(SVM)

                        鉴于July大哥的SVM三层境界(http://blog.csdn.net/v_july_v/article/details/7624837)已经写得非常好了,这里我就不详细描述,只是阐述简单的几个概念。如

    https://www.u72.net/daima/xxxd.html - 2024-07-17 06:00:29 - 代码库
  • 8:cacti 被监控机器snmp 配置

                        被监控服务器 需要查看网卡流量, 磁盘空间等信息。修改如下。vi /etc/snmp/snmpd.conf 1、找到com2sec notConfigUser  default       public 改为:c

    https://www.u72.net/daima/13x2.html - 2024-08-31 02:13:03 - 代码库
  • 9:spark机器学习-第3章

                        1.安装工具ipythonhttps://www.continuum.io/downloads选择自己需要的版本 2.安装过程(1)赋权限chmod u+x ./Anaconda2-4.2.0-Linux-x86_64.sh (2

    https://www.u72.net/daima/1fu1.html - 2024-08-30 09:28:19 - 代码库
  • 10:机器学习实战笔记8(kmeans)

                               前面的7次笔记介绍的都是分类问题,本次开始介绍聚类问题。分类和聚类的区别在于前者属于监督学习算法,已知样本的标签;后者属于无监督的学习,不知道

    https://www.u72.net/daima/3ezw.html - 2024-07-21 18:14:51 - 代码库
  • 11:机器学习之层次聚类

                        层次聚类聚类是将样本进行归类形成K个簇,层次聚类是其中的一种方法。它将数据组成一棵聚类树,过程可以是凝聚形式或分裂形式。核心思想凝聚是一

    https://www.u72.net/daima/6vkc.html - 2024-09-08 10:02:51 - 代码库
  • 12:(转)机器学习之SVD分解

                        一、SVD奇异值分解的定义    假设是一个的矩阵,如果存在一个分解:其中为的酉矩阵,为的半正定对角矩阵,为的共轭转置矩阵,且为的酉矩阵。这样的分解称为的

    https://www.u72.net/daima/5res.html - 2024-09-06 13:37:44 - 代码库
  • 13:linux下查看机器配置

                        查看cpu信息:lscpuArchitecture: x86_64CPU op-mode(s): 32-bit, 64-bitByte Order: Little EndianCPU(s): 48  //总逻辑CPU数:物理CPU个数*每个

    https://www.u72.net/daima/380d.html - 2024-09-03 19:26:22 - 代码库
  • 14:机器学习之各种算法(2)

                        继续接着原来的算法继续讲解:(5)贝叶斯方法 贝叶斯方法算法是基于贝叶斯定理的一类算法,主要用来解决分类和回归问题。常见算法包括:朴素贝叶斯算法,平均单

    https://www.u72.net/daima/69un.html - 2024-07-24 20:24:46 - 代码库
  • 15:机器学习-scikit learn学习笔记

                        scikit-learn官网:http://scikit-learn.org/stable/通常情况下,一个学习问题会包含一组学习样本数据,计算机通过对样本数据的学习,尝试对未知数据进行预测

    https://www.u72.net/daima/9dhb.html - 2024-09-13 02:08:15 - 代码库
  • 16:机器学习(四) 概率论

                        概率论举例说明先验概率:一个病人 得了癌症的概率 后验概率:一个病人 拍了片子,显示某个部位不正常时,得癌症的概率似然函数 : 一个病人,得了癌症,拍片子

    https://www.u72.net/daima/93rs.html - 2024-09-13 22:31:08 - 代码库
  • 17:机器学习(三)线性代数

                        Linear Algebra线性代数基础(以下概念 大学期间线性代数课没有讲清楚,在这里梳理一下向量空间、线性空间vector space:n维向量的全体所构成的集合叫做n

    https://www.u72.net/daima/93sn.html - 2024-09-13 22:33:45 - 代码库
  • 18:机器学习】贝叶斯公式

                        原文链接 假设已知先验概率P(ωj),也知道类条件概率密度p(x|ωj),且j=1,2.那么,处于类别ωj,并具有特征值x的模式的联合概率密度可写成两种形式:p(ωj,x)

    https://www.u72.net/daima/m6da.html - 2024-09-17 13:52:32 - 代码库
  • 19:C++机器学习经典资料

                        Caffe :快速的神经网络框架地址:https://github.com/BVLC/caffeCCV :以C语言为核心的现代计算机视觉库地址:https://github.com/liuliu/ccvmlpack :可扩

    https://www.u72.net/daima/ma0c.html - 2024-07-29 03:29:11 - 代码库
  • 20:机器学习笔记5——nomal equation

                            还记得两个变量求极致么,有这么一个结论,如果你已知有个最值,那么你可以放心的把唯一的极值当作最值。当然要注意边界条件。比方开阔号那就可以直

    https://www.u72.net/daima/818s.html - 2024-09-12 03:10:12 - 代码库