机器学习的本质就是计算机从数据中学习知识,这一过程与人学习的过程十分相似,也正因此机器学习可以有效地帮助人们解决问题。 人的知识是怎么来呢?埃斯库罗斯说:“ 记忆是一切智慧之母”(《被缚的普罗米修斯》)。的确,没有记忆就没有智慧,我们所拥有的知识,大部分都是靠记忆得来的。所以学习的过程注
不知道大家跟我一样嘛,不太喜欢在github阅读md文件,图片加载不出来,黑白排版,重要的是作者公式也没了,惨不忍睹。 强烈推荐md阅读利器:Typora-Markdown:https://typora.io/ 免费且对于数学公式显示支持友好。 设置调节: 文件->偏好设置 Mark
老孟导读:前几天一个读者和我说能不能整理一个各个控件之间的继承关系,这2天抽时间整理了一下,不整理不知道,一整理真的吓一跳啊,仅仅Widget的子类(包括间接子类)就高达353个,今天发群里给大家浏览的时候,有人说:“看见这个,会让初学者从入门到放弃的“,其实不必担心,虽然很多,但常用
常用梯度下降法与优化器 机器学习中大部分为优化问题,而绝大部分优化问题都可以使用「梯度下降法」处理。 梯度下降法的数学原理是函数沿着梯度方向具有「最大变化率」,那么在优化目标函数时沿着负梯度方向去减少函数值,以此达到优化目标。 通过迭代的方式寻找「最优参数」,最优参数是指是目标函数达到最小
目标检测是一种计算机视觉技术,用于识别和定位图像中的目标。有很多检测算法存在,这里有一个很好的总结。 Mask R-CNN是目标检测的扩展,它为图像中检测到的每个目标生成边界框和分割掩模。这篇文章是关于使用Mask R-CNN训练自定义数据集的指南,希望它能帮助你们中的一些人简化这个过程
  Deep Dream是谷歌公司在2015年公布的一项有趣的技术。在训练好的卷积神经网络中,只需要设定几个参数,就可以通过这项技术生成一张图像。   本文章的代码和图片都放在我的github上,想实现本文代码的同学建议大家可以先把代码Download下来,再参考本文的解释,理解
偏差度量了学习算法的期望与真实结果的偏差,刻画了算法本身的「拟合能力」,方差度量了同样大小的训练集的变动所导致的学习性能的变化。 偏差与方差偏差用于描述模型的拟合能力,方差用来描述模型的稳定性。 当训练度不足的时候,偏差主导模型的泛化误差; 当训练进入后期,模型的拟合能力增强,方差主导模型
在本篇博文当中,笔者采用了卷积神经网络来对手写数字进行识别,采用的神经网络的结构是:输入图片——卷积层——池化层——卷积层——池化层——卷积层——池化层——Flatten层——全连接层(64个神经元)——全连接层(500个神经元)——softmax函数,最后得到分类的结果。Flatten层
视频学习笔记 (1)概率论与贝叶斯先验 视频地址:https://www.bilibili.com/video/BV1Tb411H7uC?p=2 概率论基础     统计量     (2)概率论与贝叶斯先验 视频地址:https://www.bilibili.com/vide
      在训练卷积神经网络模型时,经常遇到max pooling 和 average pooling,近些年的图像分类模型多数采用了max pooling,为什么都是使用max pooling,它的优势在哪呢? 一般情况下,max pooling的效果更好,虽然 max pooling
(for pursue, do accumulation) 个人笔记,纯属佛系分享,如有错误,万望赐教。   马尔可夫决策过程(Markov Decision Processes, MDPs)是一种对序列决策问题的解决工具,在这种问题中,决策者以序列方式与环境交互。 1. “智能体-环境”

推荐文章