标签:人工智能
TensorFlow简介 本节将从五个方面对 TensorFlow 进行一个简单的介绍。包括 TensorFlow 是什么、为什么选择TensorFlow、TensorFlow 的发展、TensorFlow 能干什么以及 TensorFlow 的核心理念。 什么是 TenosrFlow Tenso
03-凸优化问题 目录一、一般优化问题二、凸优化问题2.1 凸优化问题定义2.2 凸优化问题的最优解2.3 等价问题化简三、拟凸优化问题四、典型凸优化问题4.1 线性规划(LP)4.2 线性分式规划4.3 二次规划(QP)4.4 二次约束二次规划(QCQP)4.5 二次锥规划(SOCP)4.6 鲁
05-无约束优化算法 目录一、无约束最小化问题二、下降法三、梯度下降法四、最速下降法五、牛顿法六、牛顿法收敛性分析 凸优化从入门到放弃完整教程地址:https://www.cnblogs.com/nickchen121/p/14900036.html 一、无约束最小化问题 [无约束最小化问题] 使
上采样/下采样  样本不均衡时解决方式 在实际应用中经常出现样本类别不均衡的情况,此时可以采用上采样或者下采样方法 上采样upsampling 上采样就是以数据量多的一方的样本数量为标准,把样本数量较少的类的样本数量生成和样本数量多的一方相同,称为上采样。 下采样subsampled 下采样,对于
06-等式约束优化算法 目录一、简介二、等式约束凸二次规划三、等式约束的Newton方法四、求解KKT系统五、总结 凸优化从入门到放弃完整教程地址:https://www.cnblogs.com/nickchen121/p/14900036.html 一、简介 注:这里通过 KKT 条件对等式约束
医疗知识图谱是实现智慧医疗的基石,有望带来更高效精准的医疗服务;然而,现有知识图谱构建技术在医学领域中普遍存在效率低、限制多、拓展性差等问题。                                                                          
08-ADMM算法 目录一、ADMM 算法动机二、对偶问题三、对偶上升法四、对偶分割五、乘子法(增广拉格朗日函数)5.1 步长为 $rho$ 的好处六、ADMM算法6.1 ADMM 的 scaled form 形式七、ADMM的收敛性证明思路八、写在最后 凸优化从入门到放弃完整教程地址:https
习题1.1 统计学习方法的三要素为:模型、策略、算法。 模型即需要用函数 (Y=f_theta(X)) 或者条件概率分布 (P_theta(Y|X)) 表示。 策略即寻找合适的损失函数,表示预测值与真实值之间的误差,进而构建风险函数。风险函数就是最优化的目标函数。 算法即学习模型时需要选择的最优
习题4.1 用极大似然估计法推导朴素贝叶斯的先验概率和条件概率 假设数据集 (T = {(x^{(1)} , y^{(1)}), (x^{(2)} , y^{(2)}), ... , (x^{(M)} , y^{(M)})}) , 假设 (P(Y=c_k) = theta_k) ,则 (P(Y
习题3.1 略 习题3.2 根据例 3.2 构造的 kd 树,可知最近邻点为 ((2,3)^T) 习题3.3 k 近邻法主要需要构造相应的 kd 树。这里用 Python 实现 kd 树的构造与搜索 import heapq import numpy as np class KDNode:
------------恢复内容开始------------ 我们现在学习的机器学习算法,大部分算法的本质都是建立优化模型,通过特定的最优化算法对目标函数(或损失函数)进行优化,通过训练集和测试集选择出最好的模型,所以,选择合适的最优化算法是非常重要的。常见的最优化方法有梯度下降法、牛顿法和拟牛顿
元学习——从MAML到MAML++ 作者:凯鲁嘎吉 - 博客园 http://www.cnblogs.com/kailugaji/     Few-shot learning领域最近有了实质性的进展。这些进步大多来自于将few-shot learning作为元学习问题。Model-Agnostic
习题6.1 首先解释什么是指数分布族。组数分布族,也称指数族分布(后面用这个名词替代),指数族分布为满足 (f(x|theta) = h(x) *exp(eta(theta)*T(x) - A(eta))) 形式的概率分布 ((f(x|theta)) 可为概率分布的概率密度函数)。 考虑逻辑斯谛分