网站首页 站内搜索

搜索结果

查询Tags标签: theta,共有 140条记录
  • 详解策略梯度算法

    详解策略梯度算法 引言 根据智能体学习的不同,可将其分为Value-based方法、Policy-based方法以及Actor-Critic方法。之前我们介绍的Q-learning、Saras和DQN都是基于价值去学习,虽然这种强化学习方法在很多领域都获得较多的应用,但是它的局限性也是比较明显。首先这类算…

    2022/1/20 17:12:55 人评论 次浏览
  • 机器学习:EM算法

    EM算法可以说是一个非常经典的算法,至今仍在广泛地被使用(如强化学习领域等等)。 网上介绍该算法的文章也很多,比如如何通俗理解EM算法、【机器学习基础】EM算法。但是我认为这些文章讲的太多,反而显得乱。像教科书周志华老师的《机器学习》对于EM算法写得十分简略,…

    2022/1/18 17:03:59 人评论 次浏览
  • 机器学习:EM算法

    EM算法可以说是一个非常经典的算法,至今仍在广泛地被使用(如强化学习领域等等)。 网上介绍该算法的文章也很多,比如如何通俗理解EM算法、【机器学习基础】EM算法。但是我认为这些文章讲的太多,反而显得乱。像教科书周志华老师的《机器学习》对于EM算法写得十分简略,…

    2022/1/18 17:03:59 人评论 次浏览
  • Robust adaptive bamforming using worst-case performance optimization: a solution to the signal misma

    % Robust adaptive bamforming using worst-case performance optimization: a solution to the signal mismatch problemss_wco=sqrt(0.01); % 阵列流型误差范数上界U_chol=chol(R); % U* U = Rcvx_begin quietvariable w_wco(sensor_number) complex;minimize(norm(U_ch…

    2022/1/8 23:04:56 人评论 次浏览
  • Robust adaptive bamforming using worst-case performance optimization: a solution to the signal misma

    % Robust adaptive bamforming using worst-case performance optimization: a solution to the signal mismatch problemss_wco=sqrt(0.01); % 阵列流型误差范数上界U_chol=chol(R); % U* U = Rcvx_begin quietvariable w_wco(sensor_number) complex;minimize(norm(U_ch…

    2022/1/8 23:04:56 人评论 次浏览
  • GBDT算法详解

    Gradient Boosting Decision Tree(GBDT) GBDT又称梯度提升树,是传统机器学习中效果最好的模型之一。在介绍GBDT之前,我们先来看一下回归问题的提升树算法。 Regression 对于回归任务,我们的基学习器自然也应该设置为适用于回归任务的模型,因此选用CART回归树。并且与用…

    2022/1/7 22:33:33 人评论 次浏览
  • GBDT算法详解

    Gradient Boosting Decision Tree(GBDT) GBDT又称梯度提升树,是传统机器学习中效果最好的模型之一。在介绍GBDT之前,我们先来看一下回归问题的提升树算法。 Regression 对于回归任务,我们的基学习器自然也应该设置为适用于回归任务的模型,因此选用CART回归树。并且与用…

    2022/1/7 22:33:33 人评论 次浏览
  • 「吴恩达机器学习」17.推荐系统

    本章主要讲解机器学习中的一个重要应用——推荐系统。 Problem formulation 本节课以预测电影评分为例,介绍了什么是推荐系统。 我们有5部电影和4个用户,要求用户从0-5对电影打分:注:?表示用户没有打分的电影,也就是需要我们预测的电影。前3部电影是爱情片,后2部电…

    2021/12/28 23:15:28 人评论 次浏览
  • 「吴恩达机器学习」17.推荐系统

    本章主要讲解机器学习中的一个重要应用——推荐系统。 Problem formulation 本节课以预测电影评分为例,介绍了什么是推荐系统。 我们有5部电影和4个用户,要求用户从0-5对电影打分:注:?表示用户没有打分的电影,也就是需要我们预测的电影。前3部电影是爱情片,后2部电…

    2021/12/28 23:15:28 人评论 次浏览
  • 「吴恩达机器学习」10.神经网络参数的反向传播算法

    本章主要讲解如何求解神经网络的权重(参数)。 Cost Function 主要讲解了神经网络的代价函数(分类问题中的)。 Neural Network(Classification)引入一些标记方法方便后续讨论:假设神经网络有\(m\)个训练样本,每个训练样本包含一组输入特征\(x\)和一组输出信号\(y\);…

    2021/12/28 12:37:13 人评论 次浏览
  • 「吴恩达机器学习」10.神经网络参数的反向传播算法

    本章主要讲解如何求解神经网络的权重(参数)。 Cost Function 主要讲解了神经网络的代价函数(分类问题中的)。 Neural Network(Classification)引入一些标记方法方便后续讨论:假设神经网络有\(m\)个训练样本,每个训练样本包含一组输入特征\(x\)和一组输出信号\(y\);…

    2021/12/28 12:37:13 人评论 次浏览
  • 神经网络与深度学习--读书笔记1

    机器学习概述 机器学习中的损失函数平方损失函数交叉熵损失函数Hinge 损失函数最大似然估计与平方损失函数最大似然估计与交叉熵最大似然估计与最大后验估计 正则化关于L2正则化的两点思考 机器学习中评价指标精确率和召回率交叉验证本文是邱锡鹏教授撰写的《神经网络与深…

    2021/12/27 23:15:19 人评论 次浏览
  • 神经网络与深度学习--读书笔记1

    机器学习概述 机器学习中的损失函数平方损失函数交叉熵损失函数Hinge 损失函数最大似然估计与平方损失函数最大似然估计与交叉熵最大似然估计与最大后验估计 正则化关于L2正则化的两点思考 机器学习中评价指标精确率和召回率交叉验证本文是邱锡鹏教授撰写的《神经网络与深…

    2021/12/27 23:15:19 人评论 次浏览
  • python逻辑回归(logistic regression LR) 底层代码实现 BGD梯度下降算法 softmax多分类

    逻辑回归 前面用sigmoid函数实现了基本逻辑回归的二分类,感兴趣的童鞋点击###python逻辑回归(logistic regression LR) 底层代码实现 BGD梯度下降算法 二分类#####了解sigmoid二分类逻辑回归>> 目录 逻辑回归前言一、多0-1分类器1.OVO2.OVR3 OvO vs OvR: 二、sof…

    2021/12/25 20:08:33 人评论 次浏览
  • python逻辑回归(logistic regression LR) 底层代码实现 BGD梯度下降算法 softmax多分类

    逻辑回归 前面用sigmoid函数实现了基本逻辑回归的二分类,感兴趣的童鞋点击###python逻辑回归(logistic regression LR) 底层代码实现 BGD梯度下降算法 二分类#####了解sigmoid二分类逻辑回归>> 目录 逻辑回归前言一、多0-1分类器1.OVO2.OVR3 OvO vs OvR: 二、sof…

    2021/12/25 20:08:33 人评论 次浏览
扫一扫关注最新编程教程