搜索结果
查询Tags标签: 特征选择,共有 19条记录-
smile——Java机器学习引擎
资源 https://haifengl.github.io/ https://github.com/haifengl/smile 介绍 Smile(统计机器智能和学习引擎)是一个基于Java和Scala的快速、全面的机器学习、NLP、线性代数、图形、插值和可视化系统。 凭借先进的数据结构和算法,Smile提供了最先进的性能。Smile有很好的…
2022/9/1 14:25:51 人评论 次浏览 -
基于蚁群优化算法的特征选择的部分文献
本文所列举的文献内容来源于Mohsen Paniri等提出的"MLACO: A multi-label feature selection algorithm based on ant colony optimization",这篇文章首次提出了一种基于蚁群优化(ACO)的多标签相关性-冗余特征选择方法MLACO。通过引入两个无监督和有监督的启发…
2022/3/19 17:59:00 人评论 次浏览 -
【推荐系统】GBDT为什么可以进行特征选择
如果需要完整代码可以关注下方公众号,后台回复“代码”即可获取,阿光期待着您的光临~文章目录2021人工智能领域新星创作者,带你从入门到精通,该博客每天更新,逐渐完善推荐系统各个知识体系的文章,帮助大家更高效学习。 在CRT预估中,工业界一般是会采用逻辑回归进行…
2021/11/11 23:13:54 人评论 次浏览 -
【推荐系统】GBDT为什么可以进行特征选择
如果需要完整代码可以关注下方公众号,后台回复“代码”即可获取,阿光期待着您的光临~文章目录2021人工智能领域新星创作者,带你从入门到精通,该博客每天更新,逐渐完善推荐系统各个知识体系的文章,帮助大家更高效学习。 在CRT预估中,工业界一般是会采用逻辑回归进行…
2021/11/11 23:13:54 人评论 次浏览 -
CFS-GA 相关性特征选择与遗传算法 特征选择/特征提取
CFS-GA特征选择/特征提取 CFS 对于一个样本空间,构造一个二维矩阵A代表此样本空间,A中每行代表一条数据,每列代表一个特征 样本中的数据分为数个特征,其中\(A_i\)表示第\(i\)个特征,\(a_{ij}\)表示第i行第j列那条数据 计算特征\(A_i\)的熵 \[H(A_i)=-\sum\limits_{{}…
2021/11/11 17:09:49 人评论 次浏览 -
CFS-GA 相关性特征选择与遗传算法 特征选择/特征提取
CFS-GA特征选择/特征提取 CFS 对于一个样本空间,构造一个二维矩阵A代表此样本空间,A中每行代表一条数据,每列代表一个特征 样本中的数据分为数个特征,其中\(A_i\)表示第\(i\)个特征,\(a_{ij}\)表示第i行第j列那条数据 计算特征\(A_i\)的熵 \[H(A_i)=-\sum\limits_{{}…
2021/11/11 17:09:49 人评论 次浏览 -
相关性研究思路及代码实现(MIC-最大信息系数、Relif-F特征选择算法、pearson、spearman、kendall、卡方检验、fisher精确检验、F检验、简单粗暴的分层聚合)
相关性研究思路及代码实现(MIC-最大信息系数、Relif-F特征选择算法、pearson、spearman、kendall、卡方检验、fisher精确检验、F检验、简单粗暴的分层聚合) 为什么要研究相关性?相关性计算方法选择与代码实现1. 数据预览与清洗a. 连续变量b. 有序分类变量c. 无序分类变…
2021/7/26 1:09:22 人评论 次浏览 -
相关性研究思路及代码实现(MIC-最大信息系数、Relif-F特征选择算法、pearson、spearman、kendall、卡方检验、fisher精确检验、F检验、简单粗暴的分层聚合)
相关性研究思路及代码实现(MIC-最大信息系数、Relif-F特征选择算法、pearson、spearman、kendall、卡方检验、fisher精确检验、F检验、简单粗暴的分层聚合) 为什么要研究相关性?相关性计算方法选择与代码实现1. 数据预览与清洗a. 连续变量b. 有序分类变量c. 无序分类变…
2021/7/26 1:09:22 人评论 次浏览 -
特征工程(学习笔记总结)
目录 1、需要哪些数据? 2、数据如何存储? 3、数据清洗(数据预处理) 3.1 文本数据转换为数值型数据 3.2 缺省值填充 3.3 哑编码(onehotencoder要求数据类型是数值) 3.4 二值化 3.5 标准化 3.6 多项式拓展 4、特征选择 4.1 filter 4.1.1 方差选…
2021/6/19 23:33:18 人评论 次浏览 -
ALINK(三十二):特征工程(十一)特征选择(三)向量卡方选择器 (VectorChiSqSelectorBatchOp)
Java 类名:com.alibaba.alink.operator.batch.feature.VectorChiSqSelectorBatchOp Python 类名:VectorChiSqSelectorBatchOp 功能介绍 针对vector数据,进行特征筛选 参数说明名称中文名称描述类型是否必须?默认值labelCol标签列名输入表中的标签列名String✓ selecte…
2021/6/19 0:03:04 人评论 次浏览 -
ML之回归预测:利用两种机器学习算法(LiR,XGBoost(调优+重要性可视化+特征选择模型))对无人驾驶汽车系统参数(2017年的data,18+2)进行回归预测值VS真实值
ML之回归预测:利用两种机器学习算法(LiR,XGBoost(调优+重要性可视化+特征选择模型))对无人驾驶汽车系统参数(2017年的data,18+2)进行回归预测值VS真实值目录 输出结果 1、LiR模型 2、XGBoost模型输出结果 1、LiR模型 LiR:The value of default measurement of LiR is 0…
2021/6/15 20:33:23 人评论 次浏览 -
【源码】基于拥挤距离的特征选择算法
提出了两种新的特征选择算法。第一种是filter方法,第二种是wrapper方法。这两种算法都以多目标优化中的拥挤距离作为特征排序的度量。不太拥挤的特征对目标属性(类)有很大的影响。实验结果表明了算法的有效性和鲁棒性。 Two novel algorithms for features selection a…
2021/5/22 22:26:09 人评论 次浏览 -
【转载】特征选择常用算法综述
1 综述(1) 什么是特征选择特征选择 ( Feature Selection )也称特征子集选择( Feature Subset Selection , FSS ) ,或属性选择( Attribute Selection ) ,是指从全部特征中选取一个特征子集,使构造出来的模型更好。(2) 为什么要做特征选择在机器学习的实际应用中,特征数…
2021/5/21 12:29:52 人评论 次浏览 -
4. 剪枝
基于最小平方误差准则和 Gini 指数准则构造好决策树只能算完成的模型的一半。为了构造好的决策树能够具备更好的泛化性能,通过我们需要对其进行剪枝(pruning)。在特征选择算法效果趋于一致的情况下,剪枝逐渐成为决策树更为重要的一部分。 所谓剪枝,就是将构造好的决策树…
2021/5/12 18:57:42 人评论 次浏览 -
1. CART概述
所谓 CART 算法,全名叫Classification and Regression Tree,即分类与回归树。顾名思义,相较于此前的 ID3 算法和 C4.5 算法,CART除了可以用于分类任务外,还可以完成回归分析。完整的 CART 算法包括特征选择、决策树生成和决策树剪枝三个部分。 CART是在给定输入随机变…
2021/5/12 18:56:48 人评论 次浏览