一种基于F-Score的特征选择方法
TP181; 原始数据中的冗余特征和不相关特征会使得构建的学习模型复杂度提高,并对模型的性能有负面的影响.对此,提出一种基于Filter和Wrapper特征选择方法的两阶段式特征选择方法.首先以原始数据中特征的F-Score统计值为先验知识,然后结合序列前向搜索策略搜索优化的特征子集,搜索过程中依据分类算法的性能评价所选择的特征组合.采用十折交叉验证进行测试,并分别采用SVM、Logistic Regression、Adaboost分类模型进行对比实验,结果表明,算法能够有效地降低特征维数,并进一步提升算法的性能....
Gespeichert in:
Veröffentlicht in: | 宜宾学院学报 2018, Vol.18 (6), p.4-8 |
---|---|
Hauptverfasser: | , |
Format: | Artikel |
Sprache: | chi |
Online-Zugang: | Volltext |
Tags: |
Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
|
Zusammenfassung: | TP181; 原始数据中的冗余特征和不相关特征会使得构建的学习模型复杂度提高,并对模型的性能有负面的影响.对此,提出一种基于Filter和Wrapper特征选择方法的两阶段式特征选择方法.首先以原始数据中特征的F-Score统计值为先验知识,然后结合序列前向搜索策略搜索优化的特征子集,搜索过程中依据分类算法的性能评价所选择的特征组合.采用十折交叉验证进行测试,并分别采用SVM、Logistic Regression、Adaboost分类模型进行对比实验,结果表明,算法能够有效地降低特征维数,并进一步提升算法的性能. |
---|---|
ISSN: | 1671-5365 |
DOI: | 10.19504/j.cnki.issn1671-5365.20171222.001 |