首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏司六米希

    PCA以及RFE降噪【python】

    display.max_rows', None) data = StockDataFrame.retype(pd.read_excel('CSCO.xls')) print(data.shape) # 导入RFE 方法和线性回归基模型 from sklearn.feature_selection import RFE from sklearn.linear_model import LinearRegression # 自变量特征 feature = data rfe = RFE( estim ator=LinearRegression(), # 选择lin线性回归为基模型 n_features_to_select =5 # 选区特征数 ) # fit 方法训练选择特征属性 sFeature = rfe.fit_transform(feature, data['close']) # 查看满足条件的属性 print (feature.columns[rfe.get_support()]) from __future__ import print_function import pandas as pd import

    89620编辑于 2022-11-15
  • 来自专栏DeepHub IMBA

    sklearn 特征选择实战:用 RFE 找到最优特征组合

    =1000, random_state=42) # creating and fitting the RFE object to select best 5 features rfe = RFE = rfe.transform(X_train_scaled) X_test_rfe = rfe.transform(X_test_scaled) rfe_model = LogisticRegression (max_iter=1000, random_state=69) rfe_model.fit(X_train_rfe, y_train) rfe_score = rfe_model.score( X_test_rfe, y_test) print(f"\nRFE accuracy with {rfe.n_features_} features: {rfe_score:.4f}") print =200, random_state=69) rfe_rf = RFE(rf_estimator, n_features_to_select=5, step=1) rfe_rf.fit(X_train_scaled

    51710编辑于 2025-11-15
  • 来自专栏AI智韵

    YoloV8改进策略:Block改进|RFE模块|即插即用

    模块作用 RFE模块: 通过使用不同空洞率的空洞卷积,捕获多尺度信息和不同范围的依赖性。 增强特征金字塔的表示能力,提高模型对不同尺度人脸的检测性能。 我们设计了一个称为RFE的感受野增强模块来增强小人脸的感受野,并使用NWD Loss来弥补IoU对小物体位置偏差的敏感性。 为改善这种情况,我们为P5层设计了感受野增强(RFE)模块,通过使用空洞卷积来增大感受野。 3.2 尺度感知RFE模型 由于不同大小的感受野意味着捕获长距离依赖性的能力不同,我们设计了RFE模块,通过使用空洞卷积来充分利用特征图中感受野的优势。 为了明确说明,我们用RFE模块替换了YOLOv5中C3模块的瓶颈部分,以增加特征图的感受野,从而提高多尺度目标检测和识别的准确性,如图2所示。

    1K10编辑于 2024-10-31
  • 来自专栏大数据成长之路

    大数据【企业级360°全方位用户画像】基于RFE模型的挖掘型标签开发

    RFE模型引入 在正式开始实现需求之前,肯定要给各位朋友们解释下。 RFE模型可以说是RFM模型的变体 。 RFE模型基于用户的普通行为(非转化或交易行为)产生,它跟RFM类似都是使用三个维度做价值评估。 RFE详解 RFE 模型是根据会员最近一次访问时间R( Recency)、访问频率 F(Frequency)和页面互动度 E(Engagements)计算得出的RFE得分。 RFM和 RFE模型的实现思路相同, 仅仅是计算指标发生变化。 对于RFE的数据来源, 可以从企业自己监控的用户行为日志获取,也可以从第三方网站分析工具获得。 基于RFE模型的实践应用 在得到用户的RFE得分之后, 跟 RFM 类似也可以有两种应用思路: 1:基于三个维度值做用户群体划分和解读,对用户的活跃度做分析。

    1.1K10发布于 2021-01-27
  • 来自专栏数据STUDIO

    特征选择与特征提取最全总结

    另外还有一个RFECV通过交叉验证的方式执行RFE,以此来选择最佳数量的特征。 model = LogisticRegression() rfe = RFE(model, 3) rfe.fit(X, Y) print("Num Features: %s" % (rfe.n_features _)) print("Selected Features: %s" % (rfe.support_)) print("Feature Ranking: %s" % (rfe.ranking_)) Num = pd.DataFrame(rfe.ranking_, columns = ["RFE"], index=features.columns) RFE = RFE.reset_index() RFE.sort_values ('RFE',ascending=0) 多种方法整合 from functools import reduce dfs = [Ridge,var_thd ,pearsonr, RFE, ET, RFC

    5.3K23发布于 2021-09-26
  • 来自专栏机器学习/数据可视化

    特征选择4大方法

    import pyplot as plt import seaborn as sns %matplotlib inline from sklearn.feature_selection import RFE Recursive Feature Elimination or RFE uses a model ( eg. linear Regression or SVM) to select either the 的再次训练 rfe = RFE(lr, n_features_to_select=1,verbose=3) rfe.fit(X,y) ranks["RFE"] = ranking(list(map(float 的重要性分数取值整体是偏高的;前两位是waterfront、lat 三种回归模型的得分比较接近,而且前两位和RFE是类型。 可能原因是RFE选择的基模型是线性回归 随机森林模型最终得到3个特征的分数是比较高的:grade、sqft_living、lat 基于相关系数:得分排序的结果和随机森林接近 最后看看Mean的排名: f

    53541编辑于 2023-08-25
  • 来自专栏数据派THU

    Boruta 和 SHAP :不同特征选择技术之间的比较以及如何选择

    每个人都知道(或很容易理解)RFE 递归特征消除是如何工作的。考虑到较小的特征集,它递归地拟合监督算法。 我们从RFE开始。我们将参数的调整与特征选择过程相结合。和以前一样,我们对不同的分裂种子重复整个过程,以减轻数据选择的随机性。 使用 RFE 选择某个特征的次数(左);使用 RFE + SHAP 选择某个特征的次数(右) 在我们的案例中,具有标准重要性的 RFE 显示是不准确的。 SHAP + RFE 最好不要选择无用的特征,但同时承认一些错误的选择。 作为最后一步,我们重复相同的过程,但使用 Boruta。 综上所述,当我们对数据有完整的理解时,可以单独使用RFE。Boruta 和 SHAP 可以消除对正确验证的选择过程的任何疑虑。

    4.2K20编辑于 2023-03-29
  • 来自专栏AI科技大本营的专栏

    7000 字精华总结,Pandas/Sklearn 进行机器学习之特征筛选,有效提升模型性能

    LR= LinearRegression() # 挑选出7个相关的变量 rfe_model = RFE(model, 7) # 交给模型去进行拟合 X_rfe = rfe_model.fit_transform (X,y)   LR.fit(X_rfe,y) # 输出各个变量是否是相关的,并且对其进行排序 print(rfe_model.support_) print(rfe_model.ranking_) output  = RFE(model,feature_num_list[n])     X_train_rfe_model = rfe_model.fit_transform(X_train,y_train)      X_test_rfe_model = rfe_model.transform(X_test)     model.fit(X_train_rfe_model,y_train)     score = model.score 模型,筛选出10个变量 rfe_model = RFE(model, 10)              X_rfe = rfe.fit_transform(X,y)   # 拟合训练模型 model.fit

    1K30编辑于 2023-04-14
  • 来自专栏Datawhale专栏

    机器学习中特征选择怎么做?这篇文章告诉你

    图 5:决策树可视化 递归特征消除(RFE) 递归特征消除(RFE)将机器学习模型的实例和要使用的最终期望特征数作为输入。 from sklearn.feature_selection import RFE model = RandomForestClassifier(n_estimators=700) rfe = RFE (model, 4) start = time.process_time() RFE_X_Train = rfe.fit_transform(X_Train,Y_Train) RFE_X_Test = rfe.transform(X_Test) rfe = rfe.fit(RFE_X_Train,Y_Train) print(time.process_time() - start) print("Overall Accuracy using RFE: ", rfe.score(RFE_X_Test,Y_Test)) ?

    95920发布于 2019-12-09
  • 来自专栏机器学习初学者精选文章

    【特征工程】不容错过的 5 种特征选择的方法!

    ) 递归特征消除或RFE是一种特征选择方法,利用机器学习模型通过在递归训练后消除最不重要的特征来选择特征。 根据Scikit-Learn,RFE是一种通过递归考虑越来越少的特征集来选择特征的方法。 the Best important features according to Logistic Regression rfe_selector = RFE(estimator=LogisticRegression (),n_features_to_select = 2, step = 1) rfe_selector.fit(X, y) X.columns[rfe_selector.get_support()] 默认情况下,为RFE选择的特征数是全部特征的中位数,步长是1.当然,你可以根据自己的经验进行更改。

    1.4K21发布于 2021-04-16
  • 来自专栏DeepHub IMBA

    Boruta 和 SHAP :不同特征选择技术之间的比较以及如何选择

    每个人都知道(或很容易理解)RFE 递归特征消除是如何工作的。考虑到较小的特征集,它递归地拟合监督算法。 Boruta 与 RFE 一样,是一种基于包装器的特征选择技术。可能很少有人听过它的名字,但是它同样强大。Boruta 背后的想法非常简单。 我们从RFE开始。我们将参数的调整与特征选择过程相结合。和以前一样,我们对不同的分裂种子重复整个过程,以减轻数据选择的随机性。 使用 RFE 选择某个特征的次数(左);使用 RFE + SHAP 选择某个特征的次数(右) 在我们的案例中,具有标准重要性的 RFE 显示是不准确的。 综上所述,当我们对数据有完整的理解时,可以单独使用RFE。Boruta 和 SHAP 可以消除对正确验证的选择过程的任何疑虑。

    4.1K20发布于 2021-07-23
  • 来自专栏Python数据科学

    5种数据科学家必须知道的特征选择方法

    来自sklearn文档:递归特征消除(RFE)的目标是通过递归地考虑越来越小的特征集来选择特征。 from sklearn.feature_selection import RFE from sklearn.linear_model import LogisticRegression rfe_selector = RFE(estimator=LogisticRegression(), n_features_to_select=num_feats, step=10, verbose=5) rfe_selector.fit (X_norm, y) rfe_support = rfe_selector.get_support() rfe_feature = X.loc[:,rfe_support].columns.tolist () print(str(len(rfe_feature)), 'selected features') 4.

    2K30发布于 2019-10-10
  • 来自专栏DeepHub IMBA

    这3个Scikit-learn的特征选择技术,能够有效的提高你的数据预处理能力

    递归特性消除 Recursive Feature Elimination 顾名思义,递归特性消除(RFE)的工作原理是递归地消除特性。消除是基于一个估计器的输出来完成的,该估计器会给特征赋某种权重。 下面的代码将使用RFE来选择最好的4个特性。 () rfe = RFE(estimator=lr, n_features_to_select=4, step=1) rfe.fit(X, y) ? RFE为每个特性分配一个等级。赋值为1的特征是选中的特征。 rfe.ranking_ array([4, 1, 2, 1, 1, 1, 3]) 根据重要性选择 SelectFromModel 就像RFE一样,SelectFromModel与具有coef或feature_importantances

    1K20发布于 2020-08-04
  • 来自专栏从流域到海域

    Feature Selection For Machine Learning in Python (Python机器学习中的特征选择)

    更新于2016年12月:修正了RFE部分关于所选择变量的错字。感谢 Anderson。 ? 28.1 21. ] [ 137. 168. 43.1 33. ]] 2.递归特征消除 The Recursive Feature Elimination(递归特征消除(或RFE 您可以在scikit-learn文档中了解有关RFE类的更多信息。 下面的例子使用了逻辑回归算法的RFE来选择前3个特征。算法的选择并不重要,只要它是熟练和一致的。 # Feature Extraction with RFE from pandas import read_csv from sklearn.feature_selection import RFE from = RFE(model, 3) fit = rfe.fit(X, Y) print("Num Features: %d") % fit.n_features_ print("Selected Features

    1.9K60发布于 2018-02-05
  • 机器学习特征筛选:向后淘汰法提升模型泛化能力(附Python代码)

    然而,对于大多数实际的机器学习工作流程,像statsmodels、sklearn和其他模型优化工具(如RFE)这样的库sklearn可以帮助自动化和简化这一过程。 使用Scikit-learn(RFE)的替代方案Scikit-learn使用递归特征消除(RFE)提供了一种更加自动化的特征选择方法,它本质上是一种自动化的后向消除形式。 sklearn.feature_selection import RFEfrom sklearn.linear_model import LinearRegression# 创建基础模型model = LinearRegression()# 创建RFE 模型并选择前3个特征rfe = RFE(model, 3)X_rfe = rfe.fit_transform(X, y)# 输出特征排名 print("特征排名:", rfe.ranking_)该方法与后向消除方法非常相似

    53110编辑于 2025-03-11
  • 来自专栏AI科技评论

    特征选择怎么做?这篇文章告诉你

    使用 RFE 支持方法,我们可以找出被评估为最重要的特征的名称(rfe.support 返回一个布尔列表,其中 true 表示一个特征被视为重要,false 表示一个特征不重要)。 from sklearn.feature_selection import RFE model = RandomForestClassifier(n_estimators=700) rfe = RFE (model, 4) start = time.process_time() RFE_X_Train = rfe.fit_transform(X_Train,Y_Train) RFE_X_Test = rfe.transform(X_Test) rfe = rfe.fit(RFE_X_Train,Y_Train) print(time.process_time() - start) print("Overall Accuracy using RFE: ", rfe.score(RFE_X_Test,Y_Test)) 5、SelecFromModel selectfrommodel 是另一种 scikit 学习方法

    63130发布于 2019-10-23
  • 来自专栏AI研习社

    特征选择怎么做?这篇文章告诉你

    图 5:决策树可视化 递归特征消除(RFE) 递归特征消除(RFE)将机器学习模型的实例和要使用的最终期望特征数作为输入。 from sklearn.feature_selection import RFE model = RandomForestClassifier(n_estimators=700)rfe = RFE(model , 4)start = time.process_time()RFE_X_Train = rfe.fit_transform(X_Train,Y_Train)RFE_X_Test = rfe.transform (X_Test)rfe = rfe.fit(RFE_X_Train,Y_Train)print(time.process_time() - start)print("Overall Accuracy using RFE: ", rfe.score(RFE_X_Test,Y_Test)) ?

    1K00发布于 2019-10-22
  • 来自专栏智能算法

    结合Scikit-learn介绍几种常用的特征选择方法(下)

    RFE的稳定性很大程度上取决于在迭代的时候底层用哪种模型。 例如,假如RFE采用的普通的回归,没有经过正则化的回归是不稳定的,那么RFE就是不稳定的;假如采用的是Ridge,而用Ridge正则化的回归是稳定的,那么RFE就是稳定的。 Sklearn提供了 RFE 包,可以用于特征消除,还提供了 RFECV ,可以通过交叉验证来对的特征进行排序。 对于RFE来说,由于它给出的是顺序而不是得分,我们将最好的5个的得分定为1,其他的特征的得分均匀的分布在0-1之间。 = RFE(lr, n_features_to_select=5)rfe.fit(X,Y) ranks["RFE"] = rank_to_dict(map(float, rfe.ranking_),

    3.9K50发布于 2018-04-02
  • 来自专栏好奇心Log

    机器学习中特征选择的通俗讲解!

    使用 RFE 支持方法,我们可以找出被评估为最重要的特征的名称(rfe.support 返回一个布尔列表,其中 true 表示一个特征被视为重要,false 表示一个特征不重要)。 from sklearn.feature_selection import RFE model = RandomForestClassifier(n_estimators=700) rfe = RFE (model, 4) start = time.process_time() RFE_X_Train = rfe.fit_transform(X_Train,Y_Train) RFE_X_Test = rfe.transform(X_Test) rfe = rfe.fit(RFE_X_Train,Y_Train) print(time.process_time() - start) print("Overall Accuracy using RFE: ", rfe.score(RFE_X_Test,Y_Test)) SelecFromModel selectfrommodel 是另一种 scikit 学习方法

    1.1K30发布于 2021-11-29
  • 来自专栏数据派THU

    收藏 | 机器学习特征选择方法总结(附代码)

    使用 RFE 支持方法,我们可以找出被评估为最重要的特征的名称(rfe.support 返回一个布尔列表,其中 true 表示一个特征被视为重要,false 表示一个特征不重要)。 from sklearn.feature_selection import RFE model = RandomForestClassifier(n_estimators=700)rfe = RFE(model , 4)start = time.process_time()RFE_X_Train = rfe.fit_transform(X_Train,Y_Train)RFE_X_Test = rfe.transform (X_Test)rfe = rfe.fit(RFE_X_Train,Y_Train)print(time.process_time() - start)print("Overall Accuracy using RFE: ", rfe.score(RFE_X_Test,Y_Test)) SelecFromModel  selectfrommodel 是另一种 scikit 学习方法,可用于特征选择。

    1.1K20编辑于 2023-03-29
领券