首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏磐创AI技术团队的专栏

    热点 | 近期Github机器学习开源项目...

    utm_source=mybridge&utm_medium=blog&utm_campaign=read_more ▌No.4 AIF360:用于检测并去除机器学习模型偏差的开源库 这个 AI Fairness 由于 AIF360 具备一整套功能,所以在面对一个用例时,很可能难以抉择该使用什么指标或算法,为了解决这个问题,开发者为我们提供了可用于参考的使用指南。 ? 项目链接: https://github.com/IBM/AIF360?

    85620发布于 2018-10-22
  • 来自专栏CDA数据分析师

    9月机器学习开源项目Top10

    utm_source=mybridge&utm_medium=blog&utm_campaign=read_more ▌No.8 AIF360:用于检测并去除机器学习模型偏差的开源库 这个 AI Fairness 由于 AIF360 具备一整套功能,所以在面对一个用例时,很可能难以抉择该使用什么指标或算法,为了解决这个问题,开发者为我们提供了可用于参考的使用指南。 ? 项目链接: https://github.com/IBM/AIF360?

    59940发布于 2018-10-25
  • AI 编程必备 – 零基础 系统化学Python

    Scikit-learn提供从数据预处理到模型评估的完整Pipeline深度学习:TensorFlow/PyTorch占据全球90%以上AI论文的代码实现(2025年CSDN白皮书)新兴领域:Qiskit(量子计算)、AIF360

    72810编辑于 2025-09-10
  • 来自专栏ATYUN订阅号

    2018年9月机器学习Github开源项目TOP 10

    项目:github.com/IBM/AIF360?

    55230发布于 2018-10-25
  • 来自专栏速入大数据

    “别让模型坑了人”:数据科学中的那些伦理雷区

    引入公平性算法比如用 AIF360 或 Fairlearn 来主动平衡模型结果:from fairlearn.reductions import ExponentiatedGradient, DemographicParityfrom

    23100编辑于 2025-05-01
  • AI伦理与公平性:算法偏见的识别与缓解措施

    例如,使用AIF360库评估模型的平等机会(equal opportunity): from aif360.metrics import BinaryLabelDatasetMetric from

    7.7K11编辑于 2024-04-18
  • 来自专栏人工智能

    📝《开源vs闭源:大模型时代的技术伦理之争》

    采用合成数据+差分隐私 部署安全恶意微改难以监控后门漏洞响应滞后 部署运行时验证(RTV)机制 社会影响技术滥用责任分散算法歧视系统性扩散嵌入偏见检测API(如IBM AIF360 技术防御矩阵风险类型 开源应对工具 闭源应对策略 数据偏见IBM AIF360 + FairlearnAzure

    1.2K30编辑于 2025-03-24
  • 来自专栏AI大模型应用开发炼丹房

    系统拆解LLM的核心技术栈,助您掌握从模型选型到部署优化的全流程

    缓解方案包括数据脱敏、公平性约束(如AIF360工具包)。对齐(Alignment)确保模型行为符合人类期望,RLHF和红队测试(Red Teaming)是关键手段。

    1.6K22编辑于 2025-08-01
  • 来自专栏AI科技评论

    机器学习公平性研究,走在正确的道路上吗?

    事实上,现在有许多测试机器学习公平性的工具包,例如AIF360、Fairlearn、Fairness-Indicators、Fairness-Comparison等。

    83110发布于 2020-02-21
  • 来自专栏人工智能

    警惕技术泡沫!理性看待AI浪潮中的真实与谎言

    *  技术伦理:被忽视的达摩克利斯之剑 伦理困境 典型场景 开发者应对策略 算法偏见 招聘系统因训练数据失衡导致性别歧视 引入公平性测试框架(如AIF360

    60410编辑于 2025-03-17
  • 来自专栏杀马特

    深度揭秘,教你驾驭 AI 大模型的无限可能

    y_pred = model.predict(X_test) # 假设存在敏感属性(如性别) sensitive_attribute = [0] * 50 + [1] * 50 # 模拟敏感属性 # 使用AIF360

    51210编辑于 2025-03-30
  • 大模型训练中的数据偏见消解:从样本清洗到动态权重平衡的工程化实践

    推荐3个实用工具: AIF360(IBM开源库):支持15+偏见度量指标,如统计 parity difference、equalized odds Facets(Google可视化工具):可视化数据分布偏差

    1.5K10编辑于 2025-03-31
领券