机器学习入门13
今天继续进行机器学习的入门,主题是公平性。
公平性:偏见的类型
在机器学习系统中,我们需要特别关注以下四种主要的偏差类型:
1. 群内偏差
- 指机器学习模型在处理不同群体时可能产生的系统性差异
- 模型可能会无意识地对某些群体产生偏向,影响预测的公平性
- 需要特别关注模型在不同人群中的表现差异
2. 自动化偏差
- 源于过度依赖自动化系统的决策
- 忽视了人为判断的重要性
- 无法解释模型预测结果背后的原因
3. 输入偏差
- 来自于训练数据本身存在的历史偏见
- 与特定领域(如计算机科学)的发展历史相关
- 可能会延续和放大数据中原有的不公平现象
4. 历史偏差
- 基于较长时期(如20年)的历史数据
- 历史数据可能无法准确反映当前情况
- 需要及时更新数据以适应新的发展需求
减少偏见的方法
在识别出机器学习系统中的偏见后,我们可以采取以下方法来减少这些偏见:
1. 扩充训练数据
如果对训练数据进行审核发现数据缺失、不正确或有偏差,解决问题的最直接方法通常是收集更多数据。
然而,虽然扩充训练数据非常理想,但这种方法的实践也可能是不可行的,原因可能是缺少可用数据或阻碍数据收集的资源限制,例如,收集更多数据可能成本过高或者时,或者因法律/隐私限制而不可行。
2. 调整模型的优化函数
如果无法收集更多训练数据,另一种减少偏差的方法是调整模型训练期间的损失计算方式。我们通常使用优化函数来惩罚错误的预测,但这些函数往往只关注准确性而忽视了公平性。为了解决这个问题,我们可以添加专门的优化函数来促进模型的公平性。
TensorFlow Model Remediation 库提供了两种重要的偏见缓解技术:
MinDiff技术
这项技术通过一个简单的例子来理解: - 假设我们有一个预测学生录取概率的模型 - 发现模型对男生的录取预测概率普遍比女生高10% - MinDiff会在训练过程中特别"惩罚"这种群体间的预测差异 - 目标是让模型在保持准确性的同时,对不同性别群体做出更公平的预测
Counterfactual Logit Pairing (CLP)技术
我们可以通过以下场景来理解CLP: - 假设有两位申请者A和B,他们有完全相同的背景: * 相同的成绩 * 相同的课外活动 * 相同的推荐信评分 - 唯一的区别是A是男性,B是女性 - 如果模型仅仅因为性别差异就给出不同的预测结果(比如预测A会被录取而B不会),CLP就会增加惩罚 - 这样可以确保模型不会仅仅因为性别这样的敏感特征就改变预测结果
这些技术的选择取决于你的具体应用场景。比如,如果你发现模型在不同群体间的预测有系统性差异,可以使用MinDiff;如果你想确保模型在处理个体案例时不会因为敏感特征而产生歧视,那么CLP可能更适合。