欢迎光临
我们一直在努力

新模型减少了偏见,增强了人工智能决策和知识组织的信任

  自动草稿

  滑铁卢大学的研究人员开发了一种新的可解释的人工智能(AI)模型,以减少偏见,增强机器学习生成的决策和知识组织中的信任和准确性。

  传统的机器学习模型通常会产生有偏见的结果,倾向于人口众多或受未知因素影响的群体,并且需要花费大量的精力来识别包含来自不同类别或主要来源的模式和子模式的实例。

  医学领域是一个对有偏见的机器学习结果有严重影响的领域。医院工作人员和医疗专业人员依靠包含数千份医疗记录的数据集和复杂的计算机算法来做出有关患者护理的关键决策。

  机器学习用于对数据进行排序,从而节省了时间。然而,具有罕见症状模式的特定患者群体可能未被发现,并且错误标记的患者和异常可能影响诊断结果。这种固有的偏见和模式纠缠导致对特定患者群体的误诊和不公平的医疗保健结果。

  滑铁卢大学杰出的系统设计工程荣誉教授Andrew Wong博士领导了一项新的研究,他提出了一个创新的模型,旨在通过从数据中解开复杂的模式,将它们与不受异常和错误标记实例影响的特定潜在原因联系起来,从而消除这些障碍。它可以增强可解释人工智能(XAI)的信任和可靠性。

  这项名为“可解释的一体化模式发现和解开系统的理论和基本原理”的研究发表在《npj数字医学》杂志上。

  Wong说:“这项研究对人工智能领域做出了重大贡献。”“在分析来自x射线晶体学的大量蛋白质结合数据时,我的团队揭示了物理化学氨基酸相互作用模式的统计数据,由于结合环境中存在的多种因素的纠缠,这些模式在数据水平上被掩盖和混合。这是我们第一次表明,可以通过科学证据解开纠缠的统计数据,为数据层面上缺失的深度知识提供正确的图景。”

  这一发现促使Wong和他的团队开发了新的XAI模型,称为模式发现和解纠缠(PDD)。

  “有了PDD,我们的目标是弥合人工智能技术和人类理解之间的差距,帮助实现值得信赖的决策,并从复杂的数据源中获取更深入的知识,”Wong团队的首席研究员周培元博士说。

  来自多伦多大学的安妮·李(Annie Lee)教授是该研究的合著者和合作者,专攻自然语言处理,她预见了PDD对临床决策的巨大价值。

  PDD模型彻底改变了模式发现。各种案例研究都展示了PDD,展示了基于临床记录预测患者医疗结果的能力。PDD系统还可以在数据集中发现新的和罕见的模式。这使得研究人员和从业者都可以检测到机器学习中的错误标签或异常情况。

  结果表明,在严格的统计和可解释的模式的支持下,卫生保健专业人员可以做出更可靠的诊断,为不同阶段的各种疾病提供更好的治疗建议。

  更多资料:Andrew K. C. Wong等,可解释的一体化模式发现和解纠缠系统的理论和原理,npj数字医学(2023)。期刊信息:npj数字医学

  由滑铁卢大学提供

  引用:新模型减少了偏见,增强了对人工智能决策和知识组织的信任(2023,August 8)

  作品受版权保护。除为私人学习或研究目的而进行的任何公平交易外,未经书面许可,不得转载任何部分。的有限公司

  内容仅供参考之用。

 收藏 (0) 打赏

您可以选择一种方式赞助本站

支付宝扫一扫赞助

微信钱包扫描赞助

除特别注明外,本站所有文章均基于CC-BY-NC-SA 4.0原创,转载请注明出处。
文章名称:《新模型减少了偏见,增强了人工智能决策和知识组织的信任》
文章链接:https://www.xpn.cc/41432/fy.html
分享到: 更多 (0)

热门推荐

登录

忘记密码 ?