您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 基于知识图谱的可解释人工智能(肖老师).pdf

  2. 基于知识图谱的可解释人工智能,怎样解释知识图谱在人工智能的应用
  3. 所属分类:深度学习

    • 发布日期:2019-06-19
    • 文件大小:3145728
    • 提供者:qq_31367595
  1. 可解释人工智能(XAI):工业界挑战与经验教训(附180页ppt)

  2. 模型可解释性是在需要可靠性和安全性的高风险领域(如医疗和自动化交通)以及具有重大经济意义的关键工业应用(如预测维护、自然资源勘探和气候变化建模)中建立信任和采用人工智能系统的先决条件。
  3. 所属分类:机器学习

    • 发布日期:2020-04-24
    • 文件大小:4194304
    • 提供者:syp_net
  1. 综述:可解释的知识系统发展方向.pdf

  2. 在这篇论文中,我们通过调研人工智能和相关领域中有关可解释性的文献,并利用过去的相关研究生成了一系列的可解释类型。我们定义每种类型,并提供一个示例问题,来阐述对这种解释方式的需求。我们相信,这一系列的解释类型将有助于未来的系统设计人员获得可靠的需求和确定各种需求的优先级,并进一步帮助生成能够更好地符合用户和情景需求的解释。
  3. 所属分类:机器学习

    • 发布日期:2020-03-19
    • 文件大小:763904
    • 提供者:syp_net
  1. AAAI2020最新「可解释人工智能XAI」【从基础理论到工业应用、实际挑战和经验教训】.zip

  2. 2020年2月7日-2月12日,AAAI 2020 于美国纽约举办。AAAI2020关于可解释人工智能的Tutorial引起了人们极大的关注,这场Tutorial详细阐述了解释黑盒机器学习模型的术语概念以及相关方法,涵盖基础、工业应用、实际挑战和经验教训,是构建可解释模型的重要指南。
  3. 所属分类:机器学习

    • 发布日期:2020-02-11
    • 文件大小:44040192
    • 提供者:syp_net
  1. 美国2019:国家人工智能战略(中英双语)-2019.6-101页(8).pdf

  2. 国家人工智能研发战略计划: 2019年更新为联邦政府资助的人工智能研究制定了一系列 目标,确定了以下八个战略重点: 策略1:对人工智能研究进行长期投资。优先考虑对下一代人工智能的投资,这将推动发现和 洞察,并使美国成为人工智能的世界领导者。战略2:为人工智能协作开发有效的方法。增加 对如何理解 创建有效补充和增强人类能力的AI系统。 策略3:理解并解决人工智能的道德,法律和社会影响。通过技术机制研究人工智能系统,包 括道德,法律和社会问题。 策略4:确保AI系统的安全性。了解如何设计可靠,可靠,
  3. 所属分类:机器学习

    • 发布日期:2019-09-04
    • 文件大小:1048576
    • 提供者:chentaotongxue
  1. 最新《可解释人工智能XAI:机会与挑战》

  2. 目前,深度神经网络广泛应用于医疗、自动驾驶汽车、军事等直接影响人类生活的关键任务系统。然而,深度神经网络的黑箱特性对其在关键任务应用中的应用提出了挑战,引发了道德和司法方面的担忧,导致信任缺失。
  3. 所属分类:机器学习

    • 发布日期:2020-06-25
    • 文件大小:5242880
    • 提供者:syp_net
  1. 机器推理可解释性(综述论文)

  2. 作为人工智能的一个领域,机器推理(MR)主要使用符号手段来形式化和模拟抽象推理。早期MR的研究已经开始对可解释的人工智能(XAI)进行调查,这可以说是当今人工智能界最关心的问题之一。
  3. 所属分类:机器学习

    • 发布日期:2020-09-06
    • 文件大小:638976
    • 提供者:syp_net
  1. 可解释人工智能 (xAI) 方法和深度元学习模型

  2. 可解释人工智能(xAI)是近年来出现的一个有趣的问题。许多研究人员正试图从不同的角度和有趣的结果来处理这个问题。然而,我们在理解这些类型的模型方面仍处于起步阶段。在未来的几年里,深度学习模型的开放性将被讨论。
  3. 所属分类:机器学习

    • 发布日期:2020-09-13
    • 文件大小:1048576
    • 提供者:syp_net
  1. 可解释人工智能XAI:算法到应用

  2. 能够解释机器学习模型的预测在医疗诊断或自主系统等关键应用中是很重要的。深度非线性ML模型的兴起,在预测方面取得了巨大的进展。然而,我们不希望如此高的准确性以牺牲可解释性为代价。结果,可解释AI (XAI)领域出现了,并产生了一系列能够解释复杂和多样化的ML模型的方法。
  3. 所属分类:机器学习

    • 发布日期:2020-10-13
    • 文件大小:47185920
    • 提供者:syp_net
  1. 《可解释人工智能》概述

  2. 机器学习的巨大成功导致了AI应用的新浪潮(例如,交通、安全、医疗、金融、国防),这些应用提供了巨大的好处,但无法向人类用户解释它们的决定和行动。DARPA的可解释人工智能(XAI)项目致力于创建人工智能系统,其学习的模型和决策可以被最终用户理解并适当信任。实现这一目标需要学习更多可解释的模型、设计有效的解释界面和理解有效解释的心理要求的方法。
  3. 所属分类:机器学习

    • 发布日期:2020-12-22
    • 文件大小:1048576
    • 提供者:syp_net
  1. 张钹:人工智能技术已进入第三代

  2. 原文编注:近日,中科院院士、清华大学人工智能研究院院长张钹教授接受记者采访时认为,目前基于深度学习的人工智能在技术上已经触及天花板。从长远来看,必须得走人类智能这条路,最终要发展人机协同,人类和机器和谐共处的世界。未来需要建立可解释、鲁棒性的人工智能理论和方法,发展安全、可靠和可信的人工智能技术。 张钹院士:AI奇迹短期难再现 深度学习技术潜力已近天花板 在Alphago与韩国围棋选手李世石对战获胜三年过后,一些迹象逐渐显现,张钹院士认为到了一个合适的时点,并接受了此次的专访。 深度学习目前人
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:225280
    • 提供者:weixin_38746951
  1. meteoai:气象,海洋和环境科学的人工智能论文或教程以及相关源代码-Artificial intelligence source code

  2. 流星 气象,海洋和环境科学的人工智能论文或教程以及相关源代码。 分类,检测,聚类 : : : : 卫星与气象雷达 : : : 缩小规模 : 天气和气候预测 :可根据通讯作者的要求获得与本文相关的代码。 : : : : : : : : : : 极端事件 : : : :: : 数值模型 : 参数化 : : : : , : 后期处理 : 数据同化 : 不确定度量化 : : : 可解释的 : : : 偏微分方程 : : :
  3. 所属分类:其它

    • 发布日期:2021-03-25
    • 文件大小:3072
    • 提供者:weixin_42116847
  1. 最新《可解释人工智能》概述

  2. 随着广泛的应用,人工智能(AI)催生了一系列与人工智能相关的研究活动。其中一个领域就是可解释的人工智能。它是值得信赖的人工智能系统的重要组成部分。本文概述了可解释的人工智能方法,描述了事后人工智能系统(为先前构建的常规人工智能系统提供解释)和事后人工智能系统(从一开始就配置为提供解释)。
  3. 所属分类:机器学习

    • 发布日期:2021-03-17
    • 文件大小:10485760
    • 提供者:syp_net
  1. Identificational-Model:人工神经网络用于识别离线手写文档的作者-源码

  2. 识别模型 0.简介 0.1。 作者资料库的目的是介绍多种(在可解释性方面各不相同)通过人工神经网络识别离线手写文档作者的方法。 这些方法的目的是为分析在计算机取证领域开发的可解释机器学习工具创建经验背景。 0.2。 版本和标识符(例如vX.YZ): X表示模型版本(否则为0); Y表示预处理方法(否则为0); Z表示给定XY基本组合的任何其他变化(否则省略)。 0.4。 关键字: 计算,统计,概率; 法医,犯罪学,分析,检查; 手写,签名,文件; 神经,网络,深度,机器,学习,人工
  3. 所属分类:其它

    • 发布日期:2021-03-09
    • 文件大小:5120
    • 提供者:weixin_42126399
  1. 阅读材料:此存储库主要用于显示我正在调查的资源,以了解AI的最新进展-源码

  2. **这不是完整的,只要有时间,我就会尽可能地对其进行更新 如果您使用这些存储库,请加注星标,它将鼓励我找到更多资源 在这些回购中,我维护着我每天阅读的论文名称 ML DL和FL 文件 可靠地评估对抗性的鲁棒性,以及各种无参数攻击的组合。 图书 影片 >为了了解对抗训练的知识,预计梯度下降 >图形和顺序数据(MLGS)的机器学习 >机器学习数据系统 >多媒体信号处理 >可靠且可解释的机器学习 > AI中的不确定性建模 见解文章 人工智能报告2020
  3. 所属分类:其它

    • 发布日期:2021-02-18
    • 文件大小:6144
    • 提供者:weixin_42169245
  1. 助听器:具有人工智能的Python脚本,根据您的心情向您推荐歌曲-源码

  2. 歌曲助手 有关您的项目和/或概述的一些信息,说明该项目的含义。 :glowing_star: 大家好! 这是我的软件包在Python“同步文件夹”上的存储库。 :glowing_star: 目录 自述清单 一个有用的清单,可用来衡量自述文件的进展情况: 一线解释模块的用途 必要的背景上下文和链接 可能不熟悉的术语链接到信息来源 清晰,可运行的用法示例 安装说明 广泛的API文档 执行 预先提到的警告和限制
  3. 所属分类:其它

    • 发布日期:2021-02-16
    • 文件大小:10240
    • 提供者:weixin_42107491
  1. AAAI2021最新「可解释人工智能XAI」报告

  2. 人工智能的未来在于使人类能够与机器合作解决复杂的问题。就像任何有效的合作一样,这需要良好的沟通、信任、清晰和理解。可解释人工智能(XAI)旨在通过结合符号人工智能和传统机器学习的优点来应对此类挑战。多年来,各种不同的AI社区都在研究这一主题,他们有着不同的定义、评估指标、动机和结果。
  3. 所属分类:机器学习

    • 发布日期:2021-02-05
    • 文件大小:210763776
    • 提供者:syp_net
  1. DALEX:探索和扩展的不可知论语言-源码

  2. 用于探索和扩展的模块不可知语言 总览 未验证的黑匣子模型是失败的路径。 不透明导致不信任。 不信任导致无知。 忽略导致拒绝。 DALEX软件包可对任何模型进行X射线检查,并有助于探索和解释其行为,有助于了解复杂模型的工作方式。 主要功能explain()围绕预测模型创建包装器。 然后可以探索包装的模型,并将其与本地和全球解释器集合进行比较。 可解释性机器学习/可解释人工智能领域的最新发展。 在电子书中描述了DALEX解释的原理。 DALEX软件包是宇宙的一部分。 如果您使用scikit-l
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:4194304
    • 提供者:weixin_42131785
  1. 很棒的决策树论文:有关决策树,分类树和回归树的研究论文集以及实施-源码

  2. 很棒的决策树研究论文 精选的决策,分类和回归树研究论文清单,包括来自以下会议的实现: 机器学习 计算机视觉 自然语言处理 数据 人工智能 关于,,,和论文的类似集合以及实现。 2020年 DTCA:可解释的索赔验证基于决策树的共同注意网络(ACL 2020) 吴连伟,袁Yuan,赵永强,梁浩,安布琳·纳齐尔 隐私保护梯度提升决策树(AAAI 2020) 李勤彬,吴兆敏,温则宜,何炳生 实用联合梯度提升决策树(AAAI 2020) 李勤彬,温则宜,何炳生 最优决策树的有效推
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:47104
    • 提供者:weixin_42168902
  1. 解释:适合可解释的模型。 讲解黑匣子机器学习-源码

  2. InterpretML-Alpha版本 起初,机器是在黑暗中学习的,而数据科学家则在虚空中挣扎着解释它们。 让它发光。 InterpretML是一个开源软件包,在一个平台下融合了最新的机器学习可解释性技术。 使用此软件包,您可以训练可解释的玻璃箱模型并解释黑箱系统。 InterpretML可帮助您了解模型的整体行为,或了解各个预测背后的原因。 可解释性对于以下方面至关重要: 模型调试-为什么我的模型会犯此错误? 检测公平问题-我的模型有区别吗? 人与人工智能的合作-我如何理解和信任模型
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:887808
    • 提供者:weixin_42127369
« 12 3 »