AI资讯新闻榜单内容搜索-可解释性

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 可解释性
锚定效应与AI:智能算法如何应对认知偏差

锚定效应与AI:智能算法如何应对认知偏差

锚定效应与AI:智能算法如何应对认知偏差

随着人工智能技术的广泛应用,人们认为AI可以避免人类常见的认知偏差。然而,AI本身可能会表现出类似于人类的偏差,例如锚定效应。本文通过回顾“系统1”和“系统2”两个思维模式,探讨AI在这两种模式中的运作方式,分析AI产生认知偏差的原因,并通过具体实验展示AI在面对锚定效应时的表现。本文进一步探讨如何在理解这些局限性的基础上,合理利用AI来改善人类决策质量,并强调AI透明性和可解释性的重要性。

来自主题: AI技术研报
5563 点击    2024-08-21 14:33
Nature子刊 | 基于内生复杂性,自动化所新类脑网络构筑人工智能与神经科科学的桥梁

Nature子刊 | 基于内生复杂性,自动化所新类脑网络构筑人工智能与神经科科学的桥梁

Nature子刊 | 基于内生复杂性,自动化所新类脑网络构筑人工智能与神经科科学的桥梁

让模型具有更加广泛和通用的认知能力,是当前人工智能(AI)领域发展的重要目标。目前流行的大模型路径是基于 Scaling Law (尺度定律) 去构建更大、更深和更宽的神经网络提升模型的表现,可称之为 “基于外生复杂性” 的通用智能实现方法。然而,这一路径也面临着一些难以克服的困境,例如高昂的计算资源消耗和能源消耗,并且在可解释性方面存在不足。

来自主题: AI资讯
5363 点击    2024-08-18 10:16
可解释性终极追问,什么才是第一性解释?20篇CCF-A+ICLR论文给你答案

可解释性终极追问,什么才是第一性解释?20篇CCF-A+ICLR论文给你答案

可解释性终极追问,什么才是第一性解释?20篇CCF-A+ICLR论文给你答案

本文首先简单回顾了『等效交互可解释性理论体系』(20 篇 CCF-A 及 ICLR 论文),并在此基础上,严格推导并预测出神经网络在训练过程中其概念表征及其泛化性的动力学变化,即在某种程度上,我们可以解释在训练过程中神经网络在任意时间点的泛化性及其内在根因。

来自主题: AI技术研报
8411 点击    2024-08-04 13:55
微软开源的GraphRAG爆火,Github Star量破万,生成式AI进入知识图谱时代?

微软开源的GraphRAG爆火,Github Star量破万,生成式AI进入知识图谱时代?

微软开源的GraphRAG爆火,Github Star量破万,生成式AI进入知识图谱时代?

LLM 很强大,但也存在一些明显缺点,比如幻觉问题、可解释性差、抓不住问题重点、隐私和安全问题等。检索增强式生成(RAG)可大幅提升 LLM 的生成质量和结果有用性。

来自主题: AI资讯
5965 点击    2024-07-15 14:01
突破不可解释性!视频异常新检测框架精度90.67%拿下SOTA|华科&百度&密歇根大学

突破不可解释性!视频异常新检测框架精度90.67%拿下SOTA|华科&百度&密歇根大学

突破不可解释性!视频异常新检测框架精度90.67%拿下SOTA|华科&百度&密歇根大学

大模型当上福尔摩斯,学会对视频异常进行检测了。 来自华中科技大学、百度、密歇根大学的研究团队,提出了一种可解释性的视频异常检测框架,名为Holmes-VAD。

来自主题: AI技术研报
6419 点击    2024-07-05 01:04
打开黑盒神经网络!港大推出全新「会说话」的推荐系统大模型XRec,从黑盒预测到可解释

打开黑盒神经网络!港大推出全新「会说话」的推荐系统大模型XRec,从黑盒预测到可解释

打开黑盒神经网络!港大推出全新「会说话」的推荐系统大模型XRec,从黑盒预测到可解释

香港大学推出的XRec模型通过融合大型语言模型的语义理解和协同过滤技术,增强了推荐系统的可解释性,使用户能够理解推荐背后的逻辑。这一创新成果不仅提升了用户体验,也为推荐技术的未来发展提供了新方向和动力。

来自主题: AI技术研报
9496 点击    2024-06-21 21:16
OpenAI新作署名Ilya,提取1600万个特征看透GPT-4大脑!

OpenAI新作署名Ilya,提取1600万个特征看透GPT-4大脑!

OpenAI新作署名Ilya,提取1600万个特征看透GPT-4大脑!

今天,OpenAI发布了一篇GPT-4可解释性的论文,似乎是作为前两天员工联名信的回应。网友细看论文才发现,这居然是已经解散的「超级对齐」团队的「最后之作」。

来自主题: AI技术研报
8513 点击    2024-06-08 11:50
首次证实白盒Transformer可扩展性!马毅教授CRATE-α:鲸吞14亿数据,性能稳步提升

首次证实白盒Transformer可扩展性!马毅教授CRATE-α:鲸吞14亿数据,性能稳步提升

首次证实白盒Transformer可扩展性!马毅教授CRATE-α:鲸吞14亿数据,性能稳步提升

CRATE-α是一种新型Transformer架构变体,通过设计改进提升了模型的可扩展性、性能和可解释性,CRATE-α-Base在ImageNet分类任务上的性能显著超过了之前最好的CRATE-B模型,其性能会随着模型和数据集规模扩大而继续提升。

来自主题: AI技术研报
8713 点击    2024-06-06 15:48