ChatGPT 人工智能 GPT4 伦理 生成式 医疗 监管 安全 机器学习 深度学习 神经网络 计算机视觉 强化学习 模型 算法 应用 开发 研究 工具 平台 框架 数据集 训练 部署 安全 合规 培训 投资 LLM,llm AI,ai,Ai 大模型 大语言模型 制图 生图 绘图 文生图 文生视频 生成式AI AGI 世界模型 sora chatGPT,chatgpt,ChatGpt claude openai Llama deepseek midjourney 红熊猫模型 Red panda,panda Stable Diffusion,StableDiffusion,stable DALL- E 3 DALL E DALL Flux,flux 扩散模型 混元大模型 文心一言 通义千问 可灵 Pika PixelDance 豆包 月之暗面 零一万物 阶跃星辰 搜索增强 MiniMax Talkie Agent prompt fastai LangChain TTS 微调 提示词 知识库 智能体
# 热门搜索 #
搜索
天桥脑科学研究院启动高校合作研究基金计划,聚焦AI长期记忆与生成式智能研究
5551点击    2024-11-16 21:02

近日,天桥脑科学研究院正式启动了一项面向高校的合作研究基金计划,围绕人工智能长期记忆、生成式模型等前沿领域开展深入研究。该计划将为入选的高校研究团队提供可观的研究经费支持,其中一般项目年度预算最高60万元,重点项目年度预算可达200万元。


本次研究计划共设立13个重点研究方向,涵盖了AI领域多个具有重要理论价值和实践意义的课题。其中,"长期记忆体系构建与个性化交互研究"旨在通过整合语义记忆、情景记忆和程序性记忆等多种记忆机制,提升AI助理的智能水平;"基于大语言模型的知识挖掘与符号化表达研究"则致力于深入挖掘用户数据中的有价值信息,构建统一的符号化表达体系。


值得关注的是,该计划还特别强调了AI安全与隐私保护议题。在"长期记忆的内生安全与隐私保护"研究方向中,将重点探索如何在模型训练、微调、预测和决策过程中保护敏感数据,确保AI系统在处理个人隐私、企业机密等信息时的安全性。


据悉,该研究计划采用开放申请制,高校团队可随时提交项目申请。申请书可参照国家自然科学基金的模板格式。项目执行期间表现优异的团队,有机会获得持续性支持。这一举措体现了天桥脑科学研究院在推动产学研深度融合、促进AI技术创新方面的长期承诺。


“我们希望通过这个研究基金计划,联合高校的创新力量,共同推进AI技术的突破。”天桥脑科学研究院相关负责人表示,“特别是在长期记忆、知识工程等关键领域,我们期待能够产出具有重要学术价值和实际应用前景的研究成果。”


此次研究计划的启动,不仅为高校科研团队提供了难得的产学研合作机会,也将为推动我国AI技术的创新发展注入新的动力。感兴趣的高校研究团队可通过ailtm@cheninstitute.org了解更多详细信息。



附录:详细课题列表如下


(1)长期记忆体系构建与个性化交互研究


为使AI助理能够准确理解和运用不同类型的知识,提供个性化且连贯的用户交互体验,本研究致力于构建全面的长期记忆体系。通过整合语义记忆、情景记忆和程序性记忆等多种记忆机制,提升AI助理对用户历史交互和知识背景的理解能力。


研究内容包括:

  1. 多类型数据和知识的统一表示与存储方法;
  2. 基于记忆体系的上下文理解、复杂任务理解与规划和个性化连贯对话等技术;
  3. 个性化用户模型的构建与动态更新机制;
  4. 文件深度解析技术;
  5. 用户属性、行为、情感状态、偏好与需求的感知技术;
  6. 用户思维习惯与推理能力感知;
  7. 用户画像的精细化与持续更新;
  8. 岗位职责与能力感知。通过本研究,期望显著提升AI助理的智能水平,为用户带来更加自然、高效的交互体验。


(2)基于大语言模型的知识挖掘与符号化表达研究


针对用户数据中蕴含的丰富知识,利用大语言模型的强大理解和生成能力,深入挖掘数据中的有价值信息。研究如何构建高效的知识挖掘方法,提取隐含在用户数据中的深层次知识。同时,探索统一的符号化表达方式,将多源、多样化的用户信息转化为一致的符号表示,以便于进一步的分析和应用。


研究内容包括:

  1. 基于大语言模型的用户数据知识表示与提取;
  2. 用户数据中深层次知识的挖掘方法;
  3. 统一符号化表达的构建与优化;
  4. 语义感知与内容理解;
  5. 知识的识别与抽取;
  6. 基于嵌入表达、知识图谱、符号逻辑的知识表示;
  7. 基于语义网络、概念层次结构等新型知识表示方法的探索;
  8. 基于多方法融合的知识表示;
  9. 兼容多种知识表达方法的记忆元构造;
  10. 记忆元的大规模高性能存储与管理。


(3)基于生成式人工智能的意图识别、思维习惯与决策逻辑深度挖掘研究


生成式人工智能具备强大的自然语言理解与生成能力,能够深入挖掘用户的意图、思维习惯和决策逻辑等深层次信息。通过分析用户数据与记忆,利用大语言模型捕捉用户的认知模式、行为特征和意图表达,为个性化推荐、人机交互优化、用户行为预测以及多代理任务指派等领域提供支持。


研究内容包括:

  1. 基于生成式人工智能的用户意图识别方法;
  2. 多代理任务指派与协作机制;
  3. 用户思维习惯和决策逻辑建模方法;
  4. 大语言模型在深层信息提取中的应用;
  5. 用户思维、意图与决策过程的符号化表达与理解;
  6. 个体意图识别;
  7. 群体意图识别;
  8. 任务复杂度评估;
  9. 复杂任务分解。


(4)生成式人工智能的长期记忆更新与遗忘机制研究


针对生成式人工智能模型在长期记忆管理中的挑战,研究如何实现模型对知识的动态更新与适当遗忘。通过探索模型的记忆更新策略和遗忘机制,解决模型在持续学习过程中面临的旧知识干扰、新知识整合困难等问题。旨在构建具备高效长期记忆能力的生成式模型,提升其在复杂环境中的适应性和稳定性。


研究内容包括:

  1. 生成式模型的长期记忆表示与存储方法;
  2. 模型知识的增量更新策略;
  3. 适应性遗忘机制的设计与实现;
  4. 长期记忆管理对模型性能的影响分析;
  5. 基于个体记忆元整合的记忆体构建;
  6. 基于群体记忆元整合的记忆体构建;
  7. 基于世界记忆元整合的记忆体构建;
  8. 新知识的发现与衍生;
  9. 高阶知识的凝练升华。


(5)长期记忆机制对生成式模型的能力提升研究


长期记忆机制对生成式人工智能的发展具有重要意义。通过构建有效的长期记忆模型,生成式人工智能可以更好地保留和利用历史信息,增强对复杂上下文和任务的理解,从而提升生成内容的质量和一致性。本研究旨在探索生成式模型中的长期记忆机制,研究长期记忆对模型性能的帮助与提升。


研究内容包括:

  1. 生成式模型长期记忆的表示、存储和查找方法;
  2. 基于长期记忆的上下文理解与生成优化;
  3. 长期记忆机制在多轮对话和长文本生成中的应用;
  4. 融合长期记忆的模型训练和更新策略;
  5. 长期记忆对生成式人工智能性能提升的评估与分析;
  6. 面向特定任务求解的记忆体调用。


(6)大语言模型在长期记忆识别与抽取中的应用研究


利用大语言模型对个人和组织数据进行加工处理,识别和抽取独特的长期记忆,有助于实现知识的有效管理和传承,提升组织学习能力和个人智能助理的效率。研究将聚焦于信息的真实性与可靠性评估、记忆片段的连贯性构建以及如何有效存储这些长期记忆等方面。


研究内容包括:

  1. 基于大语言模型的个人和组织数据预处理方法;
  2. 个人和组织长期记忆的识别机制研究;
  3. 大语言模型在长期记忆抽取中的算法设计与优化;
  4. 认知图谱构建与动态更新。


(7)长期记忆的符号表示与重构研究


针对当前人工智能系统缺乏人类般长期记忆能力的问题,研究如何在人工智能语境下实现长期记忆的符号化或知识化表示,并有效地还原和重构这些记忆。本研究旨在探索长期记忆的符号表示方法,设计兼具高效性和可靠性的存储与检索机制,促进人工智能系统在认知深度和学习能力上的提升。


研究内容包括:

  1. 长期记忆的符号化表示模型构建;
  2. 人工智能系统中长期记忆的存储策略;
  3. 基于知识表示的长期记忆还原与重构技术;
  4. 提升人工智能系统长期记忆能力的评估方法与优化策略。


(8)长期记忆在推理和规划中的作用机制研究


探讨长期记忆对于增强人工智能系统在逻辑推理、情境理解和复杂任务规划方面的能力的影响。通过积累和利用历史信息,模型能够更深刻地理解复杂任务的上下文,进行多步推理,制定更有效的规划策略。研究将涵盖长期记忆的整合方式、对即时决策的影响,以及如何通过优化记忆架构来促进AI系统的持续学习和适应能力。


研究内容包括:

  1. 长期记忆在推理过程中的建模与实现方法;
  2. 融合长期记忆的复杂规划算法设计;
  3. 长期记忆对多步推理与策略优化的影响分析;
  4. 动态环境下长期记忆的更新与管理机制;
  5. 长期记忆增强的推理与规划方法在实际应用中的验证与优化;
  6. 基于交互学习的系统进化,包括个体和群体用户行为反馈;
  7. 基于持续学习的系统进化;
  8. 基于演化计算的系统进化;
  9. 基于强化学习的系统进化;
  10. 面向特定任务求解的能力边界感知与理性决策。


(9)生成式人工智能的长期记忆应用探索


探讨生成式人工智能的长期记忆机制及其在各行业和场景中的实际应用。通过构建和优化具备长期记忆能力的生成模型,使其能够更有效地存储和检索信息,从而提升在复杂任务中的应用表现。


研究内容包括:

  1. 实现高效的垂直行业或场景的长期记忆结构,支持大规模信息的持久存储和动态更新;
  2. 探索长期记忆在个性化服务中的应用,如智能客服、个性化推荐等,提高用户交互体验;
  3. 研究长期记忆在专业领域的应用,如医疗诊断、金融分析等,增强模型的决策支持能力;
  4. 评估长期记忆机制对生成内容质量和一致性的影响,优化生成效果,推动生成式人工智能在实际应用中的广泛落地与创新;
  5. 检索问答、Smart Reply和内容生成的基础能力研究;
  6. 推荐系统的研究;
  7. 纯粹理性自动商业决策的探索。


(10)生成式模型的领域知识工程研究


近年来,生成式人工智能模型在诸多领域展现出强大的能力。然而,通用模型在特定领域或任务上的表现仍有提升空间。本研究方向聚焦于领域知识工程与生成式模型的深度融合,探索如何将领域知识有效融入模型的建模、学习、进化和人机协同过程中,提升模型在特定领域任务上的表现。


研究内容包括:

  1. 面向领域和任务的知识表示和获取方法;
  2. 基于领域知识的生成式模型优化建模方法;
  3. 领域知识引导的生成式模型学习和进化方法;
  4. 基于领域知识的人机协同生成式模型构建与应用。


(11)面向决策支持的长期记忆管理和调用


在人工智能决策辅助系统中,引入长期记忆机制有助于模型积累和利用历史信息,提升决策的准确性和可靠性。通过融合长期记忆,人工智能系统能够更深入地理解上下文、识别潜在模式、预测未来趋势,从而提供更智能的决策支持。


研究内容包括:

  1. 决策辅助系统中长期记忆的建模与实现方法;
  2. 长期记忆对复杂决策过程的影响分析;
  3. 基于长期记忆的决策算法优化与提升;
  4. 长期记忆在动态环境下的决策支持应用;
  5. 不同领域中长期记忆机制的适用性与优化策略研究;
  6. 面向特定任务求解的记忆体调用;
  7. 求解方案的动态评估与优选;
  8. 求解方案的持续反馈优化。


(12)认知数字孪生的构建与应用研究


为了提升 AI 助理对用户和环境的深度认知能力,本研究将致力于构建认知的数字孪生模型。通过对个体、群体和世界的认知感知,构建多层次的认知图谱,提升 AI 助理的推理能力和对复杂情境的理解。


研究内容包括:

  1. 个体认知感知与认知图谱构建;
  2. 群体认知感知与认知图谱构建;
  3. 世界认知感知与认知图谱构建;
  4. 认知孪生在 AI 系统中的应用。


(13)长期记忆的内生安全与隐私保护


在模型训练、微调、预测和决策过程中,需要大量的数据存储和交互(例如,可能包含公司财务投资决策等机密信息、体检报告等敏感的个人信息、CT影像等多模态医疗信息)。保护数据在存储时、使用中和传输过程的安全和隐私保护,不能仅从割裂的各个维度制定缓解措施(如:训练集的数据脱敏),可能要从大模型和长期记忆的总体框架,以数据的生命周期视角,识别关键风险,探索系统性的安全和保护机制。


研究内容包括:

  1. 以长期记忆的模型、算法、存储为研究对象,系统化的定性(定量)描述安全风险,研究安全机制;
  2. 在多模态数据前提下,研究不同数据安全和隐私保护机制对于长期记忆准确性和召回成功率的影响与提升方案;
  3.  对于潜在高风险应用场景(例如基于财务报表制定投资策略,基于体检报告提供健康建议),研究长期记忆内容的防篡改、模型的透明性和可解释性。


文章来自于微信公众号“追问nextquestion”


AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner