
ICLR 2024 | 连续学习不怕丢西瓜捡芝麻,神经形态方法保护旧知识
ICLR 2024 | 连续学习不怕丢西瓜捡芝麻,神经形态方法保护旧知识以脉冲神经网络(SNN)为代表的脑启发神经形态计算(neuromorphic computing)由于计算上的节能性质在最近几年受到了越来越多的关注 [1]。受启发于人脑中的生物神经元,神经形态计算通过模拟并行的存内计算、基于脉冲信号的事件驱动计算等生物特性,能够在不同于冯诺依曼架构的神经形态芯片上以低功耗实现神经网络计算。
以脉冲神经网络(SNN)为代表的脑启发神经形态计算(neuromorphic computing)由于计算上的节能性质在最近几年受到了越来越多的关注 [1]。受启发于人脑中的生物神经元,神经形态计算通过模拟并行的存内计算、基于脉冲信号的事件驱动计算等生物特性,能够在不同于冯诺依曼架构的神经形态芯片上以低功耗实现神经网络计算。
两年的时间见证了DeepMind基于AlphaFold建立Isomorphic Lab,微软建立AI4Science Initiative, 以及国内深势科技,AISI等大力推动AI4Science建设的企业,学术机构的不断发展壮大。
谷歌旗下AI制药公司与全球两大制药巨头达成合作,标志着人工智能+生物医疗进入新的历史阶段。当地时间周一,Isomorphic Labs宣布与礼来和诺华签署了首个制药合作伙伴关系合同,将AI技术用于新药物的发现。
Coatue是一家总部位于纽约的对冲基金,以持之以恒地对TMT赛道押注受业界关注,自1999年由Philippe Laffont(菲利普·拉丰)离开老虎基金之后创办至今,它的管理规模已从4500万跨越到190亿美元。
所谓灾难性遗忘,就是一个在原始任务上训练好的神经网络在训练完新任务后,在原始任务上的表现崩溃式的降低。
无法控制成本的大模型终将被“快好省”的小模型取代今年最热的AI赛道中,机构们自然也得下一些判断,比如说——2024年大模型的一个趋势,是将变得“越来越小”。
香港中文大学(深圳)数据科学学院武执政副教授团队联合上海人工智能实验室 OpenMMLab 团队开源了综合音频生成项目 Amphion(安菲翁)。该系统旨在打造一个集语音合成转换、歌声合成转换、音效音乐生成等多功能为一体的开源平台。
OpenAI GPT-4.5 遭泄露,我们即将见识「加强版」多模态大模型
上个月,微软 CEO 纳德拉在 Ignite 大会上宣布自研小尺寸模型 Phi-2 将完全开源,在常识推理、语言理解和逻辑推理方面的性能显著改进。
都快到年底了,大模型领域还在卷,今天,Microsoft发布了参数量为2.7B的Phi-2——不仅13B参数以内没有对手,甚至还能和Llama 70B掰手腕!