# 热门搜索 #
搜索
周鸿祎首堂 AI 课引争议,疑似专业性错误太多
5261点击    2024-03-01 17:14

AI技术发展路径不唯一


在清华美院博士、知名 AI 博主李一舟被质疑割韭菜,授课内容全网下架后,360创始人周鸿祎、猎豹创始人傅盛等专业人士,纷纷宣布开启免费 AI 授课。


2024年2月29日,周鸿祎首堂AI课于开启,这是一场全网多平台直播的AI系列第一讲“预见AGI”,吸引了千万网友观看。


周鸿祎在这堂课上分享了他对AI新发展趋势的洞察,以及企业如何拥抱AI的建议。同时,他还现场演示了两款 AI 新产品——360AI搜索和360AI浏览器。由于提前演示了开发中的能力,现场出了一点小差错,周鸿祎直言现在希望把场下观众赶出去。


大家都理解开发中的AI产品,确实会有点小问题,并没有人在意这一点。相反对演讲中的一张图,纷纷提出了专业性指正。


整体课程认知很全面


在讲课中,周鸿祎强调了AI知识普及的重要性,他表示:“我讲课不割韭菜,宗旨是免费、分享、科普、交流。AI时代技术发展迅速,AI知识普及尤为重要。”这一点对于当下很多人被AI震惊的环境中,确实很关键。


他认为,中国需要走出有特点的大模型发展道路,从超级通用大模型、企业级大模型、场景落地三方面着手,全面推动中国大模型产业发展。对于AI领域的创业者,他提出了“三不要、两应该”的建议,认为创业者应该进军企业级市场,以及做应用的深度改造。这一点也很接地气。


此外,周鸿祎还分享了自己对AI的最新洞察,他认为AI的指数级跃升给人“度日如年”之感,自己去年年底预测的2024年AI十大发展趋势已经验证了八条。在谈到Sora的创新本质时,他认为Sora生成的视频不在于好看,而在于逼真,背后是Sora通过观察理解了世界常识。他将多模态发展总结为五个层次,即识别辨认物体、逻辑推理能力、逻辑合理性、评价鉴别能力、拥有世界常识,并称Sora已经具备了第五层的能力。


在周鸿祎的AI课上,他还提出了“AI三大心法”,包括建立AI信仰,行动上All in AI,并用含“AI”量来衡量。他表示,360将全业务线拥抱AI,在互联网、安全、数字化、智慧生活等业务领域落实三大心法。


此外,周鸿祎还谈到了AI与PPT的关系,他表示PPT最能忽悠人,360内部都禁用PPT,只有对外才使用。正是这张PPT,传出了一点问题。


一张图引起专业性争议


这堂课本身关注度挺高,毕竟是大佬亲身讲AI课,况且还是免费的。但其中一张PPT图片流传出来后,很多人开始谈论专业性。



在这张图片中,有名为howie的网友表示:


周鸿祎这张 PPT 的逻辑是混乱的。 模拟人脑神经网络是深度学习一直在做的事情,与 transformer 无关。 scaling law 也不是 transformer 这个架构的特点,而是深度学习,尤其是语言模型的特性。

预训练不需要数据标注,这不是自监督算法的特点吗?处理文本序列的模型都有这个特点啊。 最后一个,transformer 确实神奇地展示出了文本、语音、视频供吃的特性(wisper、gpt和 sora... 目前没有科学原理解释。但是我觉得这反应了语言的特点:语言是思维本身,是一切认知的基础)。

从这一点看,transformer 架构确实有“大一统架构”的潜力。 我觉得,周鸿祎除了最后一句话是对的,其他就是瞎说,不顾逻辑。

但也有网友表示,专业性错误没那么大。有名为Talk的网友表示,大家对周鸿祎这张图过度解读,他认为:


我来当老实人。1、transformer 这个应该是对的吧,现在LLM 都这个路线。至于成功模拟人脑这个,目前只能说模拟了部分,但也不能说错。

2、scaling law 这个有论文支撑的,问题不大。

3、预训练无需标注应该是指 tokenizer?这个确实是无监督。4,统一化处理这个应该不对,图片视频用的是 diffusion 算法。

还有网友leader2000认为,这句话除了第一句,其他都没毛病:


除了transformer模拟人脑神经网络之外其他三句基本都是对的,第一句transformer 符合scaling law,这点在hestness et al 2017,kaplan et al 2020,以及最近的schaeffer et al 2023中都进行了有力证明,第二句预训练无需标注,现在的llm基本预训练任务基本都是自监督,所以这句话也没什么问题。

从大家发言看,技术解释不严谨是肯定的,专业性争议确实有一点,有没有错误就见仁见智。


初衷是好的,AI技术发展歧路多


周鸿祎在李一舟舆论风波后,不怕大家评论他蹭流量和割韭菜,敢于第一时间开课讲AI,普及AI知识。从行动上看初衷是好的,毕竟在AI大潮来临之际,很多人不知道去哪学到更靠谱的AI知识。周鸿祎和傅盛都是技术出身,理论上比李一舟清华美院的博士,更加专业和靠谱。


从AI技术角度来说,Transformer模型确实是AGI(通用人工智能)的核心技术。


最早,Transformer模型的核心模块包括自注意力模块(self-attention)和其他跳层链接以及逐位FFN等结构。这些模块为Transformer模型提供了强大的特征提取和上下文理解能力。


随着研究的迭代,优化模型的计算复杂度,特别是在处理长文本任务时,优化self-attention结构成为了关键。


进一步地,为了应对更大规模的数据和更复杂的任务,研究者们开始探索更大规模的Transformer模型,即大模型(Large Model)。大模型通过增加模型的参数数量和深度,提高了模型的表示能力和泛化性能。这使得模型能够更好地捕捉数据的潜在结构和模式,从而实现更准确的预测和推断。


这个过程,国内鲜有企业走完。很多采用了开源 LLM大模型,属于在毛配房做装修。所以很多技术发展的路径,并不是深刻明白。


当然,360智脑是国内较早发布产品,以及算法模型备案的企业。从争议的角度来说,周鸿祎作为360董事长,离开技术开发一线已经很久。很多技术描述不绝对准确,也情有可原。


从争议的另一方面看,AI发展路径也并不是绝对统一,尤其在AGI刚刚开始的第一年的当下,普通人学习AI知识更应该辩证看,有人形容,AGI的技术发展和迭代以周为单位,不断更新自己的学习系统才是关键。


文章来自于微信公众号“AI鲸选社”(ID:aijingxuanshe),作者 “到底ge”


关键词: AI课 , AI知识 , 周鸿祎
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
AI搜索

【开源免费】MindSearch是一个模仿人类思考方式的AI搜索引擎框架,其性能可与 Perplexity和ChatGPT-Web相媲美。

项目地址:https://github.com/InternLM/MindSearch

在线使用:https://mindsearch.openxlab.org.cn/


【开源免费】Morphic是一个由AI驱动的搜索引擎。该项目开源免费,搜索结果包含文本,图片,视频等各种AI搜索所需要的必备功能。相对于其他开源AI搜索项目,测试搜索结果最好。

项目地址:https://github.com/miurla/morphic/tree/main

在线使用:https://www.morphic.sh/

2
无人直播

【开源免费】Streamer-Sales 销冠是一个AI直播卖货大模型。该模型具备AI生成直播文案,生成数字人形象进行直播,并通过RAG技术对现有数据进行寻找后实时回答用户问题等AI直播卖货的所有功能。

项目地址:https://github.com/PeterH0323/Streamer-Sales