谷歌科学家Nicholas Carlini:17个AI用法,让打工人效率翻倍

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
谷歌科学家Nicholas Carlini:17个AI用法,让打工人效率翻倍
5549点击    2025-03-05 08:49

新技术的普及,融入每个人的日常总要经历一个相当长的过程。对于大模型而言,同样如此。


我们相信,不少行业的从业人员已经将大模型融进工作流甚至日常生活中去了,也不得不承认大模型的普及率还没有达到顶峰,没有达到人人皆用的程度。


从实用角度出发,造成阻碍的因素是什么?普通人该如何使用大模型?大模型对于每个人的具体益处到底是什么?


谷歌DeepMind 研究科学家 Nicholas Carlini,一位机器学习和计算机安全领域的大牛。以最贴近现实实用的角度,分享了他对大模型的看法,以及自己对大模型应用的50个案例。


谷歌科学家Nicholas Carlini:17个AI用法,让打工人效率翻倍


其中包括:


-用我从未用过的技术构建完整的网络应用程序。

-在我此前从未使用过的情况下,教我如何使用各种框架。

-将数十个程序转换为C或Rust语言,以将性能提高10到100倍。

-精简大型代码库,大幅简化项目。

-为我去年撰写的几乎每一篇研究论文编写初始实验代码。

-自动化几乎每一项单调的任务或一次性脚本。

-几乎完全取代了用于帮助我设置和配置新软件包或项目的网络搜索。

-约50%取代了用于帮助我调试错误信息的网络搜索。


这些AI应用案例大致归为两大类,那就是“帮助我学习”和“自动化枯燥任务”。


乌鸦君做了部分精简,并摘取了17个人们在工作和生活中经常能够用到的案例,相信会对你有所帮助,以下为正文:


/ 01 /

构建完整的应用程序


去年,我制作了一个测试,让人们检验自己预测GPT-4解决一些任务能力的水平。


这个测试最终相当受欢迎,获得了超过一千万的浏览量。


猜猜怎么着?


这个应用程序几乎整个初始版本都是我让GPT-4帮我写的。


我通过一系列提问来实现这一点。一开始我询问应用程序的基本结构,然后逐步构建出各种功能。


整个对话长达30000字,着实考验了(当时最先进的)初代GPT-4模型的能力。


/ 02 /

借助大模型完成各类任务


回顾我与GPT-4的交流,你会发现各种类型的信息。


有的消息里,我只是用文字描述自己的需求,让模型给出完整的实现方案;有的消息里,我提出具体的修改要求.


比如“不用和平均分比较,能否用核密度估计(KDE)算出这是第几百分位?”;


还有的消息里,我只是复制粘贴错误信息,提出一个没有详细说明的问题.

例如“绘图时出现错误:numpy.linalg.LinAlgError:singularmatrix”;


也有一些情况,我只是寻求简单的一次性解答.


比如“如何用JavaScript给页面添加一个加载字符串内容的iframe?”


总的来说,能如此顺利交流的原因在于,大语言模型擅长解决前人已经解决过的问题。


我做的这个小测试,99%的部分不过是基础的HTML和Python网络服务器后端代码,门槛很低。


这个测试之所以有趣且受人喜爱,并非因为其背后的技术,而是测试的内容。


正是因为借助大语言模型自动完成了所有枯燥的部分,我才能轻松地做出这个测试。


事实上,我可以笃定地说,如果没有大语言模型的帮助,我很可能根本不会去做这个测试,因为我可不想花时间从头开始编写整个网络应用程序。


而我还是个懂编程的人!我相信,即便是现有的大语言模型,也足以让绝大多数人通过询问解决方案,去完成他们以前根本无法完成的有意义的任务。


接下来我还有几个类似的例子,我让大语言模型为我编写了完整的应用程序。等这些应用发布时,我会明确说明它们是在大语言模型的帮助下完成的。


/ 03 /

及时获取新技术进展


曾经,我会紧跟新框架的发展步伐。


但一个人一天的时间有限,而且由于工作的原因,我大部分时间都花在了解最新的研究进展上,而不是JavaScript框架的最新动态。


这就意味着,当我要开展一个超出我特定研究领域的新项目时,通常有两种选择。其一,我可以使用我熟悉的技术。


虽然,这些技术可能已经过时了一二十年,但如果项目规模较小,往往也够用了。


其二,我可以尝试学习新的(通常也是更好的)方法。


这时,大语言模型就派上用场了。像Docker、Flexbox或React这类对我来说全新的框架或工具,对其他人而言并不新鲜。


世界上可能有成千上万的人对这些技术了如指掌,大语言模型同样如此。


这意味着,我无需阅读那些假定读者具备特定知识、想要实现特定目标的静态入门教程,而是可以与大语言模型进行交互式学习,掌握解决任务所需的一切知识。


例如,今年早些时候,我在构建一个大语言模型评估框架,希望能在一个受限的环境中运行大语言模型生成的代码,避免它删除我电脑里的随机文件之类的情况。


Docker正是完成这项任务的理想工具,但我之前从未使用过它。


重要的是,这个项目的目标并非使用Docker,Docker只是我实现目标所需的工具。


我只想了解Docker中那10%的必要知识,这样我就能放心地以最基本的方式安全使用它。


要是在90年代做这件事,我基本上得买一本从基础讲起的Docker使用手册,读完前几章,然后跳着阅读以弄清楚如何实现我的需求。


后来情况有所改善,如果是在过去十年做这件事,我会在网上搜索一些介绍Docker使用方法的教程。


试着照着做,遇到错误信息时再上网搜索,看看是否有人也遇到过同样的问题。


但如今,我只需让大语言模型教我使用Docker。下面就是我向它请教的过程。


/ 04 /

开启新的项目


我年轻时学的第一门编程语言是Java。


我确实很喜欢编程,但有一件事我极其讨厌,那就是面对一个新项目的空白屏幕。


尤其是用Java的时候!哪怕只是让程序编译出一个“Hello,World”,那个“publicstaticvoidmainstringargs”是干嘛的?


括号该放在哪儿?哪些字母要大写来着?为啥这里用花括号,那里用方括号?


于是,我像任何一个孩子会做的那样,让我父亲帮我搞定。


时光飞逝二十年,如今面对不熟悉的框架开启新项目,我依旧满心抗拒。


光是处理那些样板代码就要耗费大量时间,而且我根本搞不清自己在做什么。


比如,最近我想写一些CUDA代码,来对比在GPU上进行简单贪心搜索和在别人优化过的高效CPU上实现的性能差异。


但我不会写CUDA序。我会写C语言,也明白GPU的工作原理、内核的作用以及内存布局等知识。


但要实际编写代码把任务发送到GPU上,我完全不知从何入手。


于是,我让大语言模型帮我写出CUDA程序的初稿。


它写得完美吗?当然不!但这是个开端,而这正是我所需要的。


你会发现这里的代码有很多错误,不过我完全能接受。


我并非寻求一个完美的解决方案,只是想要一个起点,后续我自己能接着推进。


要是未来的模型能表现得更好,那自然再好不过,但就目前而言,现有的模型已经帮了大忙。


再举个例子,和上面的情况完全不相关。


我在家做一些个人项目时,用到了树莓派PicoW,这是我第一次用它。


我想让它完成一些特定的任务,尤其是一些网络相关的功能。


我当然可以在网上找到有人写的不错的教程来指导我怎么做,但你最近浏览过网络内容吗?


搜索结果的前5条往往是垃圾内容农场产出的,里面的代码还是2008年的,而且有很多bug,只是为了搜索引擎优化(SEO)更新了一下,根本没法用。


于是,我直接让大语言模型教我怎么实现我的需求。


我之前接触过微控制器,大致了解它们的工作原理,但从未用过PicoW。


我只需要有人帮我处理好所有依赖项,后续的我自己就能摸索清楚。


每次接触新的微控制器,我写的第一个“Hello,World”程序都是让LED闪烁。


这样我就能测试是否能成功编译并将代码上传到设备上,引脚是否都设置正确,从而基本掌握操作方法。


所以,我直接让大语言模型给我一个闪烁程序的代码。(再说一次:网上肯定有这样的代码,但我还得去搜索。)


一旦代码能运行起来,我就知道后续该怎么做了。


我懂Python(信不信由你!),所以在解决了MicroPython的特殊问题后,我就可以直接继续编辑代码。


当我遇到需要特殊处理的问题时,我就直接让大语言模型帮忙。


比如,我接着让它帮我写一个连接Wi-Fi的脚本。


之后我又遇到了连接MQTT服务器的难题,同样向它求助。我现在经常这么做。


就连本节开头提到的例子也不是虚构的,我就曾询问如何使用Flexbox,因为我上次学习新的HTML布局方式还是用div标签替代表格的时候。


/ 05 /

代码简化


作为一名安全研究员,我经常会拿到一个包含别人数千行研究代码的新代码库,我得先弄清楚它的工作原理,然后才能对其发起攻击。


这听起来似乎不难,如果大家写的代码都很规范,那确实也不难,但现实并非如此。


研究人员并没有动力去发布规范整洁的代码,所以很多人会把能运行的代码随便一放就发布了(我自己也会这样)。


这里我没法分享和研究相关的例子,但可以讲一个我个人项目中的例子。


有人说我对康威生命游戏(Conway'sGameofLife)痴迷得有些过头。


最近,我想找一种在Python里快速评估生命游戏模式的方法。


有一个很棒的C++工具叫Golly能实现这个功能,但我不想把我的Python代码重写成C++代码。


Golly有一个命令行工具可以满足我的需求,我只需要正确调用它就行。


第一步是从支持大约50种不同命令行选项的C++代码里,提取出能完成我所需功能的部分。


于是我把500行C++代码一股脑丢给大模型,请求将其精简并能完成相同的任务。


大模型,完美的奏效了。


然后,我请求一个围绕C++代码的Python封装器,这同样有效。


这是那些令人烦恼的任务之一,如果由我来做,我可能永远不会完成。但现在我可以请求别人帮我完成,我得到的东西比我原来的Python代码快了100倍。


/ 06 /

解决令人厌烦的枯燥单调任务


这是另一类让人头疼到我可能永远都不会自己去做的任务。但现在我只需提出需求,就能得到解决方案。


现在这个方案的运行速度比我原来的Python代码快了100倍。


我发现自己经常会这么做。再举个例子,同样是在Python里,我也进行了类似的操作。


这些任务其实都不难,但每次这么做,我都能节省大量时间。


这就是我认为当下大语言模型了不起的地方之一:


这并不炫酷,说“我用大语言模型让生活变得更轻松,不过是做了些无聊的事”也不会在网上引起轰动,但这却是实实在在的帮助。


处理单调的任务


我有很多不得不做的事情,既无聊又无需动脑,但又必须完成。


事实上,我拖延任务的一个主要原因就是,我知道完成这些任务会既烦人又痛苦。


大语言模型极大地减轻了这种痛苦,让我知道自己只需解决有趣的问题,从而更容易开始做事。


例如,最近我要反汇编一个用Python3.9编写的程序。


大多数Python反汇编器只支持Python3.7及更早版本,无法处理我手头的3.9二进制文件。


反汇编本身并不是特别难的任务,主要就是在按照跳转指令重构控制流时别出错。


所以,我没有花时间手动为几百行代码里的数千个操作码进行转换,而是让大语言模型帮我完成。


它完成得非常出色!比我预想的要好得多。


再比如,当我需要将一些非结构化数据整理成结构化格式时,大语言模型也能帮上忙。有一次我在做某个项目,需要一份包含书名和作者姓名的列表。


我在网上找到了非结构化的数据,于是让大语言模型帮我进行格式化。


还有,最近我写了一篇关于如何破解某种防御机制的博客文章,想展示我修改代码的完整差异对比。


于是我粘贴了差异和之前如何将差异转换为HTML的示例,并让LLM按照之前的格式为我生成差异。


另外,在工作中我经常需要为使用的资源生成引用。谷歌学术可以方便地为论文生成引用,我只需复制粘贴就行。


但为网页生成引用有点麻烦,最近我就直接让大语言模型帮我生成(当然,我会检查生成的引用是否正确)。


这样的例子我可能至少还能再列举一百个,但我想你已经明白我的意思了。


我完全理解有人看到这些任务会说“就这?”


但请记住,五年前大语言模型连连贯的段落都写不好,更别说帮你解决整个问题了。


/ 07 /

让每个用户都成为“专家”


如果你见过有人使用某个工具,而他的熟练度远不如你,那场面可能会有点让人难受。


你会看到他们花上几分钟,甚至几小时去完成一个本来可以通过某种宏或者巧妙运用并行应用来自动化完成的任务。


但要学会使用这些方法来实现自动化需要时间,而且有一定难度。


例如,最近我想写一个Python程序来处理苹果Lisa键盘的输入。


我在网上找到一个用C语言写的实现,里面有很多类似“#defineKEYNAMEkey_code”的语句,我想把这些语句转换成一个Python字典,将整数代码映射到对应的字符串。


我是一个Emacs用户,我知道如何在Emacs里解决这个问题,而且也不算太难。


我刚录制的按键组合就能实现这个效果:


C-hC-s#def[回车]M-f[删除]C-dM-f

C-[空格]M-fC-wC-aC-y:"M-f",C-gC-]}C-[{


虽然,对我来说这几乎是自然而然的操作,但我花了半辈子才在Emacs里达到如此熟练的程度。


但现在有了连接到大语言模型的编辑器,你知道我会输入什么吗?


C-hC-h将这些#define重写成一个{keycode: string, ...}形式的字典

然后,文本就在我眼前被重写了!


在这种情况下,我认为大语言模型对非专家用户的潜在价值比对专家用户还要高。


模型提升了所有人的下限,如果你以前什么都做不了,突然之间就能做很多事情了。


/ 08 /

作为API


参考真正的程序员想要理解某个工具的工作原理时会阅读参考手册。


但我是个懒惰的程序员;我更愿意直接得到答案。因此,现在我向语言模型提问。


当我向人们展示这些例子时,有些人会变得有些防御性,他们说:“LLM没有做任何你不能用已有工具完成的事情!”


你知道吗?他们说得对。


但是,用搜索引擎能做的事,用一本关于该主题的实体书也能做;用一本实体书能做的事,通过阅读源代码也能做。


然而,每一种方式比前一种都简单。当事情变得更简单时,你会更频繁地做,而且方式上也会有所不同。


这就是我问“哪个$命令可以传递所有剩余参数”并获得答案的例子。(紧接着是另一个“我该如何使用这个东西”的问题!)这实际上是我最常用LLMs的方法之一。我之所以不能给你展示更多这样的例子,是因为我在Emacs和我的shell中都内置了查询LLMs的工具。因此,当我想要做这些事情的90%的时间,我甚至不需要离开我的编辑器。


/ 09 /

搜索难以找到的内容


在互联网上搜索内容曾经是一项需要学习的技能。


你想在查询中包含哪些特定的词汇?它们应该是复数还是单数?过去时?


你希望避免在页面上出现哪些词汇?我是想要X和Y,还是X或Y?


现在情况已经不同了。我想不起上次我在Google中使用OR的时间。我也想不起上次我使用减号(-)来移除结果子集的时间。


在大多数情况下,今天你只需要写下你想要找的内容,搜索引擎就会为你找到。但搜索引擎仍然不是100%的自然语言查询。


它仍然有点像你在玩反向危险边缘游戏,试图使用答案中会有的关键词而不是问题。


这是一项我认为我们几乎都忘记了我们学过的技能。


对于今天的一些简单任务(随着时间的推移会越来越多),语言模型只是更好。


我可以直接输入“所以我知道+对应于__add__,但是是什么”,它会告诉我答案是__inv__。这是用标准搜索引擎很难搜索到的东西。


是的,我知道有方法可以问,这样我就能找到答案。


可能如果我输入“python文档元类"add"”,我可以搜索页面上的并得到答案。


但你知道还有什么有效吗?


只要问LLM你的问题。这样做任何一次只节省几十秒的时间,但当你在解决某个编码任务的过程中,已经试图同时记住一百万件事时,能够将你试图解决的问题倾倒出来并得到一个连贯的答案是令人惊讶的。


这并不是说他们今天在这方面已经完美。语言模型只有在线上被足够频繁地重复时才知道事情。


"足够频繁"是什么意思取决于模型,所以我确实需要花一些精力思考我是应该询问模型还是询问互联网。但模型只会变得更好。


/ 10 /

解决一次性任务


程序可以分为两类。第一类是你希望能做好的程序,它们会存在一段时间,代码的整洁度很重要,因为未来几年你都要维护它们。


第二类程序则只会存在短短25秒,它们帮你完成某个任务后就会被立即丢弃。


在这种我完全不在乎代码质量、程序又完全自成一体的情况下,我现在几乎只让大语言模型帮我编写。


提醒一下:同样,这些任务中的大多数会让你看了之后说“就这点事儿?”


但就像我之前说的,我每天用于某个特定项目的时间有限。


如果能让我既节省时间,又节省精力去编写一个我再也不会用的程序,我肯定会这么做。


最常见的例子可能是帮我生成可视化研究实验数据的图表。我有几十个这样的例子,可能接近上百个而不是零个。


它们看起来基本都差不多,所以这里就举一个例子:


还有一个类似的例子是,当我有某种格式的数据,想把它转换成另一种格式的数据时。通常我只需要做一次,完成后就会扔掉生成的脚本。


我还能给你举上千个这样的例子。


很多时候,当我想编写一个足够简单的脚本时,我会直接让大语言模型完整地写出来。


比如,我让大语言模型给我写一个脚本,把我的论文读出来,这样我就能确保论文没有愚蠢的语法错误。


很多情况下,当我不太清楚自己想要什么时,我也会先让模型给出一些初始代码,然后再在此基础上进行迭代。


例如,这里有一个一次性任务,我只需要快速处理一些数据。


在2022年,我会花两分钟用Python编写代码,然后等上几个小时让它运行,因为这个程序只运行一次——优化它所花的时间比程序运行的时间还长。


但现在呢?我肯定会花同样的两分钟让模型给我生成一段能完成数据处理的Rust代码。


再比如,我让模型帮我下载一个数据集并进行一些初步处理。


对我来说自己做容易吗?可能吧。


但这不是我想思考的任务,我想思考的是用这个数据集开展的研究。


消除这些干扰,其价值远不止节省的那几分钟。


还有一次,我在编写一个程序,想用小方块3D打印出像素化图像。


为此,我需要把PNG文件转换成STL文件,但这不是项目的重点,只是过程中必须完成的事情。


所以,我让大语言模型帮我解决这个问题。


又如,最近我想用DockerCompose搭建一个新项目。


我遇到了一些问题,只想不惜一切代价让它运行起来,之后再去弄清楚哪里出了问题。


于是,我和模型来回交流了好几次,我只是不断复制错误信息发过去,直到它最终给了我一个可行的解决方案。


/ 11 /

通俗解释事物


我最近开始对电子学产生了兴趣。


我年轻的时候做过一些电子项目,并在大学期间上过几门相关课程。


但现在我想进行实际的电子项目,我发现有许多我不了解的细节,这让开始任何项目都变得困难。


我可以去读一本关于实用电子学的书。我可能真的会在某个时候这么做,以便彻底理解这个主题。但我并不想把我的时间花在感觉自己在学习上。


我从事电子学的部分原因是想从整天的阅读和写作中抽身而出。


这就是LLMs发挥出色的地方。它们可能不如世界上最出色的专家那样知识渊博,但成千上万的人可能知道我可能会提出的任何电子问题的答案。


这意味着语言模型很可能也知道答案。它乐于为我提供所有问题的答案,使我可以享受乐趣而不必纠结于细节。


虽然,我完全可以通过在互联网上搜索来找到答案,但在忙碌一整天后,简单地让模型为我完成这些工作的便利性使我感到非常放松。


这里是一些例子,展示了我如何询问语言模型有关电子学中事物工作原理的基本问题。


这些答案完美吗?谁知道呢。但有一点是肯定的,总比我一无所知要好。


/ 12 /

从寻求完整方案到获取修改提示


很多时候,我会先向大语言模型寻求一个完整的解决方案,然后再询问如何对其进行修改的提示。


在下面这次交流中,我一开始让它写一个解析HTML的程序,之后又询问关于API参考或其他改进方法的提示。


还有一次,我想跟踪我的电脑在一段时间内的内存和CPU使用情况。


我本可以花几分钟找出合适的命令,然后把它们组合成一个能实现我需求的脚本……但我也可以直接让大语言模型帮我搞定。


最近我在捣鼓一些电子方面的东西。我有一个能在Arduino上运行的C程序,但我想让它在树莓派Pico上以MicroPython的形式运行。


这个转换过程没什么特别的,只是需要完成而已。所以我没自己动手,而是让大语言模型来处理。


在另一个项目中,我需要用一些复杂的机器学习模型在交互式循环中对图像进行分类。


我可以自己编写代码,但我也可以直接让模型帮我完成。


/ 13 /

解决已有解决方案的任务


几乎所有事情都有人做过。你想做的事情几乎没有真正新颖的。而大语言模型非常擅长为它们见过的问题提供解决方案。


在最近的一个项目中,我需要提升一些Python代码的性能。


于是我(1)让大语言模型把代码重写成C语言,(2)让它构建一个能让我从Python调用C代码的接口。


这两项任务都“不难”。


把Python代码转换成C代码,我相信自己花一两个小时也能完成。虽然我不太清楚Python到C的API是如何工作的,但我相信通过阅读文档也能弄明白。


但如果要我自己动手,我肯定不会去做这件事。


这并非项目的关键环节,我宁愿等计算机慢慢运行,也不想花时间去优化那些不常运行的代码。


不过,对于简单的程序来说,把Python转换成C(大部分情况下)是一个技术流程,而且有一套标准的Python到C的调用规范。


所以,我直接让大语言模型帮我完成。


从那以后,我就觉得这是我随时都能让模型帮忙做的事。


基本上,任何时候我想要一段快速运行的代码,我就用Python描述需求,然后让模型生成优化后的C代码。


/ 14 /

为新项目做准备


对于一个即将开展且我可能会在这里提及的项目,我需要了解人们常用的简易无线电发射器有哪些。


由于我真正想要的是大众普遍认知的答案,大语言模型就是绝佳选择!


/ 15 /

修复常见错误


2022年之前,当我在使用一些流行工具或库时遇到错误信息,会遵循以下流程:


1. 复制错误信息。

2. 粘贴到谷歌搜索框。

3. 点击搜索结果中排名靠前的StackOverflow链接。

4. 确认问题是否正是我想问的;若不是,回到步骤2。

5. 将排名靠前的解决方案应用到当前任务中。

6. 如果方案不起作用,回到步骤2,更换搜索关键词,然后祈祷能找到解决办法。


说实话,通常出问题的工具和你最终要完成的任务可能隔了好几层关系,你其实根本不在乎它具体是怎么运作的,只希望它能正常工作就行。


那到了2024年,这个流程变成什么样了呢?


1. 复制错误信息。

2. 询问大语言模型“如何修复这个错误?[错误信息]”。

3. 按照大语言模型给出的分步解决方案操作。

4. 如果方案不起作用,就说“这个方法没用”。


我没有相关的对话记录可以给你展示这些例子(或者说,我花了一个小时也没找到),但其实有个很好的原因:


我已经把这个流程直接融入到我的工作流里了。


我是Emacs用户。我对自己的工作环境进行了设置,每当我运行一个程序,若它以非零状态码退出(意味着出现了问题),系统会自动调用当前最快的大语言模型,让它解释错误原因,并同时请求一个可以直接应用到代码中修复该错误的补丁。


如今,模型在大多数情况下还不能在这个任务上超越我,但已经很接近了。


时不时地,当大语言模型修复了一个我知道会很难追踪的错误(比如某个地方的拼写错误)时,我都会感到惊喜。


/ 16 /

还有无数其他用途


上面提到的所有对话,仅仅占我去年一年与大语言模型交互总量的不到2%。


我没有展示其他对话的原因,并非是模型在这些对话中让我失望了(虽然这样的情况也不少),而是因为:


(1)很多对话和我已经展示的那些遵循相同的模式;

(2)有些对话很难解释清楚,也不容易让你明白它们对我有什么用。


我完全预计未来我对这些模型的使用会持续增加。


作为参考,2024年我通过网页界面向大语言模型发起的查询比2023年多了30%——我甚至都没法统计通过API发起的查询增加了多少,但我猜至少是原来的两到三倍。


/ 17 /

评估大语言模型能做什么,而非不能做什么


评估大语言模型能做什么,而非不能做什么


我在面试求职者时得到的一条最佳建议是:根据一个人能做什么来评估他们,而不是看他们不能做什么。


我猜我随便问你几个问题,就能让你显得能力不足。


举个极端的例子:世界上有十亿人会说普通话,而我连数到十都不会。


如果,有人让我参加一场普通话小学考试,我肯定会惨败。即使,在计算机科学领域内,也有很多我一无所知的领域。


同样的道理,我不会因为人类无法在脑海中计算64位整数的除法(这对计算机来说是小菜一碟)就认为人类完全无用。


我也不认为仅仅因为你能想出一个大语言模型无法解决的任务,就否定它们的价值是合理的。


显然,做到这一点很容易。关键问题是,你能否找到它们能发挥价值的任务?


程序员们早就明白,一个东西可以因不同目的而有用。



文章来自微信公众号 “ 乌鸦智能说 “,作者 智能乌鸦



谷歌科学家Nicholas Carlini:17个AI用法,让打工人效率翻倍

AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
AI工作流

【开源免费】n8n是一个可以自定义工作流的AI项目,它提供了200个工作节点来帮助用户实现工作流的编排。

项目地址:https://github.com/n8n-io/n8n

在线使用:https://n8n.io/(付费)


【开源免费】DB-GPT是一个AI原生数据应用开发框架,它提供开发多模型管理(SMMF)、Text2SQL效果优化、RAG框架以及优化、Multi-Agents框架协作、AWEL(智能体工作流编排)等多种技术能力,让围绕数据库构建大模型应用更简单、更方便。

项目地址:https://github.com/eosphoros-ai/DB-GPT?tab=readme-ov-file



【开源免费】VectorVein是一个不需要任何编程基础,任何人都能用的AI工作流编辑工具。你可以将复杂的工作分解成多个步骤,并通过VectorVein固定并让AI依次完成。VectorVein是字节coze的平替产品。

项目地址:https://github.com/AndersonBY/vector-vein?tab=readme-ov-file

在线使用:https://vectorvein.ai/(付费)

2
AI搜索

【开源免费】MindSearch是一个模仿人类思考方式的AI搜索引擎框架,其性能可与 Perplexity和ChatGPT-Web相媲美。

项目地址:https://github.com/InternLM/MindSearch

在线使用:https://mindsearch.openxlab.org.cn/


【开源免费】Morphic是一个由AI驱动的搜索引擎。该项目开源免费,搜索结果包含文本,图片,视频等各种AI搜索所需要的必备功能。相对于其他开源AI搜索项目,测试搜索结果最好。

项目地址:https://github.com/miurla/morphic/tree/main

在线使用:https://www.morphic.sh/