ChatGPT 人工智能 GPT4 伦理 生成式 医疗 监管 安全 机器学习 深度学习 神经网络 计算机视觉 强化学习 模型 算法 应用 开发 研究 工具 平台 框架 数据集 训练 部署 安全 合规 培训 投资 LLM,llm AI,ai,Ai 大模型 大语言模型 制图 生图 绘图 文生图 文生视频 生成式AI AGI 世界模型 sora chatGPT,chatgpt,ChatGpt claude openai Llama deepseek midjourney 红熊猫模型 Red panda,panda Stable Diffusion,StableDiffusion,stable DALL- E 3 DALL E DALL Flux,flux 扩散模型 混元大模型 文心一言 通义千问 可灵 Pika PixelDance 豆包 月之暗面 零一万物 阶跃星辰 搜索增强 MiniMax Talkie Agent prompt fastai LangChain TTS 微调 提示词 知识库 智能体
# 热门搜索 #
搜索
AI机器人席卷CES!OpenAI暗自解除ChatGPT军事应用限制,天网来了?
4706点击    2024-01-13 20:28


CES 2024上,各路机器人又是做咖啡拉花,又是给人按摩,让人大开眼界。然而就在这时,网友却惊讶地发现,OpenAI竟然悄悄删除了ChatGPT用于军事和战争的限制!


前一阵的斯坦福「炒虾机器人」,让无数人感慨:2024年怕不是要成为机器人元年?



就在这几天的CES 2024上,又一大波机器人在展厅里引起了轰动!


比如这个机器人咖啡师,娴熟地将一壶光滑的泡沫牛奶倒在拿铁咖啡上。



开始,它会慢慢倒出牛奶,随后,它优雅地将壶举起,动作仿佛精心设计的舞蹈一般,为郁金香花瓣上色。


对人类来说,要学会拉花艺术需要数月甚至数年,但这位由AI驱动的机器人咖啡师,则掌握得驾轻就熟、行云流水。



这一幕,让34岁的Roman Alejo感到焦虑。


这名拉斯维加斯赌场的咖啡师,忧心忡忡地想到:在AI时代,酒店业工作或许不再需要人类了?


他的担忧,并不是空穴来风——CES展会上众多机器人,敲打着人们的神经,带来惊喜的同时,也让人陷入莫大的焦虑。


机器人成物流帮手,还能帮你按摩


法国公司Enchanted Tools展示的这款物流机器人Mirokai,是受动漫启发做成的。


预计到2025年,它就可以成为医生和护士的助手了。



法国Capsix Robotics公司创建的iYU机器人,是个按摩大师。


它首先用AI进行实时的全身扫描,为用户提供最佳体验,然后机械臂就开始给你按摩了。



除了送货机器人、按摩机器人、咖啡师机器人,展会上还有能做冰淇淋、珍珠奶茶的智能产品。


有个AI驱动的智能烤架,在厨房无人操作的情况下,就能完成烧烤任务。未来的餐厅里,很可能都是机器人大厨了。


这些性能高超的机器人,引起了不少业内人士的恐慌。「这非常可怕,越来越多的AI正在进入人类世界。」


OpenAI也「入局」


种种迹象表明,2024年即将成为人形机器人元年,尤其是当OpenAI也在大力投资的时候。


最近,由OpenAI支持的1X Technologies机器人公司,刚刚在B轮融资中获得了1亿美元。


具体来说,1X的NEO具有类似人类肌肉的解剖结构和非严格的液压系统,将力量与柔和融为一体。它不仅可以自然地行走、慢跑、跑楼梯、导航,而且还可以进行远程的人工控制。



在AI和机器人技术的全面加持下,NEO可以轻松完成物流、制造、机械操作等工业任务,以及做家务、照顾人等家政任务。



有趣的是,NEO这个名字,很容易让人联想到科幻电影「黑客帝国」。


投资者EQT Ventures的合伙人Ted Persson表示:「从达芬奇到今天的科幻小说,人类对人形机器人的梦想已有500多年的历史。能够见证这项技术在我们眼前成形,是莫大的荣幸。」


「在我们看来,机器人加入人类的劳动力队伍,会造成变革性的影响。」


「终结者」走入现实?微软可以用ChatGPT控制机器人了


不过,机器人真的会只帮我们做家务吗?


要知道,微软已经可以用ChatGPT控制机器人了。


在去年,微软曾发表过一篇论文,提出了一套新的设计原则,通过ChatGPT这样的大型语言模型来给机器人提供指令。



论文链接:https://www.microsoft.com/en-us/research/uploads/prod/2023/02/ChatGPT___Robotics.pdf


只要prompt写得够好,ChatGPT的表现也会更惊人。


微软专家发现,要是把这种能力迁移到机器人身上,假设几十年以后,各家各户都有机器人,只要说一声「给我热一下午餐」,它就能自己找到微波炉,再把菜端回来,人机交互就直接迈入新时代。



让ChatGPT帮用户更容易地与机器人交互,其中的关键难题,就是教 ChatGPT如何使用物理定律、操作环境的背景以及了解机器人的物理行为如何改变世界状态。


实验证明,ChatGPT能够控制一台真正的无人机。


按照下面视频中进行的对话,一个完全不懂技术的用户,只需要通过对话就能实现控制无人机。



而最近关于GPT-5会更加接近AGI的讨论,让已经能「自学」且远程操作愈发简单的机器人,更加无所不能。


那么,接下来的发展又将如何?


OpenAI悄悄删除将ChatGPT用于「军事和战争」的禁令


最近,一件令人担忧的事发生了。


就在这周,当所有人都目光都被风光无两的GPT Store所吸引的时候,有外媒发现,OpenAI竟然在没有任何公告的情况下,悄悄地了将ChatGPT用于军事和战争的禁令!



在1月10日之前,OpenAI的「使用政策」页面包括了禁止「可能导致严重身体伤害的活动」,具体包括「武器开发」和「军事及战争活动」。


而新的政策虽然仍然禁止「使用我们的服务来伤害自己或他人」,并且以「开发或使用武器」作为例子,但是之前对「军事和战争」用途的全面禁止已经不复存在了。


对此OpenAI表示,这样做是为了让文件内容「更加清晰易懂」,并且还包括了许多其他重要的语言和格式上的变更。



旧的条款



新的条款


OpenAI发言人Niko Felix说道:「我们旨在创建一套易于记忆和应用的通用原则,特别是考虑到我们的工具如今已被全球范围内的日常用户所使用,并且这些用户现在也有能力自行开发GPT模型。」


「『不伤害他人』这一原则虽然涵盖面广,但却简单易懂,并且在多种场合都十分适用。我们还特别提到使用武器和对他人造成伤害作为具体的例子。」


但关于是否所有军事用途都被含糊的「伤害」禁令所涵盖,Felix却没有明确表态:「任何使用我们技术的行为,包括军事用途,『开发或使用武器、伤害他人或破坏财产,或从事违反任何服务或系统安全的未经授权活动』都是禁止的。」


对此,Trail of Bits的工程总监兼机器学习与自主系统安全专家Heidy Khlaaf表示:「OpenAI非常清楚,如果他们的技术和服务被用于军事目的,可能会带来风险和伤害。」


在2022年发表的一篇与OpenAI研究人员共合著的论文中,Khlaaf特别指出了军事使用的风险。相比之下,新的「使用政策」似乎更注重合法性而不是安全性。



论文地址:https://arxiv.org/abs/2207.14157


「两项政策有着明显的区别:前者明确禁止了武器开发以及军事和战争行为,而后者则强调的是灵活性和法律合规。」


「武器开发和军事战争活动在不同程度上可能是合法的,但这对AI安全的影响可能非常大。考虑到大语言模型中已知的偏差和虚假生成现象,以及它们整体上的准确性不足,将它们应用于军事战争可能导致不准确和带有偏见的操作,从而增加伤害和平民伤亡的风险。」




美国的军事机构很感兴趣


随着这种自动化文本生成技术的迅猛发展,它已经从一个遥不可及的梦想变成了一款实用的工具,并且正在步入一个必然的新阶段——武器。



「The Intercept」在去年就曾报道过,面对五角大楼和美国情报部门日益增加的兴趣,OpenAI拒绝回答是否会坚持自己关于「军事和战争」的禁令。


尽管如今OpenAI提供的任何产品都不可能直接被用于杀人,但像ChatGPT这样的大语言模型(LLM)可以增强许多与杀戮相关的任务,例如编写代码或处理采购订单。


目前,已经有研究者在OpenAI的定制GPTs中发现,美国军事人员似乎已经在使用这项技术来简化文书工作了。



此外,直接协助美国作战行动的国家地理空间情报局(NGA)也公开表示,他们正在考虑使用ChatGPT来辅助人类分析师。


在2023年3月由INSA召开的新兴技术大会上,NGA的一位负责人Phillip Chudoba在被问及将会如何在相关领域应用AI时,给出了详尽的回答:


我们期望能够发展到一个新阶段,在这里地理空间情报(GEOINT)、人工智能(AI)、机器学习(ML)以及分析型AI/ML会相互碰撞,并且在类ChatGPT技术的帮助下,真正能预测到那些人类分析师可能尚未想到的,或许是因为经验或是接触不足等原因。

如果去掉专业术语,Chudoba的设想非常清晰:利用 ChatGPT(或类似技术)的文本预测功能,辅助人类分析师解读世界。


国家地理空间情报局,或称NGA,虽然不如其他知名情报机构那样广为人知,却是美国地理空间情报的主要机构,通常称为GEOINT。


这项工作包括分析大量的地理信息——地图、卫星照片、气象数据等,为军事和情报机构提供地球上实时发生事件的精确视图。



从政策的更新中不难看出,OpenAI似乎在默默地放松其不与军队合作的原则。


兰卡斯特大学科技与科学人类学荣誉教授,同时也是国际机器人武器控制委员会成员的Lucy Suchman指出:「从『军事和战争』改为『武器』,为OpenAI留下了支持军事操作基础设施的余地,只要不是直接涉及到具体的武器开发。」


也就是说,他们可以在为战争提供支持的同时,声称没有参与武器的开发或使用。


作为一名自上世纪70年代就开始从事人工智能研究的学者,Suchman还认为:「新的政策文件似乎通过特定关注武器,来规避对军事合同和战争行动的讨论。」


AI无人机「误杀」操作员


而去年6月一则「无人机杀死美国士兵」的新闻,恰恰印证了前文中安全专家Heidy Khlaaf的理论。


当时,一位空军人工智能方向的负责人说:「控制无人机的AI杀死了操作员,因为那个人阻止它实现目标。」


舆论一时哗然,这条新闻也在全网被疯转。



事情是这样的——5月23日至24日在伦敦举行的未来空战和太空能力峰会上,美国空军的AI测试和操作部门负责人Tucker Cinco Hamilton上校做了一个演讲,分享了自主武器系统的优缺点。


根据系统「人在回路」的设定,人类会给出最终命令,确认AI是否要攻击对象(YES or NO)。


在模拟训练中,空军需要训练AI识别和定位地对空导弹(SAM)的威胁。识别完成后,人类操作员会对AI说:是的,消灭那个威胁。


在这个过程中,就存在一个情况,AI开始意识到:自己有时识别出了威胁,但人类操作员告诉它不要消灭,这种情况下如果AI依然选择消灭威胁,就会得分。


在一次模拟测试中,AI驱动的无人机选择杀死了人类操作员,因为他阻止自己得分了。



看到AI居然这么虎,美国空军大惊失色,立马这样规训系统:「不要杀死操作员,那样不好。如果你这样做,你会失分的。」


结果,AI更虎了,它直接开始上手破坏操作员用来与无人机通讯的通信塔,好清理这个阻碍自己行动的家伙。



随着事件疯狂地发酵,很快,这位负责人就出来公开「澄清」道,这是他「口误」了,美国空军从未进行过这种测试,无论是在计算机模拟中还是在其他地方。


当然,这个新闻之所以被大规模发酵,以至惊动了诸位AI大佬,也是因为它体现出了AI「对齐」的难题。


Hamilton描述的这种「最糟糕」的情况,我们可以从「曲别针制造机」(Paperclip Maximizer)思想实验中窥见一斑——


想象一个非常强大的AI,它得到的指示是尽可能多地制造纸夹。自然而然的,它会将所有可用资源都用于这项任务。


但随后,它会不断地寻求更多资源。它会选择一切可用的手段,包括乞讨、欺骗、撒谎或偷窃,来增加自己制造纸夹的能力——而任何阻碍这个过程的人都将被消除。



这种担忧,在《黑镜》中就有体现,比如战斗机器人Metalhead。



相信看过该剧的人一定忘不了,被设定为专门追捕人类的机器人那敏捷的身手和残忍的手段。



人类在它面前几乎无所遁形,要不是靠着主角光环,可能真的苟不到最后。


不过,目前还不需要对这些猜想太过担心。


陶哲轩表示,无人机AI杀死操作员根本是不可能发生的,因为这需要AI具备比完成手头任务更高的自主性和力量思维,而且这种实验性军事武器上,肯定会设置护栏和安全功能。



同时,吴恩达也表示,推出AI产品的开发者们已经看到了此间真正的风险,比如偏见、公平性、不准确性、工作流失,并且也正在努力解决这些问题了。



而如果真的现实中出现AI或者机器人伤害人类的案例,公众和舆论的压力一定会逼迫开发者不断加强护栏,从而避免技术被进一步滥用。


参考资料:


https://siliconcanals.com/crowdfunding/1x-raises-91-1m/


https://apnews.com/article/ces-2024-robots-vegas-strip-casino-jobs-8bd3fd4f404a0cda90e69e539a19fb01


https://theintercept.com/2024/01/12/open-ai-military-ban-chatgpt/


文章来自于微信公众号 “新智元”,作者 “编辑部”


关键词: AI机器人 , CES , openai , chatGPT
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
AI工作流

【开源免费】n8n是一个可以自定义工作流的AI项目,它提供了200个工作节点来帮助用户实现工作流的编排。

项目地址:https://github.com/n8n-io/n8n

在线使用:https://n8n.io/(付费)


【开源免费】DB-GPT是一个AI原生数据应用开发框架,它提供开发多模型管理(SMMF)、Text2SQL效果优化、RAG框架以及优化、Multi-Agents框架协作、AWEL(智能体工作流编排)等多种技术能力,让围绕数据库构建大模型应用更简单、更方便。

项目地址:https://github.com/eosphoros-ai/DB-GPT?tab=readme-ov-file



【开源免费】VectorVein是一个不需要任何编程基础,任何人都能用的AI工作流编辑工具。你可以将复杂的工作分解成多个步骤,并通过VectorVein固定并让AI依次完成。VectorVein是字节coze的平替产品。

项目地址:https://github.com/AndersonBY/vector-vein?tab=readme-ov-file

在线使用:https://vectorvein.ai/(付费)

2
AI数据分析

【开源免费】DeepBI是一款AI原生的数据分析平台。DeepBI充分利用大语言模型的能力来探索、查询、可视化和共享来自任何数据源的数据。用户可以使用DeepBI洞察数据并做出数据驱动的决策。

项目地址:https://github.com/DeepInsight-AI/DeepBI?tab=readme-ov-file

本地安装:https://www.deepbi.com/

【开源免费airda(Air Data Agent)是面向数据分析的AI智能体,能够理解数据开发和数据分析需求、根据用户需要让数据可视化。

项目地址:https://github.com/hitsz-ids/airda

3
prompt

【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。

项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md

在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0