造谣、色情、诈骗...AI正在污染全球互联网
造谣、色情、诈骗...AI正在污染全球互联网发展和治理,两手都要抓。
发展和治理,两手都要抓。
昨天晚上,我在微博上看到了一条热搜。
随着大模型飞速发展,AI应用也逐渐成熟。过去一年,在很多人还在琢磨能用AI来干啥的时候,已经有不少人靠着AI产品和信息差赚到了“真金白银”。
当AI遇上名人,还分得清真假吗?
2024 年 12 月初,网络上出现了一段带货视频,在视频中卖力地推销某食品的居然是国家传染病医学中心主任、复旦大学附属华山医院感染科主任张文宏医生。
试想一下,一位女性被AI肆意换脸生成色情图像,进而被陌生人围观、羞辱。而作恶之人在一次次发图,又转为私聊的加密对话中,完成隐秘狂欢甚至牟利。他们隐身在匿名账号背后,极少受到惩戒,只需点击删除,一切痕迹都消失了。
如今,人们选择餐厅,多半会打开app搜索一番,再看看排名。然而美国奥斯汀的一家餐厅Ethos,社交媒体instagram宣称它是当地排名第一,拥有7万余粉丝。但这家看起来很靠谱的餐厅根本不存在,食物和场地的照片都由人工智能生成。可它家发布在社媒上的帖子却得到了数千名不知情者的点赞和评论。大模型通过视觉形式误导公众认知,这样的例子在今天比比皆是。
AI生成图像真假难辨,引发信任危机与信息误导。
连最积极搞AI的李彦宏,在这件事上也迟疑了。 “百度不碰Sora类的视频生成方向。”李彦宏在近期的2024年Q3总监会上说道。原因在于,10年、20年都可能难以商业化应用。 从OpenAI Sora横空出世,再到6月的快手可灵全量上线,视频生成成为2024年最火热的AI话题。
用AI解决AI害人问题 西班牙的米丽亚姆·阿迪布的女儿今年14岁,有一天,女儿告诉她自己被“霸凌”了,她拿出手机,向阿迪布展示了一张不属于自己,但却有自己的脸的露骨照片。