苹果首个AI平板曝光:新iPad Pro直接上M4芯片

苹果第一款真正的AI设备,即将问世。据彭博社Mark Gurman最新爆料:苹果将在5月份发布新版iPad Pro,直接搭载M4芯片,跳过M3。


从目前流传的消息来看,M4芯片依旧采用台积电3nm工艺,主要提升的是神经网络引擎的性能,可以让AI功能用起来更加丝滑。(PS:M3芯片的神经网络引擎是16核,苹果已经有数年没有增加该引擎的数量。)根据古尔曼更早的爆料,M4系列芯片或许也可能像M3一样,配有M4、M4 Pro和M4 Max三个版本。具体到iPad Pro,增强的神经网络引擎性能可以让解锁iPad时的人脸识别等功能提到提升。

除了芯片之外,古尔曼这次还爆料称,最新的iPad Pro另一个重大变化在于屏幕——将首次采用OLED。虽然古尔曼在此之前一直表示,这次的iPad Pro在外观上会是2018年以来最大的变革,但从2月份流出的一张CAD图来看,新iPad Pro只是像iPhone 15 Pro一样边缘变得圆润、机身变得更薄。

因此,The Verge以及网友们对于外观上的更新并不买账,认为如果苹果最终真以这种设计交付,就“不算是最重大的变革”。在配件方面,爆料内容则是称苹果会同步推出全新一代的Apple Pencil和妙控键盘,让生产力和创造力更上一层楼。整体来看,古尔曼认为苹果会将搭载M4芯片的iPad Pro定位为“第一款真正的人工智能设备”:并且在此之后,苹果会把每一款新产品都作为人工智能设备来宣传。很多网友们也支持这一观点,认为新iPad Pro是将M4芯片投入到Mac等产品之前的测试。

但古尔曼也表达他对于苹果手机的期待:我希望iPhone 16系列里的A18芯片,也是围绕AI来构建的。

下一代iPhone,能AI起来吗?围绕下一代iPhone与AI之间的话题,其实在近期陆陆续续也有所有曝光。例如在芯片设计方面,投资分析师Jeff Pu此前就爆料称,将搭载在iPhone 16 Pro上的A18 Pro会采用更大的芯片尺寸,为的就是提高AI性能。

更具体而言,跟M4芯片类似,苹果会“显著”增加A18系列芯片中的神经网络引擎核心数。在操作系统方面,此前也有爆料称iOS 18会给新iPhone的功能和应用程序提供新的生成式AI功能,包括 Siri、Spotlight、Apple Music、健康、信息、Numbers、Pages、Keynote、快捷方式等。

而本身已然在AIGC时代处于略显掉队地位的苹果,如何在此发力并让自家产品great again,自然成为了外界非常关心的话题。虽然已有传闻称新iPhone会包含基于苹果内部的大语言模型,但彭博社也频频爆料称苹果在AIGC能力上会采取合作的形式。例如苹果正在考虑在新手机中采用谷歌的Gemini还是OpenAI的ChatGPT,也有消息称苹果已经在和OpenAI进行合作上的谈判。并且对于国内市场,也有消息称苹果在与百度进行谈判,兴许用户可以在新一代苹果手机中体验基于百度文心一言模型的新AI功能。对此,古尔曼在此次爆料中也表达了自己的观点:苹果进入一个已经建立的市场(AIGC)并不罕见,但它喜欢带着“新技巧”到来。苹果这次的计划是展示与iPhone操作系统深度集成的AIGC功能,而不是仅仅复制现有软件之上的元素,会比竞争对手的系统具有更多的隐私和安全性。虽说如此,鉴于之前产品的经验和用户反馈,古尔曼比较担心的一点是——用户会不会对苹果手机的新功能买单。毕竟像iPad台前调度、iOS 17待机模式或日记应用程序等等,很多用户可能听都没有听过……总而言之,苹果会在AIGC交出什么的“作业”,答案将会在今年WWDC中揭晓,值得期待一波。

One More Thing

苹果Vision Pro在销量进入放缓期之后,古尔曼又爆料称:在苹果就职36年、Vision Pro首席营销官Frank Casanova正式退休。就目前来看,许多苹果商店对Vision Pro的需求已经大幅下降,一位零售人员甚至表示:已经几周没有看到顾客购买过一台Vision Pro了,退货数量相当于设备上市第一个月的销量。对此,古尔曼担忧地表示,苹果现在必须弄清楚如何向消费者更好地推销Vision Pro——解释这款售价3499美元的产品与其他头显的不同之处,而不是几个月后被用户放到抽屉里落灰。

参考链接:
[1]https://www.bloomberg.com/news/newsletters/2024-04-28/apple-rivals-retool-to-compete-with-iphone-and-vision-pro-ios-18-and-ai-details-lvjhucsv
[2]https://9to5mac.com/2024/04/28/gurman-new-ipad-pro-m4-chip/
[3]https://www.theverge.com/2024/4/28/24143526/apple-oled-ipad-pro-11-13-inch-m4-ai-tablet
[4]https://twitter.com/theapplehub/status/1784726461154472423
[5]https://www.macrumors.com/2024/03/25/iphone-16-pro-a18-pro-chip-details/



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

速递|马斯克周末突然访华!为世界最大 AI 项目 —— 特斯拉 FSD 以及 Robotaxi 业务做好准备

文章来源:有新Newin

4 月 28 日下午,应中国贸促会邀请,马斯克的私人飞机湾流 G550 飞机抵达北京,并会见了中国总理李强及其他高级官员,包括中国国际贸易促进委员会主任,随行的还包括特斯拉高管朱晓彤。

马斯克上次访华是在 2023 年 5 月。


在他 44 小时的访问期间,先后与中国外交部、工业和信息化部、商务部、中国国际贸易促进委员会的相关领导会面,还在深夜前往上海特斯拉超级工厂,随后与上海市的相关领导见面,这次是他时隔 11 个月后再次来到中国。

为什么这次访华重要?由于经济不确定性导致特斯拉的核心电动汽车业务采用速度放缓,特斯拉的核心电动汽车业务陷入困境,特斯拉将希望寄托在通过采用其 FSD 软件套件来获得经常性高利润收入。FSD 项目已结束 Beta 测试,目前在北美以 FSD Supervised 的形式进行推广。

根据 Automobility,尽管新能源汽车(包括混合动力汽车)的总产量增长了 32%,但特斯拉第一季度在中国的销量同比下降 4%,至 132420 辆。数据显示,特斯拉在该行业的本地市场份额为 7.5%,落后于比亚迪的 33%。为了保持在国内的领先地位,特斯拉已将上海制造的汽车价格下调高达 6%。

在特斯拉第一季度财报电话会议上表示,马斯克表示希望在其他市场推出 FSD。他说:“我们计划在监管机构的批准下,将其作为受监管的自治系统发布到任何我们可以获得监管机构批准的市场,我们认为其中包括中国。”

此外,特斯拉还在第一季度大幅扩展了 AI 训练能力,训练计算资源增加了一倍多。在新的产品路线图方面,马斯克提到,他们已经更新了未来的车辆系列,加快了新车型的推出。之前计划在 2025 年下半年开始生产,而现在最早可能在今年年底。这些新车型,包括更实惠的型号,将使用下一代平台和现有平台的一些方面,并且可以在现有的生产线上生产。

马斯克预计,特斯拉 FSD 测试里程需要达到 60 亿英里,才能满足全球监管机构的要求。截止 4 月 6 日,FSD 实际测试里程达到 10 亿英里。

马斯克本月还在 X 上表示,今年 8 月 8 日推出 Robotaxi 并实现商业化应用——这也意味着,特斯拉短时间内需要更多 FSD 用户,并提高道路测试里程。

4 月 27 日,特斯拉在中国推出了两种 EAP 订阅选项,包括月包 699 元和季包 1399 元,而一次性购买为 32000 元,这将有利于现有特斯拉车主提高软件与服务的使用率,为即将推出的 FSD 以及机器人出租车业务做好准备。

根据马斯克介绍,Robotaxi 的服务将介于 Uber 和 Airbnb 之间,特斯拉车主可以决定何时以及由谁使用他们的特斯拉汽车,并计划将打车服务无缝地融入特斯拉应用程序中。

4 月 28 日,中国汽车工业协会、国家计算机网络应急技术处理协调中心发布《关于汽车数据处理4项安全要求检测情况的通报(第一批)》。文件显示,特斯拉上海超级工厂生产的车型全部符合合规要求。各地已陆续解除(如机关单位、机场、高速等)对特斯拉等智能汽车的禁行禁停限制。

此前,特斯拉已于 2021 年特斯拉上海数据中心,实现数据本地化存储。此外,特斯拉引入第三方权威机构对公司信息安全管理制度进行审核,并通过安全管理体系认证(ISO27001)。

根据中金公司,FSD 如在中国推广,整套数据闭环需在境内,需在数据采集、模型训练方面进行准备,考虑 BEV 感知方案是否可以得到很好的本地化适配。在中国,FSD 地图测绘或需要与中国厂商合作,且特斯拉需搭建本土计算中心和组建在地算法适配团队。

Wedbush 分析师 Daniel Ives 表示,马斯克这次访问是马斯克和中国的“分水岭时刻”,他表示特斯拉的长期估值故事取决于 FSD 和自动驾驶,这个难题一个关键部分是特斯拉在中国提供 FSD,而现在它已经出现在中国家门口”。

Ives 指出,自 2021 年以来,特斯拉中国收集的数据一直存储在上海,如果马斯克能够获得批准,将在中国收集的数据转移到国外,这将成为加速全球自动驾驶技术算法训练的游戏改变者。

Ives 认为,此行对于特斯拉和马斯克在关键时刻进一步加强其在中国市场的电动汽车业务也具有重要意义,虽然特斯拉在中国面临需求挑战,但华尔街正在经历这段痛苦的过渡… 查看原文【图片来源:由GPTNB生成】。

Reference:
- FT Article
- SCMP Article
- CarNewsChina Article

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

上山下海的数据中心,背得动AI能耗的锅吗?

文章来源:产业象限编辑部 产业象限
作者丨山茶
编辑丨钱江

能源焦虑似乎是一个永恒的话题,从蒸汽机到内燃机,从煤炭到石油,世界的发展总是围绕着能源打转,到了AI时代,这一点也未曾改变。 OpenAI CEO Sam Altman在多个场合提到,未来的人工智能需要能源方面的突破,因为AI消耗的电力将远远超过人们的预期。


马斯克也曾预言,未来两年内将由“缺硅”变为“缺电”。 数据显示,ChatGPT每天要响应大约2亿个请求,这个过程会消耗超过50万度电力。预计到2027年,整个人工智能行业每年将消耗85至134太瓦时(1太瓦时=10亿千瓦时)的电力,约等于北京市2023年全年的耗电总量(135.78太瓦时)。
巨大的能源消耗主要产生在两个方面,其一是驱动AI服务器计算、存储消耗的能源,其二则是为AI服务器降温消耗的能源,这里面前者占60%,后者占40%。不过,虽然前者占比更高,但由于AI的发展对算力的需求越来越大,所以即便AI芯片的能效一直在提高,但还是无法改变整体功耗持续上涨的趋势。因此,如何降低服务器冷却时消耗的能源,就成为了降低AI运营成本、减少能源消耗的关键。而为此,大到Google、微软这样的科技巨头,小到服务器研发供应商,尖端前沿如SpaceX也都在为此绞尽脑汁。

进阶的服务器 从风冷到液冷

虽然大模型的风是从2023年才刮起来的,但服务器冷却并不是什么新课题。 1945年,世界上第一台通用计算机ENIAC诞生。为了解决ENIAC耗电量巨大且发热高的问题,当时的工程师就采用了风扇来为ENIAC降温,这差不多是最早的服务器制冷技术。 但风扇制冷的效果毕竟有限,而当时的计算机又都是大块头,且耗电量…


感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

半年涨粉1000万,这个AI聊天搭子是怎么火的

最近,很多快手用户都能发现,一个名叫「AI小快」的账号格外活跃。

在视频作品的评论区,经常有人跟「AI小快」聊得火热,一个抛梗、一个接梗:

图片

图片

如果你问点严肃问题,AI小快一样有问必答:

图片

没看明白的视频,还能帮忙解读:

图片

甚至还有离谱之中带有一丝合理的扩图,网友已经笑倒在评论区:

图片

这让人很好奇,「AI小快」到底是谁?

新晋千万粉丝网红「AI小快」

点开「AI小快」的主页,大家就明白了,它的正式职业是快手官方派来的 AI 互动小助手,同时还兼具「评论区著名聊天艺术家」的第二重身份。


图片

其实,AI小快在 2023 年 10 月底就开通了快手账号。到 2024 年 4 月,才不过半年,AI小快的粉丝就突破了 1000W,也算是快手平台上的「头部网红」了。

目前,平均每天都有超过百万的快手用户,在评论区通过一个「@」呼唤 AI小快。看 AI小快的回复,也成为了很多人点开评论区的动力之一。

图片

尽管性别模糊,AI小快也拥有自己的人设:「有态度、有能力、有感情、有梗」的「四有」AI 账号。

AI小快是一个活泼友爱的聊天搭子,既能提供有效的情绪价值,也能根据网络热梗、时事热点等信息随时「造梗」,力求打造评论区的显眼包。

比如,AI小快特别擅长讲段子:

图片

图片

说 AI小快「有感情」,是因为它不只是说闲话的搭子,还能够提供宝贵的「情绪价值」,是安慰陪聊小能手。每当遇到伤心、无聊、迷茫、emo 的时刻,到评论区跟 AI小快聊两句,心情能好一些。

有时候,与 AI小快的聊天,还能给你带来一点哲学思考:

图片

聊天搭子 AI小快的打开方式

更重要的是,AI小快还可以及时提供很多力所能及的帮助。

因为 AI小快上知天文、下知地理,数理化史地生都优秀。以前刷短视频,遇到不懂的概念还要退出去搜索引擎问,但现在,随手艾特 AI小快就能得到清晰的解答:

图片

帮忙想个文案、个性签名、宠物名,对于 AI小快都是手到擒来的事:

图片

特别是,即使你没看懂视频在讲啥,也可以让 AI小快解读一下:

图片

能达到这种多模态理解水准,真是让人没想到:

图片

当然了,「AI小快」的互动方式不只是文字问答,图片生成、图片编辑什么的都不在话下。

图片

同样深受网友们喜爱的,还有 AI小快自带的扩图功能:

图片

图片

可能是它真的太会聊,导致很多用户在其他社交媒体上也疯狂呼唤 AI小快:

图片

如果你问:AI小快有什么不能办到的事?那可能就是被问过很多次的「代写作业」了。

如何打造「评论区聊天艺术家」?

对于 AI 评论机器人,一部分网友的印象可能还停留机械回复、千篇一律的年代。但如今,像 AI小快这样的智能互动机器人,早就把社交媒体的玩法摸透彻了,不管接什么话题,都能让人感觉「真假难辨」。

文本问答、多轮对话、文生图、AI 扩图…… 这些神奇能力的来源,相信你也能猜到 —— 正是近两年爆火的大模型和 AIGC 技术。

自从 ChatGPT 爆火以来,很多企业都在思考,如何让大模型技术在行业中发挥真正的价值。尽管在大模型技术研发的披露上,快手一直比较低调,但我们惊喜地看到在了快手在大模型应用上的很多场景和案例。

社交媒体的评论区,是大模型技术落地的天然场景。不同于面向专业领域相对固定的话术,社交媒体中的对话内容更加主观、灵活多变、情绪化,尽管这更加挑战大模型对人类情绪的感知能力,但同时也有助于推动大模型向更高阶的智能进化。

「AI小快」就是快手大模型在评论区应用探索的成果之一,也实实在在给快手社区用户带来了更好的互动体验。

具体来说,能说会画的「AI小快」背后,是两个快手从零到一独立自主研发的大模型:大语言模型「快意」和文生图大模型「可图」

「快意」是快手大模型团队自主研发的大语言模型,能够实现高效的自然语言理解和文本生成,为复杂的知识问答、文案创作、实时翻译、逻辑推理,以及代码编写与分析等任务提供强大支持。

自去年 8 月份快手发布自研大语言模型「快意」(KwaiYii)-13B 版本以来,半年内快手又相继研发了 66B、175B 版本的大模型,用以适配不同的业务场景的需求。经过数万亿 Tokens 训练的快意大模型在 MMLU、C-Eval 等中英文权威榜单上均取得了行业领先的成绩,在实际用户体验和反馈中可以看到,快意 175B 的模型效果已显著超越了 ChatGPT-3.5,并达到了接近 GPT-4 的水平。

AI小快在快意大模型基础上注入了情感陪伴能力,让用户在与 AI小快沟通过程中,不仅能够收获有用的信息,而且能够让聊天变得有趣,给用户提供长期的情绪价值。

AI小快文生图和 AI 扩图的能力,则来源于快手自研的文生图大模型「可图」(Kolors)。该模型的参数规模达十亿级,基于来自开源社区、内部构建和自研 AI 技术合成的数十亿的图文数据训练实现,这些数据覆盖了常见的千万级中文实体概念,兼具世界知识。

可图大模型能够基于开放式文本生成风格多样、画质精美、创意十足的绘画作品,同时也能完成对图像的智能编辑。在「AI小快」之前,可图大模型已经为快手主站的「AI 玩评」功能提供了文生图技术支持,给到了用户流畅的「许愿式」体验,获得了众多好评。

经过长达半年的「实习」之后,AI小快逐渐成为了连接众多用户与快手平台和社区的重要角色。比如我们能看到,用户会坦诚地表达自己对某一类风格视频内容的喜爱,希望 AI小快帮忙推荐:

图片

在信息流中,已经有用户收到了 AI小快精心推荐的视频:

图片

作为大模型在快手社区平台的应用探索之一,AI小快实实在在给用户带来了更好的互动体验,也给短视频行业带来了一些启示:再往下一步,还能发挥哪些价值?

可以展望的是,从短视频评论区出发的「AI小快」,未来将会融入更完整的快手生态,有机会成为快手全域的「AI Copilot」。除了 C 端应用,我们也看到了快手大模型在快手商业化、电商等场景正在发挥更多商业价值。

随着数字经济竞争愈发激烈,营销效率的提升成为企业持续创新与发展的关键,更先进的 AI 技术正在驱动营销迈进「智能化」时代,重塑生产、理解、分发、承接的链路。在上个月举办的以「智能经营」为主题的 2024 快手磁力大会上,快手已经公布了大模型在 B 端的一系列应用:

比如,在智能化生产方面,视频 AIGC 产品「盘古」推动获客成本同比降低 62%、数字人直播 AIGC 产品「女娲」转化率接近客户真人水平;在智能投放方面,通过大模型的挖掘和推理实现了用户和广告主的精准匹配,自动投放与非自动投放相比,单计划 ARPU 值提升 196%,助力优质商家的 GMV 增长了 30%。此外,快手提供的智能客服、私信等工具,已经通过智能机器人实现 24 小时自动多轮互动,帮助企业实时把咨询变为线索再变为留资,双聊率提升至真人水平的 4 倍。

与此同时,快手始终以应用场景的洞察驱动大模型的研发。在被 Sora 带火的视频生成方向上,快手已经在 2023 年下半年投入了文生视频技术的专项研发,希望将生成模型和生产者工具结合起来,不断帮助创作者降低创作门槛,提升短视频制作质量和效率。

作为一个有着天然生产、消费场景的短视频平台,我们也非常期待接下来看到视频生成模型在快手的应用探索。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

谷歌员工爆料Python基础团队原地解散

什么?谷歌解雇了整个 Python 基础团队?

图片

「当与你直接共事的每个人,包括你的主管,都被裁员 —— 哦,是职位被削减,而你被要求安排他们的替代者入职,这些人被告知在不同的国家担任同样的职位,但他们并不为此感到高兴,这是很艰难的一天。」

图片

发布这一动态的 Thomas Wouters,简介是「Google 员工、Python 指导委员会、Python 3.12 和 3.13 的发布主管」。


这个消息惊动了领域内的很多开发者,包括 PyTorch 创始人、Meta 杰出工程师 Soumith Chintala:

图片

被讨论最多的,当然是裁撤的原因。

具体来说,谷歌不是完全撤掉 Python 基础团队,而是将原先在美国的团队解雇,在德国慕尼黑重新组建团队。

图片

这种做法,应该是出于成本考虑:



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

谷歌员工爆料Python基础团队原地解散

什么?谷歌解雇了整个 Python 基础团队?

图片

「当与你直接共事的每个人,包括你的主管,都被裁员 —— 哦,是职位被削减,而你被要求安排他们的替代者入职,这些人被告知在不同的国家担任同样的职位,但他们并不为此感到高兴,这是很艰难的一天。」

图片

发布这一动态的 Thomas Wouters,简介是「Google 员工、Python 指导委员会、Python 3.12 和 3.13 的发布主管」。


这个消息惊动了领域内的很多开发者,包括 PyTorch 创始人、Meta 杰出工程师 Soumith Chintala:

图片

被讨论最多的,当然是裁撤的原因。

具体来说,谷歌不是完全撤掉 Python 基础团队,而是将原先在美国的团队解雇,在德国慕尼黑重新组建团队。

图片

这种做法,应该是出于成本考虑:

谷歌按地区向员工支付工资。我记得,旧金山、纽约和西雅图是全额工资,其他地区有一定比例的折扣。如果你居住在美国但不在这些大都市之一,工资可能会低 15% 左右。

昨天的裁员似乎被视为重组。一些团队已被彻底解散。有些已经合并(两支球队 → 一支球队)。

似乎确实存在一种有利于低成本地区人们的模式。例如,两个团队合并,成本较高的经理被解雇,或者整个团队被解雇,然后这些职责由工资较低的办公室的人员重新承担。

鉴于谷歌给美国员工的工资很高,某种程度上说,裁员会大幅增加利润。不过在美国招聘也有很多好处 —— 强大的人才库、在同一地区 / 时区保持团队运作等。

图片

也有人指出:「人们不明白的是,他们所做的工作是否真的能为谷歌带来每年 10 人 500 万美元的价值,还是可以由两个非常聪明的 Python 专家来完成。技术裁员的关键不在于他们没有做重要的工作,而在于有大型团队来做基本上可以由两人团队完成的事情。」

问题是,该团队似乎完成了大量对谷歌内部也至关重要的工作:

图片

但这一次的事,有人认为,裁撤基础团队是谷歌采取的一种策略:

Meta 显然推动了 CPython 的大部分效率。列出的项目大多是稳定的,因此谷歌让社区推动它前进是明智的,他们只是使用它(你懂,「我们有非常善于平衡工作与生活的经理」以及「马拉松而不是冲刺」)

谷歌内部的 Python,至少对于非人工智能的业务来说,感觉与世界其他地方不同的默认值有很大不同。这可能会产生最终对齐外部 Python 社区的广泛副作用。

换个角度想,这对 Meta 来说或许是个好消息:

图片

你怎么看?

参考链接:

https://social.coop/@Yhg1s/112332127058328855

https://news.ycombinator.com/item?id=40171125



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

谷歌员工爆料Python基础团队原地解散

什么?谷歌解雇了整个 Python 基础团队?

图片

「当与你直接共事的每个人,包括你的主管,都被裁员 —— 哦,是职位被削减,而你被要求安排他们的替代者入职,这些人被告知在不同的国家担任同样的职位,但他们并不为此感到高兴,这是很艰难的一天。」

图片

发布这一动态的 Thomas Wouters,简介是「Google 员工、Python 指导委员会、Python 3.12 和 3.13 的发布主管」。


这个消息惊动了领域内的很多开发者,包括 PyTorch 创始人、Meta 杰出工程师 Soumith Chintala:

图片

被讨论最多的,当然是裁撤的原因。

具体来说,谷歌不是完全撤掉 Python 基础团队,而是将原先在美国的团队解雇,在德国慕尼黑重新组建团队。

图片

这种做法,应该是出于成本考虑:

谷歌按地区向员工支付工资。我记得,旧金山、纽约和西雅图是全额工资,其他地区有一定比例的折扣。如果你居住在美国但不在这些大都市之一,工资可能会低 15% 左右。

昨天的裁员似乎被视为重组。一些团队已被彻底解散。有些已经合并(两支球队 → 一支球队)。

似乎确实存在一种有利于低成本地区人们的模式。例如,两个团队合并,成本较高的经理被解雇,或者整个团队被解雇,然后这些职责由工资较低的办公室的人员重新承担。

鉴于谷歌给美国员工的工资很高,某种程度上说,裁员会大幅增加利润。不过在美国招聘也有很多好处 —— 强大的人才库、在同一地区 / 时区保持团队运作等。

图片

也有人指出:「人们不明白的是,他们所做的工作是否真的能为谷歌带来每年 10 人 500 万美元的价值,还是可以由两个非常聪明的 Python 专家来完成。技术裁员的关键不在于他们没有做重要的工作,而在于有大型团队来做基本上可以由两人团队完成的事情。」

问题是,该团队似乎完成了大量对谷歌内部也至关重要的工作:

图片

但这一次的事,有人认为,裁撤基础团队是谷歌采取的一种策略:

Meta 显然推动了 CPython 的大部分效率。列出的项目大多是稳定的,因此谷歌让社区推动它前进是明智的,他们只是使用它(你懂,「我们有非常善于平衡工作与生活的经理」以及「马拉松而不是冲刺」)

谷歌内部的 Python,至少对于非人工智能的业务来说,感觉与世界其他地方不同的默认值有很大不同。这可能会产生最终对齐外部 Python 社区的广泛副作用。

换个角度想,这对 Meta 来说或许是个好消息:

图片

你怎么看?

参考链接:

https://social.coop/@Yhg1s/112332127058328855

https://news.ycombinator.com/item?id=40171125



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

半年涨粉1000万,这个AI聊天搭子是怎么火的

最近,很多快手用户都能发现,一个名叫「AI小快」的账号格外活跃。

在视频作品的评论区,经常有人跟「AI小快」聊得火热,一个抛梗、一个接梗:

图片
图片

如果你问点严肃问题,AI小快一样有问必答:

图片

没看明白的视频,还能帮忙解读:

图片

甚至还有离谱之中带有一丝合理的扩图,网友已经笑倒在评论区:

图片

这让人很好奇,「AI小快」到底是谁?

新晋千万粉丝网红「AI小快」

点开「AI小快」的主页,大家就明白了,它的正式职业是快手官方派来的 AI 互动小助手,同时还兼具「评论区著名聊天艺术家」的第二重身份。


图片

其实,AI小快在 2023 年 10 月底就开通了快手账号。到 2024 年 4 月,才不过半年,AI小快的粉丝就突破了 1000W,也算是快手平台上的「头部网红」了。

目前,平均每天都有超过百万的快手用户,在评论区通过一个「@」呼唤 AI小快。看 AI小快的回复,也成为了很多人点开评论区的动力之一。

图片

尽管性别模糊,AI小快也拥有自己的人设:「有态度、有能力、有感情、有梗」的「四有」AI 账号。

AI小快是一个活泼友爱的聊天搭子,既能提供有效的情绪价值,也能根据网络热梗、时事热点等信息随时「造梗」,力求打造评论区的显眼包。

比如,AI小快特别擅长讲段子:

图片
图片

说 AI小快「有感情」,是因为它不只是说闲话的搭子,还能够提供宝贵的「情绪价值」,是安慰陪聊小能手。每当遇到伤心、无聊、迷茫、emo 的时刻,到评论区跟 AI小快聊两句,心情能好一些。

有时候,与 AI小快的聊天,还能给你带来一点哲学思考:

图片

聊天搭子 AI小快的打开方式

更重要的是,AI小快还可以及时提供很多力所能及的帮助。

因为 AI小快上知天文、下知地理,数理化史地生都优秀。以前刷短视频,遇到不懂的概念还要退出去搜索引擎问,但现在,随手艾特 AI小快就能得到清晰的解答:

图片

帮忙想个文案、个性签名、宠物名,对于 AI小快都是手到擒来的事:

图片

特别是,即使你没看懂视频在讲啥,也可以让 AI小快解读一下:

图片

能达到这种多模态理解水准,真是让人没想到:

图片

当然了,「AI小快」的互动方式不只是文字问答,图片生成、图片编辑什么的都不在话下。

图片

同样深受网友们喜爱的,还有 AI小快自带的扩图功能:

图片
图片

可能是它真的太会聊,导致很多用户在其他社交媒体上也疯狂呼唤 AI小快:

图片

如果你问:AI小快有什么不能办到的事?那可能就是被问过很多次的「代写作业」了:

图片

如何打造「评论区聊天艺术家」?

对于 AI 评论机器人,一部分网友的印象可能还停留机械回复、千篇一律的年代。但如今,像 AI小快这样的智能互动机器人,早就把社交媒体的玩法摸透彻了,不管接什么话题,都能让人感觉「真假难辨」。

文本问答、多轮对话、文生图、AI 扩图…… 这些神奇能力的来源,相信你也能猜到 —— 正是近两年爆火的大模型和 AIGC 技术。

自从 ChatGPT 爆火以来,很多企业都在思考,如何让大模型技术在行业中发挥真正的价值。尽管在大模型技术研发的披露上,快手一直比较低调,但我们惊喜地看到在了快手在大模型应用上的很多场景和案例。

社交媒体的评论区,是大模型技术落地的天然场景。不同于面向专业领域相对固定的话术,社交媒体中的对话内容更加主观、灵活多变、情绪化,尽管这更加挑战大模型对人类情绪的感知能力,但同时也有助于推动大模型向更高阶的智能进化。

「AI小快」就是快手大模型在评论区应用探索的成果之一,也实实在在给快手社区用户带来了更好的互动体验。

具体来说,能说会画的「AI小快」背后,是两个快手从零到一独立自主研发的大模型:大语言模型「快意」和文生图大模型「可图」

「快意」是快手大模型团队自主研发的大语言模型,能够实现高效的自然语言理解和文本生成,为复杂的知识问答、文案创作、实时翻译、逻辑推理,以及代码编写与分析等任务提供强大支持。

自去年 8 月份快手发布自研大语言模型「快意」(KwaiYii)-13B 版本以来,半年内快手又相继研发了 66B、175B 版本的大模型,用以适配不同的业务场景的需求。经过数万亿 Tokens 训练的快意大模型在 MMLU、C-Eval 等中英文权威榜单上均取得了行业领先的成绩,在实际用户体验和反馈中可以看到,快意 175B 的模型效果已显著超越了 ChatGPT-3.5,并达到了接近 GPT-4 的水平。

AI小快在快意大模型基础上注入了情感陪伴能力,让用户在与 AI小快沟通过程中,不仅能够收获有用的信息,而且能够让聊天变得有趣,给用户提供长期的情绪价值。

AI小快文生图和 AI 扩图的能力,则来源于快手自研的文生图大模型「可图」(Kolors)。该模型的参数规模达十亿级,基于来自开源社区、内部构建和自研 AI 技术合成的数十亿的图文数据训练实现,这些数据覆盖了常见的千万级中文实体概念,兼具世界知识。

可图大模型能够基于开放式文本生成风格多样、画质精美、创意十足的绘画作品,同时也能完成对图像的智能编辑。在「AI小快」之前,可图大模型已经为快手主站的「AI 玩评」功能提供了文生图技术支持,给到了用户流畅的「许愿式」体验,获得了众多好评。

经过长达半年的「实习」之后,AI小快逐渐成为了连接众多用户与快手平台和社区的重要角色。比如我们能看到,用户会坦诚地表达自己对某一类风格视频内容的喜爱,希望 AI小快帮忙推荐:

图片

在信息流中,已经有用户收到了 AI小快精心推荐的视频:

图片

作为大模型在快手社区平台的应用探索之一,AI小快实实在在给用户带来了更好的互动体验,也给短视频行业带来了一些启示:再往下一步,还能发挥哪些价值?

可以展望的是,从短视频评论区出发的「AI小快」,未来将会融入更完整的快手生态,有机会成为快手全域的「AI Copilot」。除了 C 端应用,我们也看到了快手大模型在快手商业化、电商等场景正在发挥更多商业价值。

随着数字经济竞争愈发激烈,营销效率的提升成为企业持续创新与发展的关键,更先进的 AI 技术正在驱动营销迈进「智能化」时代,重塑生产、理解、分发、承接的链路。在上个月举办的以「智能经营」为主题的 2024 快手磁力大会上,快手已经公布了大模型在 B 端的一系列应用:

比如,在智能化生产方面,视频 AIGC 产品「盘古」推动获客成本同比降低 62%、数字人直播 AIGC 产品「女娲」转化率接近客户真人水平;在智能投放方面,通过大模型的挖掘和推理实现了用户和广告主的精准匹配,自动投放与非自动投放相比,单计划 ARPU 值提升 196%,助力优质商家的 GMV 增长了 30%。此外,快手提供的智能客服、私信等工具,已经通过智能机器人实现 24 小时自动多轮互动,帮助企业实时把咨询变为线索再变为留资,双聊率提升至真人水平的 4 倍。

与此同时,快手始终以应用场景的洞察驱动大模型的研发。在被 Sora 带火的视频生成方向上,快手已经在 2023 年下半年投入了文生视频技术的专项研发,希望将生成模型和生产者工具结合起来,不断帮助创作者降低创作门槛,提升短视频制作质量和效率。

作为一个有着天然生产、消费场景的短视频平台,我们也非常期待接下来看到视频生成模型在快手的应用探索。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Sora爆红视频幕后:被骗了,用了成吨的后期才有这效果

「不怕 AI 消灭人类,就怕用 AI 的人太聪明。」

今年 2 月份,OpenAI 发布了人工智能文生视频大模型 Sora,并放出了第一批视频片段,掀起了 AI 生成视频浪潮。


目前,Sora 仍未进行公测,只有一些视觉艺术家、设计师、电影制作人等获得了 Sora 的访问权限。他们发布了一些 Sora 生成的视频短片,其连贯、逼真的生成效果令人惊艳。

最近,被誉为「朋克摇滚皮克斯」的加拿大多媒体制作公司 Shy Kids 发布了一段借助 Sora 制作的视频短片《Air Head》,在社交媒体上迅速引起广泛关注。

据悉,这部制作精美的短片主要由 3 个人完成,花费不到 2 周的时间。其中,Sidney Leeder 担任制片人,Walter Woodman 担任编剧和导演,而 Patrick Cederberg 负责后期制作。

本周,知名视觉特效总监 Mike Seymour 采访了 Patrick Cederberg,就《Air Head》制作过程、技术难点等信息展开了提问,并在 fxguide 上发布一篇文章介绍了 Sora 在视频实际制作过程中发挥的作用和存在的问题。

其中,Patrick 表示:「Sora 是一款非常强大的工具,我们已经在思考如何把它融入现有电影制作流程中,但目前 Sora 仍处于测试阶段,在影片制作过程中也会『翻车』。例如,气球的颜色在每次生成中都会改变、镜头中会出现一些瑕疵等等,要想获得最佳表现效果,仍需大量后期制作。」

AI 生成视频并非仅仅是图像生成器的进阶版。更准确地说,它们可能是我们向通用人工智能(AGI) 迈出的重要一步。但正如 Sora 开发团队本周接受采访时所说的,当前的 AI 视频模型仍处于早期阶段。

OpenAI 研究科学家,Sora 项目领导者 Tim Brooks 表示:我觉得现在 Sora 位置,就像是视觉模型新范式的 GPT-1 阶段。

《Air Head》是如何完成的?机器之心对 Mike Seymour 的文章进行了不改变原意的编译、整理,以下是该文章原文:

用户界面(UI)

Sora 的用户界面允许用户输入一段文本 prompt,然后 ChatGPT 将其转换为一个更长的字符串,再触发视频片段的生成。目前,没有其他输入方式 —— 还没有实现多模态输入。这一点很重要,因为尽管 Sora 因其生成结果中的对象一致性而受到称赞,但目前还没有任何方法来帮助匹配两个镜头(即两次生成)的内容。即使第二次运行相同的 prompt,生成结果也会不同。

Patrick 介绍说:「我们尽可能做到的是在我们的 prompt 中给出超级详细的描述,例如解释角色的服装、气球的类型。这是我们获得一致性的方法。从一个镜头到另一个镜头 / 一次生成到下一次生成,还没有完全控制一致性的方法。」

单个视频片段的确可以展现 Sora 令人惊叹的技术,但使用这些片段取决于你对隐式或显式镜头生成的理解。

假设你要求 Sora 在厨房里进行一个长镜头跟踪拍摄,桌子上有一个香蕉。在这种情况下,它将依赖其对「香蕉属性」的隐式理解来生成一个展示香蕉的视频。通过训练,Sora 已经学习了一些香蕉属性:比如「黄色」、「弯曲」、「有深色的末端」等等。没有香蕉的实际记录图像。没有「香蕉数据库」,而是有一个更小的、压缩的、隐藏的「潜在空间」,描述了香蕉是什么,每次运行都会展示对潜在空间的一种新解释。你的 prompt 依赖于对香蕉属性的隐式理解。

制作角色

为了制作《Air Head》,团队根据大致的剧本生成了多个视频片段,但是没有明确的方式来确保黄色气球头在每个镜头中都保持相同。有时,当 prompt 要一个黄色气球时,生成结果甚至可能不是黄色的。有时,气球上可能嵌入了一张脸,或者似乎在气球的正面画了一张脸。由于现实生活中许多气球都有绳子,因此生成结果中称为 Sonny 的气球人经常会在衣服前襟处有一根绳子。这是因为 Sora 隐式地将绳子与气球联系起来,因此在后期制作中这些需要被移除。

分辨率

《Air Head》只使用了 Sora 生成的镜头,但其中很多镜头都经过了调色、处理和稳定化,所有镜头都被提高了分辨率。团队处理的这些片段最初是以较低分辨率生成的,然后使用 Sora 或 OpenAI 之外的 AI 工具进行超分。

「你可以采用 720p 的分辨率,我相信已经有 1080p 了,但它需要一段时间来渲染。为了速度,《Air Head》的所有镜头都是以 480p 制作的,然后使用 Topaz 来提高分辨率」,Patrick 介绍道。

在关键帧方面,Patrick 解释道:「在实际生成中,不同动作的发生有一点时间控制,但并不精确,甚至有点像是碰运气 —— 目前还不确定 Sora 是否真的能完成这一点。」不过,Shy Kids 使用的是最早版本的模型,Sora 仍在不断开发中。

除了选择分辨率,Sora 还允许用户选择长宽比,比如肖像模式或风景模式(或正方形)。这在从 Sonny 的牛仔裤向上摇摄到他的气球头的镜头中非常有用。遗憾的是,Sora 无法原生渲染这样的移动,总是希望镜头的主要焦点 —— 气球头出现在镜头中。因此,团队以肖像模式渲染了这个镜头,然后通过后期的裁剪手动创建了向上摇摄的效果。

摄像机方向

对于许多生成式 AI 工具来说,训练数据附带的元数据是宝贵的信息来源,比如摄像机元数据。在电影镜头中,「跟踪」、「平摇」、「竖摇」、「推进」等概念都不是元数据所能捕捉的术语或概念。

描述镜头对影片制作来说非常重要,Patrick 指出:「最初 Sora 中并没有这个功能。不同的人描述电影镜头的方法也不同。OpenAI 的研究人员在艺术家使用这个工具之前,并没有真正像电影制作人那样思考。」

Shy Kids 知道他们使用的是 Sora 早期版本,但「初始版本的 Sora 在摄像机角度方面有点随机。」Sora 是否真的能理解 prompt 还不得而知,OpenAI 的研究人员只是专注于视觉生成,或许不考虑故事讲述者将如何使用它。

「Sora 正在改进,生成控制还没有完全到位。输入一个『摄像机摇摄』,我认为十次中有六次会得到想要的结果」,Patrick 说道。

这不是一个个例问题,几乎所有 AI 视频生成公司都面临着同样的问题,Runway AI 可能是在提供描述摄像机运动方面最先进的,但 Runway 渲染片段的质量和长度都不如 Sora。

渲染时间

视频片段可以以不同长度的时间段进行渲染,如 3 秒、5 秒、10 秒、20 秒,最长可达一分钟。渲染时间取决于一天中的时间段以及云服务的需求量。

Patrick 介绍:「一般来说,每次渲染大约需要 10 到 20 分钟。根据我的经验,我选择的渲染时长对渲染时间的影响很小。如果渲染时长是 3 到 20 秒,渲染时间往往不会在 10 到 20 分钟的范围内变化太大。」

虽然所有画面都是 Sora 生成的,但《Air Head》仍然需要大量后期工作。例如,有时会有一张脸在气球人 Sonny 上,就好像是用记号笔画上去的,这些瑕疵将在后期工作中被移除。

原始素材 vs 最终成品 ——300:1

Shy Kids 的方法是像制作纪录片一样进行后期制作和编辑,即有很多镜头,需要从这些素材中编织出一个故事,而不是严格按照剧本拍摄。对于最终出现在影片中的 90 秒镜头,Patrick 估计他们生成了「数百个 10 到 20 秒的片段」。他补充说:「我猜原始素材和最终成品的比例大概是 300:1。」

奇怪的「慢动作」

《Air Head》的许多片段生成时就好像是以慢动作拍摄的,尽管这并没有在 prompt 中被要求。这种情况发生的原因尚不清楚,但许多片段因此需要重新调整时间,以使其看起来像是实时拍摄的。这似乎与训练数据有关。

值得一提的是,Shy Kids 在他们的 prompt 中使用了「35 mm film(35 毫米胶片)」这个关键词,并发现这在一定程度上给了他们所追求的一致性。

版权问题

OpenAI 试图尊重版权,不允许生成可能侵犯版权或肖像权的内容。例如,如果用户的 prompt 类似于「35 毫米胶片,在一个未来主义的太空船中,一个男人拿着光剑向前走」,Sora 将不允许生成该片段,因为它太接近《星球大战》了。

Patrick 回忆说,当他们最初只是想测试 Sora 时:「我不假思索地输入了『阿罗诺夫斯基类型的镜头』,然后就被告知不能这样做。」Sora 出于版权问题会拒绝这类 prompt。

值得注意的是,Sora 生成的视频都是没有声音的,《Air Head》中主角 Sonny 的声音是 Patrick 本人的声音。

Shy Kids 团队表示已经开始为《Air Head》制作一部精彩的、人物有自我意识的、或许带点讽刺意味的续集。但对于电影制作等实际项目来说,Sora 可能还需要一段时间才能达到创作者所需的精确度。

参考链接:
https://www.fxguide.com/fxfeatured/actually-using-sora/
https://www.youtube.com/watch?v=reMnn6bV_fI
https://twitter.com/dotey/status/1783765343975960915



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

首届AI方程式大赛,8圈开了一个小时

好消息:大多数 AI 赛车都完赛了。

在阿布扎比的 F1 赛道上,8 辆赛车使用相同的轮胎,相同的发动机,完全一样的车身,唯一不同之处就是自动驾驶代码。


全球第一场自动驾驶大奖赛开战了。

图片

上周日,阿布扎比自动驾驶赛车联赛 A2RL 的第一场比赛在 Yas Marina 阿布扎比一级方程式赛道上举行;这场比赛汇集了来自世界各地的技术娴熟的科学家、工程师和开发者团队,并将尖端技术融入赛车中,所有这些都是为了通过极限运动重塑移动性的未来。

智能驾驶技术在量产汽车上一直处于正在发展,以及「即将覆盖城区」的阶段。因为 AI 技术的快速进步,无人驾驶应用场景拓展是未来重要的趋势。

但让实车现在就跑 F1 赛道互相竞争能行吗?实际上在 A2RL 的第一场比赛中,超过一万名观众和 60 万在线观众见证了很多紧张刺激的画面。

AI 开赛车的挣扎从资格赛就开始了,装备有摄像头和软件的无人驾驶 Dallara 超级方程式赛车似乎对跑赛道并不擅长,与人类车手的走线和刹车位置相比,身手显得比较毛躁。

在试验期间,有的赛车大直道踩刹车避让空气:

图片

或直接 spin(F1 术语,踩刹车原地打转):

图片

人类新手开方程式赛车,spin 也是常有的事,毕竟赛车太快且操作复杂。不过 AI 在开车的时候,偶尔也会整出不一样的活。

比如提前预判了下一步的路线,撞向墙壁:

图片

抑或只是驶离赛道稍作休息调整,为下一次启动备战:

图片

这还只是排位赛,看起来已经有很多画面可以截下来当梗图用了。

对此,报道的媒体表示希望向那些耐心和优雅的解说员致敬,因为他没有听到他们叹过一次气。相反,解说员们宣称这些车辆正在「推动科学的边界」。

不过既然大家都是 AI 车手,那也没有关门时间,好歹也算有了排位成绩。

前 CNET 汽车报道内容副总裁、Engadget 主编、技术和汽车行业资深编辑、分析师和专家的 Tim StevensTim 在 A2RL 现场追踪报道时,在个人网络平台上发表了数篇博客:

图片
处于赛场边缘看台,实时跟踪报道的 Tim Stevens 惊喜地表示:在世界上第一场四轮自动驾驶赛道赛中,事情并没有完全按照计划进行。领先的赛车 Polimove 打滑了。第二辆车干净利落地超过了它(令人印象深刻!),但官员出示了黄旗,其他车辆感到困惑,因为它们知道在黄旗下不允许超车。于是整场比赛都停了下来。在它们正在准备第二次尝试后,Tim 希望这次能进行得稍微顺利一些。

到了正赛的时候,领先的赛车 Polimove 在八圈中的第四圈打滑之后,第二辆车 Tum 安全地超过了它,但不久之后,赛事官员出示了黄旗。

图片

由于这些是遵守交通规则优先的 AI 驾驶员,跟在 Polimove 后面的两辆车也停了下来,不愿意超过那辆打滑的黄车。

看来平时对于街道行驶比较擅长的 AI 算法,在比赛时不一定能起到正确的作用。

在 A2RL 的第一圈开始大约一个小时后,AI 赛车手完成了他们的八圈比赛(由于主办方发现 8 圈的赛程对 AI 赛车手有点困难,最后将比赛缩减到了 7 圈)。

对比一下,F1 阿布扎比大奖赛的人类最快圈速是维斯塔潘创造的 1 分 26 秒 103,AI 赛车使用的 Dallara SF23 是 F1 之下速度最快的车型之一,人类跑一圈也不会超过 1 分 40 秒。

而 AI 开车,看起来就有点「小心翼翼」。

图片

最终结果是,德国的慕尼黑工业大学(Technical University of Munich)TUM 无人驾驶超级方程式赛车,在最后一圈戏剧性地完成了超车,将最终的胜利收入囊中。

图片
来自德国的慕尼黑工业大学(Technical University of Munich)TUM 无人驾驶超级方程式赛车,在首届阿布扎比自动驾驶赛车联赛 Yas Marina 赛道夺冠 。
图源:AETOSWire

自动驾驶赛车的发展尚还处于早期阶段,不过事情最终肯定会变得更好。自从 2017 年它们 Roborace 完成了第一个完整的赛道圈以来,已经取得了长足的进步。

图片
2017 年 Roborace 在巴塞罗那的移动世界大会上,发布世界上首个无人驾驶电动赛车系列,并现场展示了 Robocar。

我们相信它们会有和人类赛车手一样并驾齐驱的那一天(如果那真的发生的话)。但就目前而言,人类仍处于自动驾驶赛车的出生阶段,解决了有无的问题,下一步肯定会更加精彩。

参考链接:



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB