人工智能安全与治理调查:Immuta

80%的数据专家认为,人工智能正在使数据安全变得更具挑战性,增加了敏感信息暴露风险和人工智能攻击的可能性
Immuta,一家数据安全领导者,今天宣布了《人工智能安全与治理报告》,该报告对近700位工程领导、数据安全专业人员和治理专家进行了调查,了解他们对人工智能安全与治理的展望。图片{ width=60% }


报告展示了组织如何采用人工智能,如何应对新兴的安全和隐私挑战,以及如何更新治理准则以安全地利用技术的潜力。
调查结果显示,人工智能的采用仍然非常普遍,超过一半的数据专家(54%)表示他们的组织已经利用了至少四个人工智能系统或应用。此外,超过四分之三(79%)的人表示,他们在过去12个月内用于人工智能系统、应用和开发的预算有所增加。
然而,这种快节奏的采纳也带来了巨大的不确定性。例如,80%的数据专家同意人工智能正在使数据安全变得更具挑战性。专家们对由LLMs无意间暴露敏感数据和恶意用户通过人工智能模型进行的敌对攻击表示担忧。事实上,57%的受访者表示在过去一年中看到了人工智能驱动的攻击显著增加。
虽然快速的人工智能采用肯定带来了新的安全挑战,但对其潜力的乐观态度推动着组织进行调整。例如,数据领导者相信,人工智能将增强当前的安全实践,如基于人工智能的威胁检测系统(40%)和使用人工智能作为高级加密方法(28%)。随着这些益处在安全风险面前悬而未决,许多组织(83%)正在更新内部隐私和治理准则,并采取措施以应对新的风险:
78%的数据领导者表示,他们的组织已经对人工智能安全进行了风险评估。72%通过监测人工智能预测的异常情况来推动透明度。
61%已经采用基于目的的访问控制,以防止未经授权使用人工智能模型。
37%表示他们已经制定了全面的策略,以保持符合最新和即将到来的人工智能规定和数据安全需求。
Immuta的产品管理副总裁Matt DiAntonio表示:“当前的标准、法规和控制未能迅速适应人工智能的迅速发展,但未来充满了乐观。”。“该报告清楚地概述了许多人工智能安全挑战,以及组织如何期望通过人工智能来解决这些挑战。人工智能和机器学习能够自动化流程,并快速分析大量数据集以提高威胁检测并启用高级加密方法以保护数据。随着组织在人工智能之旅上不断发展,降低数据风险以防止敏感数据无意或恶意暴露给人工智能模型是至关重要的。围绕生成式人工智能数据管道和输出建立一个严密的安全和治理策略对于这种降低风险至关重要。”
尽管如此多的数据领导者表达了认为人工智能使安全更具挑战性的看法,但85%表示他们在某种程度上或非常有信心,他们的组织的数据安全策略将跟上人工智能的发展。相较于去年的研究发现,50%的人强烈或在某种程度上同意他们的组织的数据安全策略未能跟上人工智能发展的步伐,这表明存在一个成熟度曲线,许多组织正积极推动人工智能计划,尽管存在风险,但预期回报是值得的。
人工智能的快速变化让人兴奋,但也充满未知。特别是因为法规不断变化,许多模型缺乏透明度。数据领导者应该将他们的乐观态度与认识到人工智能将继续变化,并且合规标准将随着其变化而继续移动的现实相结合。无论人工智能的未来会是什么样子,一个行动是清晰的:没有数据安全策略的负责任人工智能策略。公司需要建立支持数据安全策略的治理,这种治理不是静态的,而是动态适应创新为企业带来效果。
Immuta委托独立市场研究机构UserEvidence进行2024年人工智能安全与治理调查。要阅读完整报告,请访问:
如果您正在寻求一种了解当前和即将到来的人工智能景观并降低数据风险的方法,请花29分钟的时间与Immuta共度。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Horizon3.ai发布快速响应服务,提升网络安全弹性

Empowering Organizations to Preemptively Address and Prioritize Confirmed Exploitable Vulnerabilities

Horizon3.ai,一家自主安全解决方案的先驱,今天宣布推出其Rapid Response服务,现已成为NodeZero™平台的一部分。图片{ width=60% }


这种独一无二的能力标志着自主渗透测试解决方案的重大进展,弥补了衡量组织依赖的软件中可利用漏洞的真实影响的重要差距。现在,组织可以清晰地了解他们对被公布的最关键漏洞的‘利用可能性’。

随着组织继续应对零日和N天漏洞,漏洞公布与威胁行为者在野外实施利用之间的时间窗口正在不断缩小。鉴于这种困境,组织花费大量时间、金钱和资源在听到供应商漏洞公告后修补他们使用的软件。然而,组织有多少次在不知道漏洞是否是可利用的情况下花费大量精力?答案是,“相当多”。

到目前为止,2024年,美国国家漏洞数据库(NVD)已经跟踪到12296个新的公开发布软件漏洞。 组织面临的一个普遍挑战是确定他们正在使用的任何被标识为有漏洞的软件是否在其特定环境中实际可利用,这种判断通常取决于软件的部署方式。由于组织经常缺乏一种验证软件‘利用可能性’的成熟方法,他们可能发现自己正在更新不需要立即修补的软件。NodeZero通过其Rapid Response服务解决了这个问题,该服务专门设计用于更有效地管理许多最关键的漏洞。以下概述了Rapid Response服务的运作方式。

当Horizon3.ai的攻击团队进行原创研究并发现新的漏洞时,他们还注意公开的漏洞披露。他们评估这些漏洞的可利用性,考虑到诸如利用的轻松程度、严重性和有漏洞软件的流行程度等因素。在评估完之后,他们开发概念验证(POC)攻击,将其集成到NodeZero作为新的攻击内容,并通知客户关于这些新出现漏洞。借助NodeZero,客户可以使用这些新的攻击内容探查其系统,以立刻了解其利用可能性水平。此外,Horizon3.ai会提醒客户,如果已知易受攻击的软件存在于其生产环境中,并警告他们NodeZero能够利用这些弱点。

Rapid Response服务不仅将注意力集中在漏洞上;它还将重点放在生产环境中已知问题的利用性上。作为此服务的一部分,组织将获得主动措施以保持对网络攻击的最新了解。通过此程序流过的漏洞通常围绕着公开访问资产,因为它们最有可能被利用。

意识到对野外新兴攻击的响应时间的关键作用,Horizon3.ai的Rapid Response服务旨在为组织提供一种主动的防御机制,使其能够在被发现或在野外流行的网络攻击发展之前保持领先。这种快速响应工作的基本原理集中在使组织能够在威胁行为者将其作为目标之前预先缓解新生漏洞。

Horizon3.ai首席执行官兼联合创始人Snehal Antani表示:“在网络安全迅速发展的领域中,威胁以惊人的速度出现和扩散的情况下,建立坚固的防御姿态的本质在于快速响应。我们使组织能够通过优先考虑对其组织影响最大的关键漏洞而更快地行动。”“我们的Rapid Response服务旨在提供一种预防性屏障,为网络安全团队提供他们保护重要基础设施所需的知识、洞察力和工具。”

通过利用Horizon3.ai在‘用攻击来指导防御’方面的专业知识,以及依靠NodeZero的自主功能,客户可以安排和/或立即启动NodeZero,使用单个攻击检查从攻击者的角度获得利用可能性的早期检测。完成后,NodeZero将对必须修补的最关键和可利用漏洞进行优先处理,因为它们已被NodeZero平台完全认为是可利用的。

Horizon3.ai的Rapid Response服务是网络安全领域的一大前进之举,为组织提供了前所未有的针对网络威胁的准备水平。凭借其尖端技术和积极策略,Horizon3.ai正在重新定义网络防御的格局,提供一项至关重要的服务,确保组织不仅知晓其漏洞,而且还配备了 unmatched 速度和效率来处理利用性问题。这项服务与NodeZero平台无缝集成,巩固了Horizon3.ai作为自主安全解决方案领袖的地位,为组织赋予了加固其防御能力以应对网络威胁多变的必要知识、洞见和工具。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

100亿美元开发投资,红杉资本入局,特斯拉要搞波大的…

特斯拉首席执行官埃隆-马斯克(Elon Musk)宣布,今年将投资约100亿美元用于人工智能开发,特别是改进其汽车,以增强自动驾驶功能。

这一声明证实了特斯拉将人工智能作为战略重点的说法,以保持其在汽车行业中的竞争优势。


01.巨额资金投入

马斯克在X平台上透露,特斯拉在人工智能运营方面投入的100亿美元巨额资金,将用于培训和推理活动。主要目的是帮助改进特斯拉自动驾驶系统,并在可能的情况下改进自动驾驶出租车(Robotaxi)服务。

通过对人工智能的大量投资,特斯拉力求改进其现有技术,并创建新的系统,从而改变车辆导航方法、车辆与环境的互动方式等。

特斯拉的人工智能投资将专门用于升级其汽车的自动驾驶功能,其重点是开发全自动驾驶(FSD)软件。

Image

目前,特斯拉的自动驾驶和FSD功能是消费市场上最先进的驾驶辅助系统

开发这一功能被认为是特斯拉进一步领先竞争对手、满足客户对创新、安全的自动驾驶解决方案需求的关键。

此外,这笔投资很可能将用于Robotaxi项目,这是一项雄心勃勃的计划,旨在打造一支完全自动驾驶的车队,在没有人类司机的情况下提供打车服务。

该项目不仅展示了特斯拉对人工智能的执着追求,也体现了特斯拉在预测未来交通趋势方面的远见卓识。

马斯克的这一宣布不仅表明了特斯拉在将人工智能纳入其运营方面的积极态度,而且也为业内其他公司树立了一个强有力的标杆。

马斯克认为,对人工智能进行大量投资,是一家希望成为有价值的汽车公司的基本要求。这种做法意味着,特斯拉将人工智能能力视为其产品和长期前景的一部分

02.红杉资本入局

此外,马斯克的人工智能初创公司xAI似乎得到了红杉资本的大力支持

马斯克于2023年创办了xAI公司,他怀着崇高的理想,致力于解决存在的问题,如了解宇宙的本质。

马斯克为他的新公司筹集了高达60亿美元的资金,并且与之前支持他收购Twitter(现X)的投资者进行了接触。

据英国《金融时报》4月25日的报道,最新一轮融资可能意味着xAI的估值达到180亿美元

曾向Twitter投资8亿美元的红杉已确认有意投资xAI,但具体金额仍未披露。

Image

红杉资本对xAI的支持并不令人意外,这家硅谷投资公司是马斯克的长期合作者和支持者,红杉的现任老板Roelof Botha曾于2000年在PayPal受雇于马斯克。

但在这个炙手可热的新兴市场领域,马斯克的xAI面临着来自竞争对手人工智能公司的激烈竞争。

OpenAI和Anthropic都是掀起巨浪的初创公司,还有Meta(本周宣布大幅增加人工智能支出)和谷歌等现有科技巨头。

红杉和其他投资者的资金投入将有助于加速xAI的聊天机器人Grok的开发,使其性能更接近竞争对手。

马斯克涉足人工智能行业并非没有争议。他在2015年联合创办了OpenAI,但由于与首席执行官奥特曼在研究方向上存在分歧,他于2018年离开了董事会。

最近,马斯克起诉了OpenAI和奥特曼,称他们损害了这家初创公司最初的使命,即“建立造福人类的人工智能系统”,但OpenAI将此案称为“无意义的”,并试图驳回起诉。

03.特斯拉在华布局

最近,马斯克正在北京访问。有媒体报道称,马斯克此行的目的是讨论特斯拉汽车在中国的自动驾驶模式启用

马斯克希望在中国实现完全自动驾驶(FSD),并将在中国收集的数据传输到国外,以训练其算法。

这一消息是与来自美国的一份报告一起发布的,报告称特斯拉的自动驾驶模式至少造成了13起车祸,其中1人死亡。

马斯克在与国务院总理李强会晤时表示:“特斯拉愿意与中国深入合作,实现更多的双赢。”

作为回应,李强总理告诉马斯克:“中国市场将’永远向外资企业开放’。”

Image

特斯拉此前已采取措施,向中国当局保证将在中国推出FSD,包括在上海建立一个数据中心,按照当地法律处理中国消费者的数据。
此行前几天,美国国家公路交通安全管理局(NHTSA)表示,正在调查与特斯拉驾驶辅助系统有关的安全问题。

NHTSA表示,尽管要求驾驶员保持对道路的关注,并准备在自动驾驶启用时随时控制车辆,但发生车祸的驾驶员“没有充分参与”。

因此,特斯拉的软件应该确保驾驶员集中注意力,并确保该功能只在适当的条件下使用,例如在高速公路上行驶。

马斯克多年来一直承诺,特斯拉将能够充当自动驾驶的“robotaxis”。本月,他表示将在今年8月份公布公司的机器人出租车

批评人士指责马斯克一味炒作完全自动驾驶的前景,以支撑公司股价。但公司股价因为全球电动汽车需求下降、来自廉价中国制造商的竞争等挑战而下跌。马斯克否认了这些指控。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

SymphonyAI发布基于生成AI的Apex企业IT副驾驶

Copilot释放了终端用户、分析师和IT领导者的生产力,加快问题解决速度,提高业务价值
SymphonyAI,一家领先的预测性和生成性企业AI SaaS公司,今天推出了其Apex企业IT副驾驶,旨在通过动态提供面向终端用户、分析师和IT领导者定制的即时信息和支持,加快问题解决速度,提升代理人生产力,并提高客户满意度。图片{ width=60% }


这款副驾驶本周在科罗拉多州丹佛举办的SupportWorld Live活动中正式发布,该副驾驶与现有的服务管理工具集成,提供安全、智能、全面的企业服务视图。

该副驾驶是SymphonyAI Apex的一部分,这是一款基于预测性和生成AI的IT服务管理/企业服务管理(ITSM/ESM)平台,旨在提升生产力,简化工作,并为终端用户、分析师和高管创造愉快的体验。SymphonyAI Apex平台采用轻量级架构,通过使用生成AI以高达50%的速度提供新服务并解决服务请求,以提供响应迅速、有效和高效的服务管理能力。该副驾驶和Apex由SymphonyAI屡获殊荣的预测性和生成性Eureka Gen AI平台驱动。

该副驾驶通过帮助团队成员提供更快速的响应和更优质的企业服务,释放了员工生产力。副驾驶的生成AI立即为用户提供所需信息,以迅速解决企业支持需求,从而让关键资源有更多时间从事创造高质量服务的活动。Apex企业IT副驾驶自动处理常规的终端用户查询,减少服务工单量,使代理人有更多带宽集中精力处理更复杂的任务。它利用先进的AI算法优化工作流程,自动化任务,并提供智能、具有上下文意识的响应,增强了用户互动和运营效果。

Apex企业IT副驾驶直面现代工作环境的挑战,通过满足三类用户的需求,实现组织范围内的最佳生产力:

  • 终端用户。该副驾驶通过提供相关知识文章和使用Summit Service Automation自动化任务来帮助终端用户自助服务。使用案例包括知识搜索、重置密码、共享文件夹访问、访客Wi-Fi访问等。
  • 分析师。该副驾驶协助技术团队成员管理和解决问题,包括工作优先级、运营智能和有针对性的知识文章。
  • 领导层。该副驾驶通过实时洞察力帮助高管识别趋势和模式,并提供易于理解的信息,以做出数据驱动决策。副驾驶平滑了重大事件和危机管理,同时提供实时趋势预测和运营洞察力。

“生成AI和基于角色的副驾驶的力量不言而喻,将力量置于需要的地方,为所有角色节省时间和精力”,Clifton Butterfield, LLC的首席顾问兼首席执行官Roy Atkinson表示。“对于终端用户——IT服务的消费者——这一结合意味着快速获取自助服务,并在需要时从分析师那里获得更好的帮助。对于IT领导者,这意味着更快到达的更好信息,促进了决策的改善。从个体终端用户到企业,生成AI和副驾驶的结合将为员工和业务领导者带来性能和准确性上的收益。SymphonyAI Apex企业IT副驾驶展示了这些开创性工具的易用性和商业价值,为员工和业务领导者带来了增加的准确性、速度和理解。IT资产管理和IT服务管理可以从Apex企业IT副驾驶的洞察力和节省时间的能力中受益。”

“我们很高兴推出基于AI的Apex IT企业副驾驶,这将智能地结合了SymphonyAI在企业IT领域的丰富经验和业界领先的Eureka生成和预测AI平台”,SymphonyAI企业IT部门总裁Satyen Vyas表示。“从终端用户到分析师再到高管层,企业IT副驾驶与Apex卓越的服务管理和工作流自动化协同工作,实现了在生产力、投资回报率和用户满意度方面的根本转变性成果。”

SymphonyAI将于4月29日至5月2日在丹佛举办的SupportWorld Live活动的310号展台展示Apex企业IT副驾驶。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

谷歌不行?股价却新高!Meta逆天?蒸发1.6万亿…微软:都是弟弟

可谓美国AI三巨头的Alphabet(谷歌母公司),Meta和微软都交出了自己的阶段考成绩,而与前一段外界形成的印象不同,被不停唱衰的谷歌却在财报后股价大涨,而靠Llama 3赢得一片芳心的Meta却一夜蒸发了1.6万亿。

只有微软继续超预期,看着另外两位不靠谱的对手微微一笑,拿回全球市值第一的交椅。


谷歌:利润激增6成,史上首分红,盘后涨15%创新高

经常在各种场合被同行抢风头,被称为“AI届汪峰”的老大哥谷歌,这回也终于扬眉吐气了。

不仅Q1营收、广告和云业务均提速增长,还强势碾压各项指标,盘后涨幅超15%,并首次宣布派发股息红利和700亿美元股票回购计划。财报公布后,谷歌市值暴增3000亿美元,成为全球仅次于微软、苹果和英伟达的第四大上市公司。

本季度,谷歌母公司Alphabet总营收805.4亿美元,远高于市场预期的790.4亿美元,同比增长15%,创两年来最快增速。净利润同比跃升57%到237亿美元,每股摊薄收益1.89美元,较上年同期的1.17美元激增61.5%。

尽管由于押注大语言模型Gemini训练和基建投入,令本季120亿美元的AI资本支出超出预期17亿美元。与AI息息相关,被视为谷歌下一个增长引擎的云业务增长还是迅猛提速。一季度收入同比增长28.4%至96亿美元,高于分析师预期的93.7亿美元,连续多个季度较整体营收增速翻倍。虽然在云计算市场份额排名第三,仍在努力追赶亚马逊和微软,但终于走在了扭亏为赢的正轨上。

“我们在过去8个月里发布了1000多个云计算领域的新产品和新功能。在Google Cloud Next大会上,超过300个客户和合作伙伴谈论了他们在谷歌云上获得的人工智能方面的成功,包括拜耳、梅赛德斯奔驰、沃尔玛等全球品牌。”谷歌CEO桑德尔·皮查伊在财报会议上表示。

而功劳依然要给到AI。同微软一样,越来越多的企业寻求在公共云上部署AI负载,谷歌云也通过Gemini大模型为客户提供各种生成式人工智能服务。最近还推出了基于Arm架构的新型CPU「Axion」,旨在提升云计算效率和降低运营成本,进一步加强谷歌在云市场的竞争力。CFO波拉特强调,在整个谷歌云部门的销售额中,“人工智能的贡献越来越大”。

皮查伊也认为人工智能转型是一个”千载难逢的机会”,公司正在争分夺秒地将这项技术整合到整个业务中。本月初的谷歌云端大会上,一切都围绕生成式AI展开,进一步开放和优化Gemini 1.5 Pro,还正式推出自己最强大、最具扩充性的AI加速器TPU v5p。

除此之外,核心广告业务本季度也获得稳健改善。总营收616亿美元,同比增长13%。其中谷歌搜索和其他广告收入462亿美元,YouTube广告收入81亿美元,均获得两位数增长。

不过对于仍被市场定位为“搜索巨头”的谷歌来说,生成式AI的助推可能是把双刃剑:一方面谷歌正在通过Gemini等AI工具探索广告放置、独立订阅服务和企业授权等新的收入渠道,来适应市场的变化和需求。另一方面,改进生成式搜索体验可能影响原本的广告盈利能力。同时以Perplexity为代表的AI搜索引擎新秀也面临的潜在挑战。

其实,相比微软和Meta,谷歌这几个月过得并不轻松。先是Gemini的图像生成功能涉及种族歧视问题被迫从市场撤回,一度引发对于皮查伊是否适任谷歌CEO的争议。在因裁员支付了大量遣散费后,本周又解雇了50名抗议公司与以色列签订云计算合同的员工,引发内部骚乱。

在争议与挑战中,这份数字漂亮的财报来得恰逢其时。不仅极大提振了市场信心,也表明谷歌已经找对了在AI时代正确的前进方向。随着近期对人工智能部门重组,更加关注产品速度,谷歌下半年表现依旧可期。

Meta:AI推动广告猛涨,Q1收入破纪录,小扎一句话吓没1.6万亿

在经历业务重心调整、部门重组、进军人工智能和裁员降本“效率年”之后, Meta曾在上一季财报中以401亿美元营收打了一场漂亮的翻身仗。过去12个月股价飙升140%,远超谷歌的50%和微软的35%。

本次2024 Q1,这家刚刚发布新一代开源大模型Llama3的社交媒体巨头,继续收获了有史以来最亮眼的一季度业绩,营收和盈利均高于华尔街预期。

数据显示, Meta当季总营收364.6亿美元,同比大增27%,创下三年来的最快增速。净利润同比增长117%至123.7亿美元,每股摊薄收益4.71美元,较去年同期的2.2美元翻了两倍多。

其中广告业务仍是Meta的核心收入来源,此次成绩可喜。同比增长27%至356.4亿美元,占总营收近98%的比例。家族应用群(FoA)日活用户…



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

100亿美元开发投资,红杉资本入局,特斯拉要搞波大的…

特斯拉首席执行官埃隆-马斯克(Elon Musk)宣布,今年将投资约100亿美元用于人工智能开发,特别是改进其汽车,以增强自动驾驶功能。

这一声明证实了特斯拉将人工智能作为战略重点的说法,以保持其在汽车行业中的竞争优势。


01.巨额资金投入

马斯克在X平台上透露,特斯拉在人工智能运营方面投入的100亿美元巨额资金,将用于培训和推理活动。主要目的是帮助改进特斯拉自动驾驶系统,并在可能的情况下改进自动驾驶出租车(Robotaxi)服务。

通过对人工智能的大量投资,特斯拉力求改进其现有技术,并创建新的系统,从而改变车辆导航方法、车辆与环境的互动方式等。

特斯拉的人工智能投资将专门用于升级其汽车的自动驾驶功能,其重点是开发全自动驾驶(FSD)软件。

特斯拉自动驾驶系统

目前,特斯拉的自动驾驶和FSD功能是消费市场上最先进的驾驶辅助系统

开发这一功能被认为是特斯拉进一步领先竞争对手、满足客户对创新、安全的自动驾驶解决方案需求的关键。

此外,这笔投资很可能将用于Robotaxi项目,这是一项雄心勃勃的计划,旨在打造一支完全自动驾驶的车队,在没有人类司机的情况下提供打车服务。

该项目不仅展示了特斯拉对人工智能的执着追求,也体现了特斯拉在预测未来交通趋势方面的远见卓识。

马斯克的这一宣布不仅表明了特斯拉在将人工智能纳入其运营方面的积极态度,而且也为业内其他公司树立了一个强有力的标杆。

马斯克认为,对人工智能进行大量投资,是一家希望成为有价值的汽车公司的基本要求。这种做法意味着,特斯拉将人工智能能力视为其产品和长期前景的一部分

02.红杉资本入局

此外,马斯克的人工智能初创公司xAI似乎得到了红杉资本的大力支持

马斯克于2023年创办了xAI公司,他怀着崇高的理想,致力于解决存在的问题,如了解宇宙的本质。

马斯克为他的新公司筹集了高达60亿美元的资金,并且与之前支持他收购Twitter(现X)的投资者进行了接触。

据英国《金融时报》4月25日的报道,最新一轮融资可能意味着xAI的估值达到180亿美元

曾向Twitter投资8亿美元的红杉已确认有意投资xAI,但具体金额仍未披露。

红杉资本对xAI的支持并不令人意外,这家硅谷投资公司是马斯克的长期合作者和支持者,红杉的现任老板Roelof Botha曾于2000年在PayPal受雇…

03.特斯拉在华布局

最近,马斯克正在北京访问。有媒体报道称,马斯克此行的目的是讨论特斯拉汽车在中国的自动驾驶模式启用

马斯克希望在中国实现完全自动驾驶(FSD),并将在中国收集的数据传输到国外,以训练其算法。

这一消息是与来自美国的一份报告一起发布的,报告称特斯拉的自动驾驶模式至少造成了13起车祸,其中1人死亡。

马斯克在与国务院总理李强会晤时表示:“特斯拉愿意与中国深入合作,实现更多的双赢。”

作为回应,李强总理告诉马斯克:“中国市场将’永远向外资企业开放’。”

特斯拉中国访问

特斯拉此前已采取措施,向中国当局保证将在中国推出FSD,包括在上海建立一个数据中心,按照当地法律处理中国消费者的数据。
此行前几天,美国国家公路交通安全管理局(NHTSA)表示,正在调查与特斯拉驾驶辅助系统有关的安全问题。

NHTSA表示,尽管要求驾驶员保持对道路的关注,并准备在自动驾驶启用时随时控制车辆,但发生车祸的驾驶员“没有充分参与”。

因此,特斯拉的软件应该确保驾驶员集中注意力,并确保该功能只在适当的条件下使用,例如在高速公路上行驶。

马斯克多年来一直承诺,特斯拉将能够充当自动驾驶的“robotaxis”。本月,他表示将在今年8月份公布公司的机器人出租车

批评人士指责马斯克一味炒作完全自动驾驶的前景,以支撑公司股价。但公司股价因为全球电动汽车需求下降、来自廉价中国制造商的竞争等挑战而下跌。马斯克否认了这些指控。

原文来源于:

  1. https://coingape.com/elon-musk-announces-10-billion-ai-push-for-tesla/
  2. https://readwrite.com/elon-musks-xai-closes-in-on-6-billion-as-ai-race-heats-up/
  3. https://www.bbc.com/news/business-68914929
    中文内容由元宇宙之心(MetaverseHub)团队编译,如需转载请联系我们。


感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

刚刚,英国《金融时报》宣布与 OpenAI 达成战略合作!盘点 2024 年 AI 创作与版权发展趋势

一直以来 AI 生成内容版权一直充满争议,以下是最近的一些案例,概括了当前的法律挑战:

  • Getty Images 诉 Stability AI:Getty Images 已在美国和英国起诉 Stability AI,称其在未经许可的情况下使用了 Getty Images 超过 1200 万张图像来训练其 AI 模型。这一正在进行的案件至关重要,因为它解决了未经授权使用受版权保护的内容来训练 GenAI 的合法性。

  • Tremblay 诉 OpenAI:作者指控 OpenAI侵犯版权,涉嫌未经许可使用其作品来训练 ChatGPT。该诉讼凸显了使用潜在版权材料训练人工智能模型的复杂法律领域。
  • Nazemian 诉 Nvidia:本案涉及针对 Nvidia 的直接版权侵权索赔,因为 Nvidia 在其 NeMo Megatron LLM 系列的训练数据集中包含版权作品。该案件围绕“The Pile”数据集的使用展开,据称该数据集包含受版权保护的材料。

除了上述争议之外,还有其他备受瞩目的案件,例如涉及 Midjourney、Stability AI 和 DeviantArt 的问题,以及 OpenAI 此前与《纽约时报》之间的案件。

与 OpenAI 的战略合作

4 月 29 日,《金融时报》在其官网宣布与 OpenAI 达成战略合作,并签署内容许可协议。

据悉,这项合作的主要目的集中在英国《金融时报》增强其对生成式 AI 的理解,特别是作为一种内容发现工具,以及旨在开发“为英国《金融时报》读者的 AI 产品和功能”的专项合作,新闻出版商将更广泛地扩大 AI 技术的使用。

通过此次合作,ChatGPT 用户将能够看到《金融时报》精选摘要、引述以及英国《金融时报》新闻报道的丰富链接,并回应相关查询。

在内容许可方面,这次合作将涵盖 OpenAI 使用英国《金融时报》的内容来训练 AI 模型,并在适当的情况下显示由 ChatGPT 等工具生成的反馈,与此前合作的其他出版商交易非常相似。

今年早些时候,《金融时报》成为 OpenAI ChatGPT Enterprise 的一员,《金融时报》集团 CEO John Ridding 表示,从很多方面来看,这是一项重要的协议,它认可了新闻业的价值,并将让读者尽早了解如何通过 AI 呈现内容。

Ridding 认为,除了给英国《金融时报》带来好处之外,这对整个新闻媒体行业也有更广泛的影响。AI 平台向出版商支付使用其材料的费用是正确的,OpenAI 理解透明度、归属和补偿的重要性——所有这些至关重要。与此同时,这些产品包含可靠的来源显然符合用户的利益。

ChatGPT 等聊天机器人有时会出现伪造信息或“幻觉”的问题,这与新闻业截然相反,而记者会努力核实他们提供的信息尽可能准确。因此,OpenAI 早期针对模型训练内容许可的举措主要集中在新闻业,OpenAI 可能希望这能有助于解决“幻觉”问题。

另一个主要的推动因素是版权的法律责任。去年12 月,《纽约时报》宣布起诉 OpenAI,指控其未经许可的情况下使用其受版权保护的内容来训练模型。

OpenAI 对此提出异议,但消除新闻出版商进一步诉讼风险的一种方法是向出版商支付使用其版权内容的费用,因为新闻出版商的内容很可能从公共互联网上刮取(或以其他方式获取)以促进 LLM 的发展。就出版商而言,他们将从内容许可中获得一些现金。

OpenAI 表示,它们已经签署大约十几个出版商协议,并补充说还有许多协议正在进行中。出版商也有可能获得一些读者。如果 ChatGPT 用户选择点击链接到其内容的引文。

版权商的合作趋势

从《金融时报》与 OpenAI 的战略合作可以看到出版商与生成式 AI 公司未来的合作趋势,AI 公司可能会评估与使用抓取内容相关的风险,并导致其转向许可内容用于训练目的。

通过与成熟的内容提供商合作并获得适当的许可,AI 公司可以降低法律风险,同时访问高质量的数据集来训练其模型,这种伙伴关系强调了 AI 技术开发中采用法律和道德实践的重要性。

最近的合作伙伴关系,例如 BRIA 和 Getty Images 的合作,还有 OpenAI 与 Le Monde 以及 Prisa 的合作,都体现了这一趋势。

  • OpenAI 和 Axel Springer: OpenAI 与 Axel Springer 签订了许可协议,Axel Springer 是一家大型媒体公司,拥有 Business Insider 和 Politico 等多家知名出版物。通过这笔交易,OpenAI 可以使用 Axel Springer 的内容来训练其生成式 AI 模型,并将新闻故事集成到其 AI 驱动的聊天机器人 ChatGPT 提供的响应中。这一安排包括对 Axel Springer 的经济补偿,并帮助 OpenAI 通过使用高质量的许可内容来增强其人工智能应用程序的相关性和准确性。
  • 苹果和 Shutterstock: 苹果已与 Shutterstock 达成协议,授权数百万张图像用于人工智能训练。此举是苹果公司增强整个产品线(包括 iPhone 和 iPad)AI 能力的更广泛战略的一部分。通过授权 Shutterstock 的图像,苹果确保其 AI 模型接受合法获得的多样化视觉内容的训练,这对于开发准确且强大的 AI 驱动功能至关重要。
  • Reddit 的合作:据报道,Reddit 与一家未具名的大型 AI 公司签署了一份价值 6000 万美元的年度合同。这笔交易允许这家 AI 公司使用 Reddit 的用户生成内容来训练其模型。此类协议凸显了社交媒体数据在人工智能开发中日益重要的重要性,以及平台在确保遵守版权规范的同时将用户生成的内容货币化的必要性。然而,由于 Reddit 不会补偿内容创作者,从道德上讲,这引发了关于内容所有权的问题,以及在不与创作者分享利润的情况下授予内容许可是否公平的问题。

干净且合规的数据集需求

vAIsual 是体现这一趋势的公司。他们已成为 AI 行业数据集市场的领导者,为 AI 训练提供合法干净的数据集。自成立以来,vAIsual 一直致力于提供现成的数据集,为 AI 创新者节省时间并降低法律风险,其定制数据集服务迎合了寻求高质量数据来训练 AI 模型的全球公司,突显了 AI 生态系统中对合法合规数据集的需求不断增长。

根据 Straits Research 的报告,到 2030 年, AI 训练数据集市场预计将达到 72.3 亿美元,2022 年至 2030 年的复合年增长率为 20.8%。这种增长不仅由数据集规模的增加推动,还由通过数据集类型的多样化。

从历史上看,特定的数据集——尤其是医疗保健和制造等行业的数据集,这些数据集需要无法轻易从公共领域收集的数据——一直主导着市场。然而,随着 AI 应用对生成内容的需求不断增长,此类数据集预计将成为这个不断扩大的市场不可或缺的一部分。

AI 创作内容的透明度

信任和透明度成为客户的关键价值观,表明 AI 生成内容时需要披露信息,尤其是在编辑环境中。这一趋势反映出,当 AI 用于生成内容时,尤其是在编辑和纪录片制作等敏感领域,对明确披露的需求不断增长。

Zach Seward 在 SXSW 2024 上强调了随着新闻机构越来越多地尝试 AI,保持编辑完整性的重要性,他强调 AI 生成的内容如何使用并向公众呈现的透明度,确保受众了解他们正在消费的内容的性质。

此外,内容真实性倡议 (CAI) 和 内容来源和真实性联盟 (C2PA) 等标准的出现也发挥着至关重要的作用。这些组织正在开发技术和标准,以提高数字内容的起源和历史的透明度。通过支持数字来源的使用,这些努力旨在打击错误信息并确保消费者能够验证内容的真实性和完整性。

尽管目前还没有普遍制定的规则,但这些公司正在采取积极措施制定并遵守内部准则,以确保在内容创建过程中人工智能的透明度和道德使用。在我们之前的一篇文章中, 我们推荐了 如何在营销活动和设计项目中使用人工智能的几种实践,包括:

  • 随时了解法律状况
  • 始终调整 AI 输出
  • 不要与人工智能分享机密信息
  • 公开人工智能并与客户建立信任

AI 驱动的个性化营销

个性化是营销和广告公司的重要推动力。可能会出现一种趋势,公司利用其产品内容来制作特定于品牌的 AI 生成内容,从而增强营销策略中的个性化触感,以下是一些突出这一趋势的案例和策略:

  • Adobe 的内容供应链解决方案:Adobe 开发了内容供应链解决方案,深度集成生成式 AI 功能,以简化跨品牌的内容创建。该平台允许品牌生成个性化的营销文案和其他与其数字战略完美契合的内容类型,确保所有沟通在各个渠道上保持一致的品牌形象。该系统旨在显着加快内容创建速度,同时允许高度个性化。
  • Typeface Hub 的多模式 AI:Typeface Hub 增强了其多模式 AI 功能,可以更好地控制特定于品牌的内容生成。他们更新的品牌套件会自动调整以适应品牌独特的声音和风格,确保所有内容,无论是文本还是图像,都严格遵守预定义的品牌指南。这对于在大规模数字营销活动中保持一致的品牌特别有用。
  • Flair.AI:一款用于产品拍摄、可视化和动画的人工智能设计工具。FlairAI 专为营销人员和品牌设计,用于生成品牌特定内容。该工具使品牌能够创建不仅符合其身份的内容,而且还可以进行调整以满足受众的独特喜好。

最后,大部分 AI 炒作还都集中在基础模型的横向能力上,但 AI 的真正机会在于 AI 以及 Agent 如何重新配置与创造 B2B 价值链,硅谷老牌 VC 总结了 10 个 GenAI 初创商业案例与 7 条黄金法则,增速远超 SaaS,AI 应用层拐点来临了么?

Reference:

  1. Financial Times announces strategic partnership with OpenAI,Financial Times;
  2. Key Trends and Forecasts Influencing the GenAI Market in 2024,Everypixel Journal。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

AI知道苹果是什么吗?DeepMind语言模型科学家正把这些概念变得可量化、可测试

编辑 | 白菜叶

与计算机科学家 Ellie Pavlick 谈论她的工作——寻找大语言模型 (LLM) 中理解的证据——听起来可能像是在开玩笑。「hand-wavy」这个短语是她最喜欢的,如果她提到「意义」或「推理」,它通常会带有引号。


作为一名在布朗大学和 Google DeepMind 研究语言模型的计算机科学家,她知道接受自然语言固有的模糊性是认真对待自然语言的唯一方法。「这是一门科学学科——而且有点脆弱。」她说。

从青春期开始,精确性和细微差别就一直存在于 Pavlick 的世界里,当时她喜欢数学和科学。作为一名本科生,她获得了经济学和萨克斯演奏学位,然后攻读计算机科学博士学位,但她仍然觉得自己在这个领域是个局外人。

「很多人[认为]智能系统看起来很像计算机代码:整洁且方便,就像[我们]擅长理解的许多系统一样。」她说,「我只是相信答案很复杂。如果我有一个简单的解决方案,我很确定它是错误的。我不想犯错。」

一次偶然的机会,Pavlick 遇到了一位从事自然语言处理工作的计算机科学家,于是她开始了她的博士研究课题,研究计算机如何编码语义或语言中的意义。「我认为这很有趣。」她说,「它涉及哲学,这与我目前正在做的很多事情相符。」

现在,Pavlick 的主要研究领域之一集中在「基础」——单词的含义是否取决于独立于语言本身而存在的事物的问题,例如感官知觉、社交互动,甚至思想。

语言模型完全基于文本进行训练,因此它们为探索基础对意义的重要性提供了一个富有成效的平台。但这个问题本身几十年来一直困扰着语言学家和思想家们。

「这些不仅仅是『技术』问题。」Pavlick说,「语言是如此之大,对我来说,感觉它涵盖了一切。」

在这里,媒体与 Pavlick 讨论了这些问题。

Q:从经验上来说,「理解」或「意义」意味着什么?具体来说,你在寻找什么?

A: 当我在布朗大学开始我的研究项目时,我们认为意义在某种程度上涉及概念。我意识到这是一个理论上的承诺,并不是每个人都会做出这样的承诺,但它看起来很直观。

如果你用「apple」这个词来表示苹果,你就需要一个苹果的概念。无论你是否使用这个词来指代它,它都必须是一件事。这就是「有意义」的含义:需要有一个概念,即你正在用语言表达的东西。

我想在模型中找到概念。我想要一些我可以在神经网络中获取的东西,证明有一个东西在内部代表「苹果」,这使得它可以被同一个词一致地引用。因为似乎确实存在这种内部结构,它不是随机的、任意的。你可以找到这些定义明确的函数的小块,可以可靠地执行某些操作。

我一直专注于描述这种内部结构。它有什么形式?它可以是神经网络内权重的某个子集,或者是对这些权重的某种线性代数运算,某种几何抽象。但它必须在[模型的行为中]发挥因果作用:它与这些输入相关,但与那些输出无关,与这些输出相关,但与那些输出无关。

这感觉就像你可以开始称之为「意义」的东西。这是关于弄清楚如何找到这种结构并建立关系,以便一旦我们将其全部到位,我们就可以将其应用于诸如「它知道『苹果』意味着什么吗?」之类的问题。

Q:你找到过这种结构的例子吗?

A:是的,有一个研究结果涉及语言模型何时检索一条信息。

图片

论文链接:https://arxiv.org/abs/2305.16130

如果你询问模型「法国的首都是什么」,它需要说「巴黎」,而「波兰的首都是什么」应该回复「华沙」。它很容易记住所有这些答案,并且它们可以分散在[模型内]各处 - 没有真正的理由让它在这些事物之间建立联系。

相反,我们在模型中发现了一个有趣的小地方,它基本上将连接简化为一个小向量。如果将其添加到「法国的首都是什么」,它将检索「巴黎」;如果你问「波兰的首都是什么」,同一个向量将检索「华沙」。就像这个系统的「检索首都城市」向量。

这是一个非常令人兴奋的发现,因为[该模型]似乎是在总结这些小概念,然后对它们应用通用算法。尽管我们正在研究这些非常 [简单] 的问题,但它是为了寻找模型正在使用的这些原始成分的证据。

在这种情况下,摆脱记忆会更容易——在很多方面,这就是这些网络的设计目的。相反,它将[信息]分解为碎片和相关的「原因」。我们希望,当我们提出更好的实验设计时,我们可能会为更复杂的概念找到类似的东西。

Q:「基础」与这些表述有何关系?

A: 人类学习语言的方式基于大量的非语言输入:你的身体感觉、你的情绪、你是否饿了等等。这被认为对于意义来说非常重要。

但还有其他一些与内部表征更多相关的基础概念。有些词与物质世界没有明显的联系,但它们仍然有意义。像「民主」这样的词就是一个最喜欢的例子。这是你脑子里的一件事:我可以在不谈论民主的情况下思考它。所以基础可能是从语言到那个东西,那个内部表征。

Q:但你认为,即使是更外在的事物,比如颜色,也可能仍然锚定于内部「概念」表征,而不依赖于感知。那会如何运作呢?

A: 嗯,语言模型没有眼睛,对吧?它对颜色一无所知。所以也许[它捕获]了一些更普遍的东西,比如理解它们之间的关系。我知道当我将蓝色和红色混合起来时,我会得到紫色;这些类型的关系可以定义这种内部[基础]结构。

我们可以使用 RGB 代码 [代表颜色的数字字符串] 向 LLM 提供颜色示例。如果你说「好的,这里是红色」,并给出红色的 RGB 代码,「这是蓝色」,给出蓝色的 RGB 代码,然后说「告诉我紫色是什么」,它应该生成紫色的 RGB 代码。这种映射应该很好地表明模型的内部结构是健全——它缺少[颜色]的感知,但概念结构就在那里。

棘手的是,[模型]只能记住 RGB 代码,这些代码遍布其训练数据。因此,我们「倒转」了所有颜色[远离其真实的 RGB 值]:我们会告诉 LLM,「黄色」一词与代表绿色的 RGB 代码相关联,依此类推。该模型表现良好:当你要求绿色时,它会给你 RGB 代码的倒转版本。这表明其内部颜色表示存在某种一致性。它是应用他们之间关系的知识,而不仅仅是记忆。

这就是「基础」的全部要点。将名称映射到颜色是任意的。更多的是关于他们之间的关系。所以这很令人兴奋。

Q:这些听起来很哲学的问题怎么可能是科学的呢?

A: 我最近看到了一个思想实验:如果海洋冲到沙子上并且[当它]退潮时,留下的图案会生成一首诗,会怎么样?这首诗有意义吗?这看起来非常抽象,你可以进行很长的哲学辩论。

语言模型的好处是我们不需要思想实验。这不像是「从理论上讲,这样那样的东西会有智能吗?」 只是:这东西有智能吗?它变得科学和可实践。

有时人们会不屑一顾;有一种「随机鹦鹉学舌」方法。我认为这是因为有人担心人们会过度关注这些东西——我们确实看到了这一点。为了纠正这一点,人们会说:「不,这都是骗局。这都是雾里看花。」

这有点帮倒忙。我们发现了一些非常令人兴奋和新颖的东西,值得深入理解它。这是一个巨大的机会,不应该因为我们担心过度解释模型而被忽视。

Q:当然,你也做出了研究来澄清这种过度解释。

图片

论文链接:https://www.semanticscholar.org/paper/Right-for-the-Wrong-Reasons:-Diagnosing-Syntactic-McCoy-Pavlick/42ed4a9994e6121a9f325f5b901c5b3d7ce104f5

A: 在这项工作中,人们发现了模型所利用的所有「浅层启发法」(以模仿理解)——这些对于我作为一名科学家的成长来说是非常基础的。

但这很复杂。就像,不要太早宣称胜利。[我内心]对评估是否正确有一点怀疑或偏执,即使是我知道我设计得非常仔细的评估!这就是其中的一方面:不要过度宣称。

另一方面是,如果你处理这些[语言模型]系统,你就会知道它们不是人类水平的——它们解决问题的方式并不像看起来那么智能。

Q:当这个领域有如此多的基本方法和术语存在争议时,你如何衡量成功呢?

A: 我认为,作为科学家,我们正在寻找的是对我们所关心的事物(在本例中为智力)的精确、人类可以理解的描述。然后我们附上文字来帮助我们到达那里。我们需要某种工作词汇。

A: 但这很难,因为这样你就可能陷入这场语义之战。当人们问「它有意义吗:是或否?」 我不知道。我们把对话引向了错误的方向。

我试图提供的是对我们关心解释的行为的精确描述。在这一点上,无论你想称之为「意义」还是「表征」,或者任何这些负载词,都没有什么意义。关键是,有一个理论或提议的模型摆在桌面上——让我们对其进行评估。

Q:那么,语言模型的研究如何才能转向更直接的方法呢?

A: 我真正希望能够回答的深层问题——智力的组成部分是什么?人类的智慧是什么样的?模型智能是什么样的?——真的很重要。但我认为未来 10 年会发生的事情并不是很迷人。

如果我们想要处理这些[内部]表征,我们需要找到它们的方法——科学上合理的方法。如果以正确的方式完成,这种低级的、超级杂乱的方法论的东西就不会成为头条新闻。但这是真

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

神秘模型"gpt2-chatbot"现身,引发GPT-4.5/GPT-5疯狂猜想

文章来源:头部科技
文丨Congerry

OpenAI 放出了一个迷雾弹。

当Google、Meta、Anthropic等公司都在猛推大模型的时候,OpenAI除了对GPT-4修修补补,似乎一直没有什么大的动静。


图片来源:由GPTNB生成

但是今天,一个名为”gpt2-chatbot”的神秘大模型凭空杀出,其能力似乎与 GPT-4 保持在同一水准,甚至在一些任务上的表现比 GPT-4 Turbo 还要好,让整个AI社区炸开了锅。

Image

这不禁让人联想一直未曾露面的GPT-4.5或GPT-5。就连Sam Altman也发了一段让人摸不着头脑的话,自己对 gpt2 情有独钟。

神秘模型”gpt2-chatbot”现身

这个”gpt2-chatbot”表现如何呢?
该模型第一次尝试就解决了国际数学奥林匹克竞赛(一项面向高中生的著名竞赛)中的一个问题。

Image

人工智能研究员、斯坦福大学学生Andrew Gao说,要知道国际数学奥林匹克竞赛难得要命,只有美国数学成绩最好的四名学生才能参加比赛。宾夕法尼亚大学沃顿商学院研究 AI 的教授 Ethan Mollick 表示,在他的实验中,该模型在复杂的推理任务(例如编写代码绘制独角兽图片)上表现优于 GPT-4。“也许比 GPT-4 更好,”他说。“很难说,但它在标志性的‘用代码画独角兽’任务上确实做得更好。”

Image

该模型还表现出了编写具有挑战性的代码的能力。
CodeGen 的创始工程师 Chase McCoy 表示,gpt2-chatbot “在我们用来测试新模型的所有编码提示上都做得更好”,而不是 GPT-4 或 Claude Opus。“这种氛围肯定是存在的,”他说。

但也有不少人持谨慎怀疑态度,认为gpt2-chatbot的能力被过度夸大了。他们指出:
这个模型在经典的24点游戏、数学推导等老题types仍然采取的是暴力式枚举推理,而未展现出任何更先进的解题手段。
在绘画时,也不遵从指令。

Image

在经典的”农夫过河”推理题上,gpt2-chatbot的5步解法也显得冗长。

引发GPT-4.5/GPT-5疯狂猜想

那么,这个gpt2-chatbot到底是什么来头?
通过对它的一些细节分析,网友们给出了以下几种可能:

  • 它就是OpenAI后继GPT-4的下一代大模型GPT-4.5,或者是传闻已久的GPT-5。
  • Andrew Gao认为,如果这就是GPT-4.5或者GPT-5的能力,那么意味着人类在AI上面碰壁了。言外之意,gpt2-chatbot“不配”。

Image

  • 还有网友认为它是由OpenAI 2019年发布的GPT-2模型经过了LMSYS等机构的特殊调教和改造所获得,其实质还是老架构。
  • 另外,还有人猜想它其实就是由LMSYS这家从事AI技术研究的公司打造出来的全新模型,只是在整个AI界伪装成”来自OpenAI”罢了。
  • 对于这个谜一样的问题,Sam Altman也是卖了个关子,在推特上表示”我确实很钟情gpt2。

ChatGPT”人性化” 率先推出记忆功能

除了gpt2-chatbot,OpenAI本身也在悄悄推出一些重磅新功能。
最新的消息是,OpenAI正在为ChatGPT Plus用户推出一项全新的”记忆”功能。简单来说,用户在与ChatGPT对话时,可以让它记住特定的信息细节,这些记忆会一直保留下去,并会在下一次对话时被调用和使用。
比如,如果你告诉ChatGPT你家里的小孩特别喜欢水母,那么下次让它帮忙设计生日贺卡时,它就会为你推荐使用水母图案。OpenAI称,未来ChatGPT甚至可能比你的家人更了解你了。

这个”人性化”的记忆功能,被认为是朝着AGI(人工通用智能)迈出的一小步。它让ChatGPT更贴近真实世界,个性化程度更高,对话体验也更加自然。多数网友对此新功能表示欢迎,不过也有人担心隐私问题。
OpenAI还透露,未来这个功能还会面向企业用户推出,并扩展到GPT语言模型的其他版本。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

AI在用| 原来,Kimi 还能直出思维导图

机器之能报道
编辑:Cardinal 山茶花

以大模型、AIGC为代表的人工智能浪潮已经在悄然改变着我们生活及工作方式,但绝大部分人依然不知道该如何使用。
因此,我们推出了「AI在用」专栏,通过直观、有趣且简洁的人工智能使用案例,来具体介绍AI使用方法,并激发大家思考。


我们也欢迎读者投稿亲自实践的创新型用例。

还记得我们之前讲过如何使用 Claude 3、ChatGPT 来制作思维导图吗?(ChatGPT、Claude 3 助攻,1 分钟 GET 高颜值思维导图)这些案例需要你将大模型生成的代码复制到 Mermaid 等图表绘制工具里生成图片。
最近,X 网友 JerLin 发现,原来国内的 Kimi 能直出思维导图,还免费!
案例地址:
https://twitter.com/eviljer/status/1784790926252183568/photo/1
玩法非常简单。只需要输入 prompt「用横向(具体方向根据你的需求来,也可以是竖向)的 Mermaid 图表来表示 xxx(你要的主题)」,点击 「graph」即可获取对应的导图啦。
例如,输入「用横向的 Mermaid 图表解释费曼学习法」,Kimi 很快给到两个选项。一个是 graph,点击它就可以直接获得思维导图了:
视频链接:https://mp.weixin.qq.com/s/ODL2ABDoGFTXgLiPKCvDYg
如果需要获取图片或者进一步编辑,最好还是点击「code」,将代码部分复制到 Mermaid Live Editor,就像下面这样:
虽然 Kimi 可以直接生成旁枝错节的思维导图,但也有天生的局限性(如下图),你不可能直接在对话框里看清楚细节。怎么办?最好还是复制到它的「搭子」Mermaid Live Editor 里,图片大小任由你伸缩:

写到这里,偶然看到一条热搜,五一本来计划去海边玩的,天气预报那几天都是下雨,但是一天只下两三个小时,降水概率 20%,攻略都做好了,装备也买齐了,酒店车票都订好了,到底该不该去?
正好可以用思维导图试试。输入:“五一本来计划去海边玩的,天气预报那几天都是下雨,但是一天只下两三个小时,降水概率 20%,攻略都做好了,装备也买齐了,酒店车票都订好了,到底该不该去?用横向的 Mermaid 图表来指导我如何决策”。这是 kimi 制作的思维导图:

再如「我正在努力地学习有效管理时间,用横向的 Mermaid 图表来指导我如何确定任务的优先级。」Kimi 是这样指导的:
既然 Claude 3 Opus 还不能直接生成思维导图,不妨试试让它生成相应代码。比如,「创建一个关于当前开源大模型的思维导图,将这个主题作为思维导图的中心,围绕中心延伸出主要分支和次级分支,填充相应的内容。」
然后,复制这些代码到 Kimi,也可以直接帮你生成思维导图:

视频链接:https://mp.weixin.qq.com/s/ODL2ABDoGFTXgLiPKCvDYg
当然,不是每次让它生成思维导图都会如愿,有时 Kimi 只有代码,有时生成的代码不能生成图片。涉及到极为复杂的人物关系也有些捉襟见肘。
例如,让 Kimi 用横向的 Mermaid 图表来梳理一下《红楼梦》中的主要人物关系。也是难为它了,如此高度复杂的人物关系,Kimi 也不得不简化了很多:

视频链接:https://mp.weixin.qq.com/s/ODL2ABDoGFTXgLiPKCvDYg
和 Claude 3 Opus 制作的人物关系图(下图)相比,感觉半斤八两——大家都为了保全某一部分人物关系不得不舍去另一部分。
这里测试的思维导图也只是常见图表中的一种,诸如饼图、甘特图等其他常见类型, Kimi 似乎还没有准备好。X 网友 JerLin 还发现,Kimi 也不太擅长制作甘特图。
输入 prompt「用 Mermaid 甘特图,输出陪伴机器人的开发 roadmap 示例」,Kimi 写出一堆代码,创建了一个名为「陪伴机器人开发路线图」的甘特图,包含了需求分析、设计阶段、开发阶段、测试阶段、上市准备、发布与维护等几个主要的节点,每个阶段都有相应的任务和时间线。

来自X 网友 JerLin
不过,「Kimi 还不支持解析,也有一定概率会翻车,对接 API 的话需要后处理。」也就是说,在解析能力、稳定性、与其他系统对接等方面,Kimi 还存在一些不足。
以后我们会通过新专栏带来更多 AIGC 案例演示,也欢迎大家留言评论并给出改进建议。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB