失控的特斯拉在悉尼购物中心停车场撞上三辆车并冲下屋顶

警方已展开调查,因一辆特斯拉在悉尼与三辆车相撞后,冲下一个边缘,此事件引发了关于这家电动车制造商自动驾驶功能的质疑。


周六上午10点左右,紧急服务部门接到呼叫,前往Homebush的DFO购物中心,处理一起涉及特斯拉轿车的事件。来自第九频道的画面显示,这辆特斯拉Model S首先撞上两辆车,然后以高速冲向另一辆车,导致其被轻微剐蹭。随后,这辆车驶离了停车场的一个边缘,落在了下方的一个装卸码头。

59岁的男司机和68岁的女乘客在现场接受了伤害治疗后被送往医院。事件中无人受伤。目前尚不清楚在事件发生时司机是否掌控了车辆。早些时候,美国当局对特斯拉的自动驾驶功能进行了调查,发现其已涉及13起致命事故。Guardian Australia联系了特斯拉进行评论。新南威尔士警方在一份声明中表示,来自奥本警局的警员“到达现场时发现一辆轿车与三辆车相撞后,驶下了一个边缘并落在了装卸码头。”警方表示:“59岁的男司机和68岁的女乘客在现场由新南威尔士州救护车的医生进行胸部疼痛的治疗后,被送往皇家阿尔弗雷德医院接受评估。”警方声明称:“调查事件的相关情况仍在进行中。”



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

失控特斯拉在悉尼购物中心停车场撞上三辆车并驶下屋顶

警方已展开调查,经过一辆特斯拉在悉尼撞向三辆车后,驶下一个平台,整个事件引发了对电动车制造商自动化功能的质疑。


周六上午10点前,紧急服务部门接到电话,赶到位于霍姆布什的DFO购物中心,处理涉及该特斯拉轿车的事件。频道九播出的事件视频似乎显示,这辆特斯拉Model S先是撞上两辆车,然后朝另一辆车辆加速驶去,轻微擦碰后又驶下了停车场的边缘,坠落至下方的一个装载区。

特斯拉的59岁男驾驶员和68岁女乘客在现场接受了治疗后被送往医院,没有其他人受伤。视频中并不清楚事故发生时驾驶员是否控制了车辆。今年早些时候,美国当局调查特斯拉的自动驾驶功能时发现,其已涉及13起致命撞车事故。澳大利亚卫报联系了特斯拉以征求评论。新南威尔士州警方在一份声明中表示,奥本警察局的警员“抵达现场,发现一辆轿车撞上了三辆车辆,并驶下了一个平台,落在下面的装载区”。“59岁男驾驶员和68岁女乘客在现场接受新南威尔士州救护车的胸痛救治后,被送往皇家悉尼医院进行评估,”警方如是说。“有关该事件的调查仍在进行中,”警方声明中提到。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

亚马逊、谷歌和Meta“掠夺文化、数据和创造力”来训练AI,澳大利亚调查发现

科技公司亚马逊、谷歌和Meta因对如何使用澳大利亚数据来训练其强大的人工智能产品一事遭到参议院特别委员会调查的批评。


调查主席、工党参议员托尼·谢尔登对这些跨国公司拒绝直接回答有关他们如何使用澳大利亚公民的私人数据和个人信息的问题感到沮丧。在周二公布了调查报告之后,谢尔登在一份声明中说:“看着亚马逊、Meta和谷歌在听证会上回避问题就像坐在一场廉价的魔术表演中 - 大量挥手、一股烟雾,最终什么都没有。” 他称这些科技公司为“海盗”,称他们“掠夺我们的文化、数据和创造力以获取利益,而让澳大利亚人空手而归。”

报告发现一些通用的人工智能模型 - 如OpenAI的GPT、Meta的Llama和谷歌的Gemini - 应自动默认为“高风险”类别,并需遵守强制的透明度和问责要求。调查和报告中出现了一些关键主题。谢尔登表示,澳大利亚需要“全新的独立AI法律”来“限制大科技公司”,并且现有法律应根据需要进行修订。他说,在调查期间,亚马逊拒绝透露它如何利用从Alexa设备、Kindle或Audible记录的数据来训练其人工智能。他说,谷歌也拒绝回答关于其服务和产品中用户数据如何被用于训练其人工智能产品的问题。Meta承认自2007年以来一直在从澳大利亚的Facebook和Instagram用户那里搜集数据,以准备未来的人工智能模型。但该公司无法解释用户如何同意他们的数据用于2007年并不存在的事物。谢尔登表示,Meta回避了关于它如何利用其WhatsApp和Messenger产品数据的问题。


请注意:Title、Date、Body 的内容已按照Makedown格式标准输出。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

亚马逊、谷歌和Meta“掠夺文化数据和创造力”用于训练AI,澳大利亚调查发现

科技公司亚马逊、谷歌和Meta因特别含糊地使用澳大利亚数据来训练他们强大的人工智能产品而受到澳大利亚参议院特别委员会调查的批评。


主持调查的工党参议员托尼·谢尔顿对这些跨国公司拒绝直接回答有关他们如何使用澳大利亚人的私人和个人信息的问题感到沮丧。“看着亚马逊、Meta和谷歌在听证会上回避问题,就像坐在一个廉价的魔术表演中-充分的挥手、一缕烟,最终却没有什么结果可以展示,”谢尔顿在周二发布调查最终报告后在一份声明中说。他称这些科技公司为“海盗”,他们“掠夺我们的文化、数据和创造力以谋取自身利益,同时让澳大利亚人一无所获”。

报告发现一些通用的人工智能模型,如OpenAI的GPT、Meta的Llama和谷歌的Gemini,应自动默认为“高风险”类别,并应受到强制透明度和问责要求。调查和报告中出现了一些重要主题。

独立的人工智能法律需求

谢尔顿表示,澳大利亚需要“新的独立人工智能法律”来“制约大科技公司”,并应根据需要修改现行法律。“他们想制定自己的规则,但澳大利亚人需要保护权利的法律,而不是硅谷的利润,”他说。他表示,在调查期间,亚马逊拒绝透露他们如何使用从Alexa设备、Kindle或Audible记录的数据来训练其人工智能。他说,谷歌也拒绝回答有关该公司如何使用其服务和产品的用户数据来训练其人工智能产品的问题。Meta承认自2007年以来一直从澳大利亚的Facebook和Instagram用户那里获得信息,以准备用于未来的人工智能模型。但该公司无法解释用户如何在2007年的情况下同意将他们的数据用于不存在的事物。谢尔顿表示,Meta回避了有关该公司如何使用来自WhatsApp和Messenger产品的数据的问题。

AI对创意工作者的“高风险”

报告发现,创意工作者的生计最有可能受到人工智能的严重影响。建议建立付款机制,以补偿当AI生成的作品基于他们的原始材料时的创作者。报告指出,AI模型的开发者需要对其数据集中有关版权作品的使用进行透明化。任何声明的作品都应获得授权并支付费用。

{以上为正文内容,未包含末尾部分的作者及日期信息}

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

亚马逊、谷歌和Meta“掠夺文化、数据和创造力”以训练AI,澳大利亚调查发现

科技公司亚马逊、谷歌和Meta因其在使用澳大利亚数据训练其强大人工智能产品时的模糊性而受到澳大利亚参议院特别委员会调查的批评。


Labor党参议员托尼·谢尔顿是该调查委员会主席,对这些跨国公司拒绝直接回答有关其使用澳大利亚公民私人和个人信息的问题感到沮丧。
在周二发布该调查报告后,谢尔顿在一份声明中表示:“观看亚马逊、Meta和谷歌在听证会上回避问题就像坐在看一场廉价的魔术表演中 - 大量的挥手示意、一缕烟雾,最终什么也没有。” 他称这些科技公司为“海盗”,指责它们“掠夺我们的文化、数据和创造力,以谋求自身利益,却让澳大利亚人一无所获。”

报告发现一些通用人工智能模型 - 如OpenAI的GPT、Meta的Llama和谷歌的Gemini - 应自动默认为“高风险”类别,并应受到规定的透明度和问责要求。调查和报告中出现了几个关键主题。

谢尔顿表示,澳大利亚需要“新的独立人工智能法律”来“约束大科技公司”,并适时修改现有法律。“他们想要制定自己的规则,但澳大利亚人需要保护权利的法律,而不是硅谷的利润线,”他说。他说,在调查期间,亚马逊拒绝透露它如何使用从Alexa设备、Kindle或Audible记录的数据来训练其人工智能。相似地,谷歌也拒绝回答关于其使用其服务和产品的用户数据来训练其人工智能产品的问题。Meta承认自2007年以来一直在为未来的人工智能模型从澳大利亚的Facebook和Instagram用户进行扒取。但该公司无法解释如何让用户同意将其数据用于2007年不存在的事物。

报告发现,创意工作者是人工智能严重影响其生计的最迫在眉睫的风险群体。建议建立支付机制,以补偿创意工作者当基于其原始材料生成的人工智能作品时。报告还指出,人工智能模型的开发者需要透明地公开其数据集中使用的受版权保护作品。任何声明的作品都应获得许可并支付报酬。

报告的13项建议之一是呼吁出台独立的人工智能立法,以涵盖被视为“高风险”的人工智能模型。对于影响人们工作权利的人工智能应被指定为高风险,意味着在采用之前需要咨询、合作和代表。

处理人工智能相关事务的机构Apra Amcos表示,报告认识到人工智能对工作者,尤其是创意领域的不利影响。该组织称报告的建议提出了“明确的措施”来减轻风险。媒体、娱乐和艺术同盟表示,报告呼吁出台立法以建立人工智能法案是“明确和明确的”。

调查委员会中的两名联盟议员琳达·雷诺兹和詹姆斯·麦格拉斯表示,人工智能对澳大利亚的网络安全、国家安全和民主机构构成了比创意经济更大的威胁。他们认为需要建立机制,“而不会侵犯人工智能在创造就业和提高生产率方面带来的潜在机会。”他们不接受报告的结论,即所有“在职人士”使用人工智能的情形应自动被分类为“高风险”。 绿党的额外评论认为最终报告没有足够深入。“[报告]没有建议出一个可以使澳大利亚的人工智能监管与英国、欧洲、加利福尼亚或其他司法辖区保持一致的全面策略,”该党表示。

《卫报》向亚马逊、谷歌和Meta寻求评论。

探索更多关于这些主题的内容
人工智能(AI)
计算
亚马逊
Meta
谷歌
互联网
新闻
分享

可以重复使用此内容。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

大模型公司们创业未半,技术主心骨们却先弃船回大厂了?

2024年下半年,AI行业的人才流动呈现出戏剧性的转折:从科技巨头出走创业后,如今又选择回流大厂。两年前,在AI 2.0的开端,伴随而来的是新的创业热潮,曾在大厂任高位的算法工程师们开始躁动不安,意图通过“创业”来乘上时代的船。


接近两年过去了,躁动的心“死”了一半。2024年后半年,国内几家AI独角兽均进入动荡期,一批中高技术和产品骨干乃至联创团队离任,其中不少都回流大厂。11月12日,据媒体报道,月之暗面几位出海负责人已于近期离职,Noisee前产品负责人明超平(前剪映产品经理)将重新创业,其余十余位目前还未表明动向。更早之前,波形智能创始团队打包进了OPPO负责交互产品;面壁智能秦禹嘉被曝离职后,2024年下半年加入字节跳动大模型研究院;零一万物算法副总裁、模型预训练负责人黄文灏加入了字节跳动,负责技术项目管理和规划,直接汇报给朱文佳;MIniMax产品负责人张前川于今年9月被确认离职后,至今未更新消息。这个结局,与今年5月份硅谷AI独角兽们的结局如出一辙。C.AI的两位创始人双双回归谷歌,加入Gemini AI项目;Inflection AI创始人Mustafa加入微软,负责Bing、Copilot;Adept CEO David带着联创和几乎全体员工加入亚马逊….人才的流向是最敏感的风向标。大厂凭借深厚的技术积累、充沛的算力资源和持续的研发投入,正在AI赛道上展现出越发明显的优势。而创业公司即便估值傲人,也难以在基础模型研发和商业落地的双重考验中独善其身。技术、资本与人才正进行重组,高调创业又低调离场的背后,行业正在经历一轮静默的洗牌。

1、创业公司:打不过就加入

AI圈有一个共识:“人才第一、数据第二、算力第三。”实际上,对于人才的争抢就从未停止过。不同的是,“卷基模”阶段,顶尖算法人才形成了一个高度封闭的圈层,他们的流动更像是一场“精英轮转”,基本只能靠抢。今年10月底,原阿里通义千问大模型负责人(P9)周畅在7月离职后,被曝出低调加入字节,曾带队设计并实现了超大规模的多模态训练模型M6,刚好与字节下一步的技术方向符合。“关于大模型的人才很少,顶尖人才更少,国内有80%都在微软亚研院的CV组待过,这部分人就这么多,而且已经很少流通了。”一位大模型算法工程师告诉我们。…

2、AI创业“降虚火”

AI创业领域的人才“大逃亡”,揭开了一个尴尬的现实:前期创业热潮中的泡沫正在被市场挤压出清,人才流动更多是创业初心与现实考验之间的碰撞结果。有相当一部分创业者并非出于强烈的意愿,而是被资本推着走。上述算法工程师透露:不少高级算法工程师是被投资人“拽”出来创业,缺乏足够的创业决心。这类创业者往往会与原东家保持密切联系,将回流大厂作为随时可以启动的”Plan B”。有人将创业视为规避大厂竞业限制的”中转站”。还有人将其视为镀金的捷径,梦想着通过运作AI项目,最终收获一纸通往大厂的“入场券”。“通过创业规避半年竞业期,最终目的是跳到竞争对手公司,是业内公开的秘密。”当技术创业的复杂性远超资本预期,人才回流,某种程度上是一种自我出清的方式。从技术创新的视角来看,在接下来一段时间的动荡中,市场正经历从“点状突破”向“系统性创新”的转变。早期阶段,创业公司往往将注意力集中在某个特定技术领域的突破上,可能是一个更精准的算法,或是某个细分场景的优化。然而,随着技术的普及和市场的成熟,单一技术优势已经无法支撑企业的持续发展。市场对系统性创新的迫切需求,导致了创新的重心也在悄然发生位移,从纯粹的技术领域转向应用场景商业模式的创新。最近几个月在硅星人接触到的创业公司中,几乎得到了统一的共识:随着开源和底层技术的不断拉齐,AI产品不存在技术壁垒,但在这个前提下,才能催生创业者不断思考产品壁垒和用户壁垒。“我们发现,相比模型的准确率提升1%,让产品更贴合用户习惯带来的效果提升可能达到10%。”上述算法工程师讲道。但人才流动带来的不仅是技术上的影响,更是市场竞争格局的潜在重构。这种新格局下产生了新的竞合关系,某种程度上类似于移动互联网时代的应用商店生态。大厂提供平台和基础设施,创业公司在平台上进行创新。不同的是,AI时代的创新门槛更高,对技术积累和专业化程度的要求也就更高。“我们可以在三个月内完成大公司需要一年才能做的创新尝试。”一位创业者讲道,创业公司的优势在于能够快速试错和场景验证,当技术本身的提升空间变得有限时,真正的差异化优势开始来自于对具体行业场景的深度理解和落地能力。另一边,大厂在新的产业分工中则承担着规模化和商业化的角色。它们不仅提供基础设施支持,更重要的是承担着市场教育和商业化落地的重任。这是大部分创业公司面临的进退两难的困境,在移动互联网仅存的需求中,一边创造着新的需求教育市场,另一边与大厂横向竞争,找不到商业化落地的路径。从单打独斗的“重复造轮子”走向整合重组,动荡之后,或许是新的起点。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

致命错误!Sam Altman发一张对比图,遭到大量吐槽

OpenAI联合创始人兼首席执行官Sam Altman在社交平台发布了一个产品对比图,没想到却遭到了大量网友的吐槽。

Sam把一个相同的问题“谁会成为美国更好的总统,特朗普还是哈里斯?请先选择一个,然后再解释你的理由。


”放在了自家的ChatGPT以及马斯克旗下的Grok2 beta进行了答案对比。

结果显示,Grok2出现了不公正的内容更看好哈里斯,而ChatGPT回答的更中立、公平

随后,Sam继续发文,我为 ChatGPT 在评估中一贯得分为偏见最小的 AI 而感到自豪。这是一个重要的默认设置(用户可以进行更多的自定义设置)。

大量网友对这个结果非常不满意,认为Sam有意隐藏了Grok2部分回答内容。目前关于这个推文的评论已经超过3700条,浏览量超540万,甚至超过了Sam发布很多OpenAI创新产品时的数据,争议非常大。

你显然删减了Grok谈论特朗普的部分。

Sam直接攻击马斯克和Grok,这是发生啥大事了吗?

有网友直接贴出了ChatGPT的结果,“我测试了这个提示10次,在所有10次中,ChatGPT 4o始终选择哈里斯比特朗普更适合当总统。

Sam我们不信任你。

试图操控Grok并发布虚假结果被抓可不是什么好事!

也有网友直接贴出了ChatGPT自己的结果,认为它更不公正。

不只是一位网友,其他人也获得了同样的结果,ChatGPT给出了不中立的内容。

Grok通常会拒绝选择立场,但如果你明确要求,它就会这样做。不过,它也会输出 ChatGPT 从来不会做的事情。

你确定吗,老铁?你不仅通过截断完整回复来撒谎关于Grok的事情,看看询问ChatGPT它会选谁当总统的结果是什么,它选择了哈里斯。

有媒体指出,Sam不诚实地截断了回答的底部部分,在那里Grok陈述了对两个候选人的论点,并明确表示不选择给出回应。如果你想看到,可以自己运行测试。Sam在撒谎。

马斯克则直接回击,狡猾的Sam又上线了。

马斯克顺路还把当年OpenAI的往事给爆料出来,证据就是他们内部的交流邮件,大致内容就是几个创始人不相信Sam创立OpenAI的非营利初衷,马斯克想撤资。

类似质疑Sam的评论还有很多,这次受到的攻击很大人设有点崩。

Sam Altman犯了致命错误

其实Sam作为全球生成式AI领导者,OpenAI的掌门人,他不可能不知道AI模型回答的内容是有概率问题的,犯了一个低级且致命的错误。

「AIGC开放社区」就用通俗易懂的方式为大家解读一下,为什么用户和Sam看到的结果是截然相反的。

当你问ChatGPT 、Gork等AI助手100次,可能会出现100次不同的答案,这是因为AI模型在生成文本时依赖于概率分布,它们预测下一个单词或字符出现的可能性,并从这个概率分布中随机采样来生成输出。

即便你输入相同的提示词,每次生成时由于采样的随机性,模型可能会选择不同的单词或短语,导致最终答案的差异。使用过AI助手的用户会注意到,在答案底部都会有一个重置按钮,那个就是用来重置答案概率的。

例如,当被问到“晴天的天空是什么颜色”时,模型会根据其学习到的概率,有时生成“蓝色”、 “浅蓝色”或“深蓝色”,每次生成的具体词汇存在一定的随机性。

就算你问1+1为什么等于2这种很理科的问题,模型在回答的过程中也会给出不同的解释。

而Transformer架构的注意力机制会在不同的生成步骤中对输入文本的不同部分分配不同的权重,以确定当前生成的重点和上下文信息的依赖程度。

由于注意力权重的计算也是基于一定的概率和参数调整,每次生成时注意力的分配可能会略有不同。

例如,AI模型在回答一个复杂的故事性问题时,可能在某次生成中更关注故事的开头部分来生成后续内容,而另一次则可能更侧重于中间某个情节,从而导致生成的故事发展和细节有所不同。

AI模型还会不断地进行参数的微调和优化,以提高性能和表现。不同的微调策略、优化算法以及不同批次的数据更新等,都可能导致模型在内部参数上产生微小的变化。

例如,一次微调可能使模型在回答数学问题时更倾向于一种解题思路,而另一次微调后则可能会选择另一种略有差异的方法,也会给出不同的答案

同时将输入文本转换为模型能够处理的向量表示以及将生成的向量表示转换回文本的过程中,也存在一定的不确定性和可变性。不同的编码和解码方式、参数设置等,都可能影响最终的生成结果。

例如,对于一些具有歧义的输入文本,不同的编码方式可能会导致模型对其理解和处理的侧重点不同,从而在解码生成答案时出现差异。

在将输入文本转换为模型能够处理的向量表示以及将生成的向量表示转换回文本的过程中,也存在一定的不确定性和可变性。不同的编码和解码方式、参数设置等,都可能影响最终的生成结果。

例如,就像Sam提出的这个文本提示,不同的编码方式可能会导致模型对其理解和处理的侧重点不同,从而在解码生成答案时出现差异。

此外,AI模型是基于海量的文本数据进行训练的,这些数据来源广泛、数据标注和数据质量参差不齐。在训练过程中,模型会学习到各种不同的表达方式、观点和知识,这使得它在生成答案时具有很大的灵活性和多样性

当被问到一个开放性问题时,模型可能会根据其从不同数据中学到的不同观点和角度,生成多种不同的回答。例如,对于“人生的意义是什么”这个问题,模型可能会依据所学习到的哲学、文学、宗教等不同领域的相关内容,每次生成不同侧重点和深度的答案。

所以,即便Sam没有隐藏Grok2完整的回答内容,自己看到的答案确实是Grok2不公平、公正,那他直接发出来都不是一个非常明智的选择

因为,别人向Grok2提问相同的内容,它很可能就生成公正的回答,有兴趣的小伙伴可以试试这个相同的问题。

这一次,Sam Altman确实有点玩脱了。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

从未见过现实世界数据,MIT在虚拟环境中训练出机器狗,照样能跑酷

如今,机器人学习最大的瓶颈是缺乏数据。与图片和文字相比,机器人的学习数据非常稀少。


目前机器人学科的主流方向是通过扩大真实世界中的数据收集来尝试实现通用具身智能,但是和其他的基础模型,比如初版的 StableDiffusion 相比,即使是 pi 的数据都会少七八个数量级。MIT 的这个团队希望用生成模型来作为机器人学习的新数据源,用工程手段来取代传统的数据收集,实现一条通过由生成模型加持的物理仿真来训练机器人视觉的技术路线。


。注意:Title、Date、Body 三个部分的内容,放入到对应的位置。最后只需要按照格式标准输出为Makedown源文件格式内容。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

AI可能导致持有其主观意识不同观点的人之间出现“社会分裂”

重要的“社会分裂”可能会在认为人工智能系统具有主观意识的人和坚持这项技术无感觉的人之间出现,一位领先的哲学家表示。


这些评论来自伦敦政治经济学院哲学教授乔纳森·伯奇,正值各国政府准备本周在旧金山聚集加速制定规范,以应对人工智能最严重的风险。

上周,一群跨大西洋的学者预测,人工智能系统意识的曙光可能在2035年出现,并且有人表示,这可能导致“子文化之间彼此认为在计算机程序是否应该像人类或动物一样享有类似福利权益这一问题上犯下了巨大错误”。

伯奇表示,他“担心会出现重大社会分裂”,因为人们对于人工智能系统是否真的具有痛苦和快乐等情感能力存在分歧。对人工智能中主观意识后果的辩论回响着科幻电影,如史蒂芬·斯皮尔伯格的《AI人工智能》(2001)和斯派克·琼斯的《她》(2013),在这些电影中,人类正在努力应对人工智能的情感。

美国、英国等国家的人工智能安全机构将于本周与科技公司会面,以制定更强大的安全框架,因为技术正在迅速进步。不同国家和宗教如何看待动物主观意识已经存在显著差异,比如印度,那里有数亿素食主义者,而美国是世界上最大的肉类消费国之一。对人工智能主观意识的观点可能沿着类似的路线分化,而沙特阿拉伯等神权国家的看法可能与世俗国家不同。这个问题也可能在家庭内部引发紧张,那些与聊天机器人或甚至已故亲人的人工智能化身建立亲密关系的人,可能与认为只有血肉生物具有意识的亲人发生冲突。

伯奇是动物主观意识方面的专家,他为抵制章鱼养殖领域的禁令做出了开创性工作,他是一项涉及纽约大学、牛津大学、斯坦福大学以及Eleos和Anthropic AI公司的研究的合著者,该研究称AI系统具有自己的利益和道德意义的前景“已不再只是科幻或遥远的将来问题”。他们希望开发人工智能的大型科技公司开始认真对待这一问题,通过确定其系统的主观意识来评估他们的模型是否能够感到快乐和痛苦,以及它们是否可以受益或受害。

{…}



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

CNCF推出技术景观雷达和参考架构

CNCF 的终端用户技术咨询委员会编制了新材料,以推广最佳实践并简化云原生技术的采用。图片{ width=60% }


在 KubeCon + CloudNativeCon 北美地区 - 云原生计算基金会®(CNCF®)今天宣布了 CNCF Technology Landscape Radar 报告,重点关注生产准备就绪的多集群应用管理和批处理、人工智能和机器学习计算技术,以及在生态系统中的空白。该报告还利用相同的数据来识别生态系统中的差距,并从终端用户技术咨询委员会推出了一组 Cloud Native 参考架构,以帮助解决这些差距。

对于 CNCF Technology Landscape Radar,CNCF 与 SlashData 合作对超过 300 名专业开发人员使用云原生技术(包括 CNCF 终端用户社区成员)的经验进行了调查,涉及多集群应用管理和批处理、人工智能和机器学习技术。调查中涵盖的主题和技术是由终端用户 TAB 选定的,代表了对云原生终端用户而言关注度最高的真实问题。报告根据每个领域的技术准备就绪性进行评估,并将它们分为四类:采用、试用、评估和保留。对于多集群应用管理,CNCF 毕业的技术 ArgoCD 和 Cilium 被认为是可以直接采用的。Apache Airflow 和 CNCF 的 CubeFS 和 Kubeflow 也因批处理、人工智能和机器学习计算技术而获得高评价。

CNCF 的生态系统雷达团队在进行技术雷达时捕获了关于管理生态系统某些方面困难的见解。这些挑战主要源自采用多集群、多云或混合部署的复杂性,包括成本、可观察性、安全性以及跨工具、供应商和环境的集群生命周期等问题。它还确定了对更多标准化和互操作性以及定期提升技能以与云原生技术最新发展同步的需求。关于这些挑战的更多信息可以在生态系统差距报告中找到。

为了解决生态系统中的差距并为构建云原生应用程序提供实用指导和示例,终端用户 TAB 内的合作努力 - 参考架构工作组,推出了首批参考架构 - Allianz Direct 平台工程扩展和 Adobe 的基于单元的体系结构扩展。这些实际架构在大型生产环境中使用,包括它们的组织背景介绍,以便理解架构。

CNCF 终端用户社区由 150 多个组织组成,定期举行会议,分享采用最佳实践,并对项目路线图和未来项目提供反馈,以供 CNCF 技术领导者考虑。

CNCF 终端用户本周聚集在 KubeCon + CloudNativeCon 北美大会 2024 在盐湖城。参加即将举行的活动,包括首届 KubeCon + CloudNativeCon 印度,2024 年 12 月 11-12 日在德里,以及 KubeCon + CloudNativeCon 欧洲 2025,2025 年 4 月 1-4 日在伦敦。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB