900个开源AI工具背后,我看到的趋势

四年前,我对开源机器学习生态系统进行了分析。自那时起,情况就发生了变化,所以这次我打算重新讨论这个话题,本次主要关注的是基础模型的技术栈。


我把完整的开源AI代码库列表放在了“llama-police”(https://huyenchip.com/llama-police,该列表每6小时更新一次。其余大部分也放在了我的GitHub“cool-llm-repos”(https://github.com/stars/chiphuyen/lists/cool-llm-repos)列表中。

(本文作者Chip Huyen是实时机器学习平台Claypot AI的联合创始人。本文经授权后由OneFlow编译发布,转载请联系授权。原文:https://huyenchip.com//2024/03/14/ai-oss.html)


数据

如果你现在觉得AI发展十分火爆,那是因为它确实如此。我在Github上以GPT、LLM和Generative AI为关键词进行检索,仅与GPT相关的就有约11.8万条结果。

为减少工作量,我将搜索范围限定在拥有至少500 star数的代码库。结果显示,与LLM相关的有590个,与GPT相关的有531个,与Generative AI相关的有38个。此外,我偶尔会查看GitHub Trending和社交媒体上的新代码库。

经过长时间的搜索,我找到了896个仓库。其中,有51个是教程(例如dair-ai/Prompt-Engineering-Guide)和聚合列表(例如f/awesome-chatgpt-prompts)。尽管这些教程和列表都很有帮助,但我更感兴趣的是软件,不过我还是将其放进了最终列表,只是最后的分析是基于其余845个软件库(截止本文发布)。

这个过程虽然痛苦,但很值得,因为我更深入地了解了人们正在研究的内容,开源社区的合作程度之高令人惊叹,也让我意识到中国的开源生态系统与西方存在很大差异。

(毫无疑问,我也遗漏了很多库。你可以在这里(https://forms.gle/1ijNSnizgWQaVYK16)提交缺失的代码库,该列表每天会自动更新。欢迎提交star数少于500的代码库,我会持续关注这些仓库,并在它们达到500 star时将其添加到列表中!)

新的AI技术栈

我认为,AI技术栈包含四个层级:基础设施层、模型开发层、应用开发层和应用层。

Image1

1.基础设施层

基础设施是AI技术栈的底层,包括用于Serving的工具(例如vLLM、NVIDIA的Triton)、计算管理(例如SkyPilot)、向量搜索和数据库(例如Faiss、Milvus、Qdrant、LanceDB)等。

2.模型开发层

模型开发层提供了开发模型的工具,包括建模和训练框架(Transformers、Pytorch、DeepSpeed)、推理优化(如GGML、Openai/Triton)、数据集工程,评估等。任何涉及改变模型权重的操作都发生在这一层,包括微调。

3.应用开发层

在应用开发层,任何人都可以基于现成的模型开发应用程序。在过去的两年里,这一层的发展动态最多,并且仍在快速演进。这一层也被称为AI工程(AI Engineering)。

应用开发包括提示工程(Prompt Engineering)、RAG(Retrieve、Add、Generate)和AI界面(AI Interface)等。

4.应用层

应用层有许多基于现有模型构建的开源应用程序,其中最流行的应用类型包括编码、工作流自动化、信息聚合等。

除这四层外,还有另一个类别,即模型存储库(Model Repos)。这些存储库由公司和研究人员创建,用于分享与他们模型相关的代码。这一类别的存储库示例包括CompVis/stable-diffusion、openai/whisper和facebookresearch/llama。

AI技术栈的演进

我绘制了每一类别中代码库数量的累积月度图。在2023年推出Stable Diffusion和ChatGPT之后,新工具的数量呈爆炸式增长。2023年9月后,曲线似乎开始趋于平缓,这背后可能有三个潜在原因:

1.我的分析中仅包含star数500以上的库,而代码库积累这么多star需要时间。
2.大部分容易获得的成果(low-hanging fruits)已被收割,剩下的项目需要付出更多的努力来构建,因此能够构建它们的人更少。
3.人们意识到在生成式人工智能领域很难保持竞争力,因此激动的情绪已平息。2023年初,我与公司的所有人工智能对话都集中在生成式人工智能上,但最近的交流更加务实,有些公司甚至提到了Scikit-learn。我希望在几个月后重新审视这一点,以验证这种情况是否属实。

Image2

在2023年,增长最快的是应用层和应用程序开发层。基础设施层出现了一些增长,但远不及其他层的增长水平。

应用

毫不奇怪,最受欢迎的应用类型是编码、机器人(例如角色扮演、WhatsApp机器人、Slack机器人)以及信息聚合(例如“将其连接到我们的Slack,并要求它每天…

Image3

AI工程化

2023年是AI工程化的一年。由于许多工具比较相似,很难对其进行分类。目前我将它们分为以下几类:提示工程、AI界面、智能体(Agent)和AI工程(AIE)框架。

提示工程远不止是简单地调整提示,涵盖了诸如约束采样(结构化输出)、长期记忆管理、提示测试与评估等内容。

Image4

AI界面提供了一个界面,可以让最终用户与AI应用程序进行交互。这是我最感兴趣的一个类别。一些日益受到欢迎的界面包括:

  • Web和桌面应用程序。
  • 浏览器扩展,让用户在浏览网页时快速查询AI模型。
  • Slack、Discord、微信和WhatsApp等聊天应用程序上的机器人。
  • 插件:让开发人员将AI应用程序嵌入到VSCode、Shopify和Microsoft Office等应用程序中。插件常用于可以使用工具完成复杂任务的AI应用(智能体)中。

AIE框架是一个统称,用来指代所有能够帮助开发AI应用程序的平台。其中许多平台都是围绕RAG构建的,但也提供诸如监控、评估等其他工具。

智能体是一个捉摸不定的类别,因为许多智能体工具实际上只是复杂的提示工程,可能包含约束生成(例如,模型只能输出预定的动作)和插件集成(例如,让智能体使用工具)。

Image5

模型开发层

在ChatGPT出现之前,模型开发主导了AI技术栈。2023年,模型开发的最大增长源自于对推理优化、评估和参数高效微调(归类为建模和训练)日益增加的兴趣。

推理优化一直以来都非常重要,但如今基础模型的规模使得它对时延和成本变得至关重要。虽然优化的核心方法仍然保持不变(量化、低秩分解、剪枝、蒸馏),但许多新的技术已经被开发,特别是针对Transformer架构和新一代硬件。例如,2020年,16位量化被认为是最先进的技术,而如今又出现了2位量化甚至更低的量化技术。

同样,模型评估一直以来也十分重要,但如今许多人把模型视为黑匣子,因此评估的重要性变得愈发突出。现在出现了许多新的评估基准和评估方法,例如比较评估(如Chatbot Arena)和将AI作为裁判(AI-as-a-judge)的评估方法。

Image6

基础设施层

基础设施层主要涉及管理数据、计算以及用于服务、监控和其他平台工作的工具。尽管生成式人工智能带来了诸多变化,但开源AI基础设施层基本保持不变。这可能是因为基础设施产品通常不是开源的,因此在开源领域中并没有出现太多变化。

基础设施层中的最新类别是向量数据库,其中包括Qdrant、Pinecone和LanceDB等公司。然而,许多人认为,这根本不应该成为一个类别。向量搜索已经存在很长时间了。与其仅仅为了向量搜索构建新的数据库,不如像DataStax和Redis这样的现有数据库公司将向量搜索整合到现有的数据库中。

开源AI开发者

像许多其他事物一样,开源软件也遵循长尾分布,由少数账户掌控着大部分的代码库。

一人创造价值数十亿美元的公司?

有845个代码库托管在594个独特的GitHub账户上,其中20个账户至少拥有4个代码库。这些排名前20的账户托管了195个代码库,占列表上全部代码库的23%,这195个代码库共获得了165万star数。

Image7

在Github上,账户可以由组织或个人所有。在这些排名Top 20的顶级账户中,有19个属于组织,其中3个属于谷歌,分别是Google-research,Google和Tensorflow。

在排名top 20的账户中,唯一的个人账户是lucidrains。在拥有最多star数的top 20账户中(仅计算通用人工智能代码库),只有4个是个人账户:

  • lucidrains(Phil Wang):能以极快的速度实现SOTA模型。
  • ggerganov(Georgi Gerganov):一位物理学出身的优化专家。
  • Illyasviel(Lyumin Zhang):创建了Foocus和ControlNet,目前在斯坦福大学攻读博士。
  • xtekky:一位全栈开发者,创建了gpt4free。

Image8

自然地,在技术栈所处的层级越低,个人开发的难度就越大。因此基础设施层的软件最不可能由个人账户发起和托管。然而,超过一半的应用程序由个人托管。

Image9

由个人发起的应用程序平均获得的star数比由组织发起的更多。许多人推测将会出现众多市值不菲的个人公司(参考OpenAI CEO Sam Altman的采访 https://fortune.com/2024/02/04/sam-altman-one-person-unicorn-silicon-valley-founder-myth/ 以及Reddit上的讨论)。我认为,这种推测可能是正确的。

Image10

100万次commit

超过两万名开发人员为这845个库做出了贡献。他们共计完成了近100万次commmit!

其中排名前50位的活跃开发人员完成了超10万次commit,平均每人超过2000次。下图为前50位最活跃的开源开发人员的完整列表。

Image11

中国不断壮大的开源生态系统

众所周知,长期以来中国的AI生态系统与美国有所差异,(我在2020年的一篇博客文章中也提到过这一点)。当时,我的印象是GitHub在中国的使用并不广泛,而我的看法可能受到了中国在2013年禁止使用GitHub的影响。

然而,如今情况已经发生了改变。在GitHub上有许多针对中国受众的热门AI代码库,其描述均由中文编写。其中一些代码库是为中文或中英文混合开发的模型而设立的,如Qwen、ChatGLM3、Chinese-LLaMA等。

在美国,虽然许多研究实验室已经放弃了基于循环神经网络(RNN)架构的语言模型,但基

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

全新Flyme AIOS登场!手机特种兵魅族21 Note全系16GB大内存,仅2599元起

2024 年 5 月 16 日下午,星纪魅族正式召开「Flyme AIOS 暨魅族 21 Note 手机特种兵发布会」,全新 Flyme AIOS 系统、魅族 21 Note、魅族 LIVE AI 真无线 Hi-Fi 降噪耳机、MYVU 和 PANDAER 潮流产品悉数精彩亮相。新阶段,新征程,All in AI 后的星纪魅族正以 AI 全面赋能科技产品,致力打造更智能、更领先的旗舰标杆。


目前,魅族 21 Note 手机特种兵已在魅族商城、魅族线下体验店、各大授权电商平台开启预售,16GB+256GB 售价 2599 元, 16GB+512GB 售价 2799 元,5 月 17 日 10:00 即可前往魅族线下体验店参加新品品鉴活动,5 月 20 日 20:00…

魅族 LIVE AI 真无线 Hi-Fi 降噪耳机首发售价 599 元,即日起开启预约,5 月 31 日 20:00 预售,6 月 15 日 20:00 正式开售。

5 月 20 日 20 点魅族 618 活动即将开启,魅族 21 系列至高直降 800 元,魅族 21 12GB+256GB 到手价 3099 元起,魅族 21 PRO 到手价 4199 元起,魅族 21 Note 新机发售…

魅族 21 Note 特种兵计划开启,PANDAER City Pop 潮流新主题产品同样精彩上新。魅族 21 Note 手机壳膜现已同步开售,妙磁抗菌壳售价 89 元起,壳膜套餐立减 30 元。35W/40W/67W 新 City Pop GaN 潮充系列现已开售,售价 89 元起。防晒凉感 T 恤 将在 5 月 17 日 10:00…

全新 Flyme AIOS:AI 新境界,处处新体验

作为最受用户喜爱的操作系统之一,Flyme 十年如一日,以稳定流畅、清爽优雅的满分体验收获千万用户芳心。在年初,Flyme AI 面世并通过 AI 大模型及智能辅助赋能系统交互,崭新的 AI 功能激发起一众用户的探索欲,并与 Flyme 一同推动 Flyme AI 变得愈加成熟,更加可靠…

AI 新质生产力,效率大飞跃

在全新 Flyme AIOS 中,AI 正式全面进入系统生产力新阶段。Aicy 助手拥有 Flyme 最为核心的智能交互能力,此次升级,加入了超自然音色及连麦对话能力,能够为用户提供近乎于真人对话语气、音色、语感的真实化体验,实现更加拟人且口语化的连续沟通,让 Aicy 助手更高效地解决用…

AI 原生底座,加持智慧全场景

Flyme AIOS 在系统大模型上,新增任务剧本和任务机器人两大系统 AI 原生能力,让 AI 不仅是语音助手,还是智能手机的自动驾驶,从辅助到全场景自动执行,Flyme AIOS 将手机上媲美汽车自动驾驶 L2、L3、L4 级的自动操作能力正式融入系统体验…

设计焕新,系统动效流畅前所未有

全新 Flyme AIOS 不仅增强了 AI 能力及多项场景体验,还从底层开始全面进行设计焕新。…

更多 AI 新功能,开启体验新世界

Flyme 全新游戏模式也正式加入 AI 赋能行列,支持全局 AI 游戏场景优化,将优化游戏助手视觉动效及交互布局…


。…

注意:文章过长,仅展示部分内容。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

入选国际数据库顶级会议ICDE,腾讯云数据库技术创新获权威认可

今日获悉,腾讯云数据库2篇论文入选国际数据库顶级会议ICDE。其分布式事务协议——Lion和内存-磁盘跨越索引设计框架,解决了数据库领域的普遍难题,技术创新获得国际权威认可。


descript

(腾讯云数据库团队在ICDE会场进行技术分享)

据悉,ICDE(IEEE International Conference on Data Engineering)是数据库研究领域历史悠久的国际会议,与SIGMOD、VLDB并称数据库三大顶级会议,也是中国计算机学会(CCF)推荐的A类国际会议,主要聚焦设计、构建、管理和评估高级数据密集型系统和应用等前沿研究问题。

如今,分布式数据库已成为企业存储和管理海量数据的重要工具,在分布式事务处理过程中,常常涉及多轮跨节点的通信,处理速度较慢。过去为提高性能,业内多通过迁移将分布式事务转换为单节点事务。但基于迁移的方法可能会因等待数据迁移而导致事务被阻塞,而超级节点可能会成为瓶颈。

此次,腾讯云和中国人民大学合作入选ICDE的论文《Lion: Minimizing Distributed Transactions through Adaptive Replica Provision》,则为这一难题提出了一种新颖的事务处理协议——Lion。作为一种自适应的副本放置机制,Lion利用基于分区的复制来减少分布式事务的发生。该机制增强了基于LSTM的工作负载预测算法,以确定定位共同访问分区的副本的适当节点。通过采用这种自适应副本放置策略,可以确保大多数事务可以在单个节点上高效处理,而无需额外的开销。因此,Lion有效地最小化了分布式事务,同时避免了由数据迁移或超级节点的创建引起的任何中断。大量实验结果显示,Lion与各种先进的事务处理协议相比,吞吐量提高了最多2.7倍、可扩展性提高了76.4%。

ICDE评审委员会也对论文研究成果给予了高度认可,认为Lion所提出的调整策略考虑了历史信息和未来工作负载的变化,并经过全面性评估实验,不仅可显著提高分布式数据库系统的吞吐量,技术先进性还在大部分情况下超越了数据迁移技术、不对称复制方法和确定性方法等。

另外,针对数据库系统中,索引可能会消耗大量内存而无法完全存放的难题,腾讯云联合德州大学阿灵顿分校,在入选ICDE论文《IndeXY: A Framework for Constructing Indexes Larger than Memory》中,提出了名为IndeXY的内存-磁盘跨越索引设计框架。该框架解耦了索引内存部分和磁盘部分的设计,精心设计内存部分向磁盘的选择性卸载并优化了磁盘重新加载索引并保留在内存的策略,以最大化优化内存访问机会和效率。

该框架允许单独采用一个内存索引设计,以及一个被认为最适合其工作负载的磁盘数据组织和访问方案,实验显示,这一设计可将TPC-C工作负载提高高达8.6倍的吞吐量,且可以提高几乎所有YCSB工作负载的性能。

ICDE评审委员会认为,该论文解决了Index在内存索引必须溢出到磁盘时索引效率的关键问题,为企业提供了一个可按需选择的组合方案(任何基于内存的索引IndeX+任何基于磁盘的索引IndeY),且内存和磁盘上的索引都可以单独进行优化。

作为国产数据库行业的先行者,腾讯云至今已经深耕数据库领域十余年,服务客户数超过50万,覆盖金融、政府、电商、游戏等众多行业。未来,腾讯云也将持续创新技术,打磨产品和解决方案,为更多企业提供高可靠、高可用、高安全的数据库服务,加速企业数字化升级与业务创新。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

研究人员构建基于人工智能的讽刺检测器

Never mind that it can pass the bar exam, ace medical tests and read bedtime stories with emotion, artificial intelligence will never match the marvel of the human mind without first mastering the art of sarcasm.


But that art, it seems, may be next on the list of the technology’s dizzying capabilities. Researchers in the Netherlands have built an AI-driven sarcasm detector that can spot when the lowest form of wit, and the highest form of intelligence, is being deployed.“We are able to recognise sarcasm in a reliable way, and we’re eager to grow that,” said Matt Coler at the University of Groningen’s speech technology lab. “We want to see how far we can push it.”There is more to the project than teaching algorithms that sometimes even the most effusive comments cannot be taken literally and must, instead, be interpreted as the diametric opposite. Sarcasm permeates our discourse more than we might appreciate, Coler said, so understanding it is crucial if humans and machines are to communicate seamlessly.“When you start studying sarcasm, you become hyper-aware of the extent to which we use it as part of our normal mode of communication,” Coler said. “But we have to speak to our devices in a very literal way, as if we’re talking to a robot, because we are. It doesn’t have to be this way.”Humans are generally adept at spotting sarcasm, though the limited cues found in text alone make it tougher than in a face-to-face interaction when delivery, tone and facial expressions all reveal the speaker’s intent. In developing their AI, the researchers found multiple cues mattered too for the algorithm to distinguish the sarcastic from the sincere.In work presented at a joint meeting of the Acoustical Society of America and the Canadian Acoustical Association in Ottawa on Thursday, Xiyuan Gao, a PhD student at the lab, described how the group trained a neural network on text, audio and emotional content of video clips from US sitcoms including Friends and The Big Bang Theory. The database, known as Mustard, was compiled by researchers in the US and Singapore, who annotated sentences from the TV shows with sarcasm labels to build their own detector.One scene the AI trained on was Leonard’s futile effort to escape from a locked room in The Big Bang Theory, prompting Sheldon to observe: “It’s just a privilege to watch your mind at work.” Another from Friends has Ross invite Rachel to come over and join Joey and Chandler in putting together some furniture, prompting Chandler to comment: “Yes, and we’re very excited about it.”After training on the text and audio, along with scores that reflected the emotional content of words spoken by the actors, the AI could detect sarcasm in unlabelled exchanges from the sitcoms nearly 75% of the time. Further work at the lab has used synthetic data to bump up the accuracy further, but that research is awaiting publication.Shekhar Nayak, another researcher on the project, said as well as making conversations with AI assistants more fluid, the same approach could be used to detect negative tone in language and detect abuse and hate speech.Gao said additional improvements could come from adding visual cues into the AI’s training data, such as eyebrow movements and smirks. Which raises the question of how accurate is accurate enough? “Are we going to have a machine that is 100% accurate?” said Gao. “That’s not something even humans can achieve.”Making programs more familiar with how humans really speak should help people converse with devices more naturally, Coler adds, but he wonders what will happen if machines embrace their newfound skills and start throwing sarcasm back at us. “If I ask: ‘Do you have time for a question?’ And it says: ‘Yeah, sure,’ I might think: well does it or doesn’t it?”Explore more on these topicsArtificial intelligence (AI)ComputingnewsShareReuse this content.



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Google推出“双子座时代”AI技术进步

Google推出了一系列更新的人工智能产品,包括Gemini 1.5 Flash的推出,Gemini 1.5 Pro的增强,以及其对未来AI助手的愿景Project Astra的进展。图片{ width=50% }


Gemini 1.5 Flash是Google模型家族的新成员,旨在更快速、更高效地为大规模服务。虽然比1.5 Pro更轻量级,但它仍保留了跨越大量信息的多模态推理能力,拥有一百万标记的突破性长上下文窗口。
Google DeepMind的CEO Demis Hassabis解释说:“1.5 Flash擅长摘要、聊天应用、图片和视频字幕、长文档和表格的数据提取等,这是因为它是通过一种称为‘蒸馏’的过程由1.5 Pro进行训练的,在这个过程中,从一个更大的模型中传递最关键的知识和技能到一个更小、更高效的模型。”
与此同时,Google显著提高了其Gemini 1.5 Pro模型的能力,将其上下文窗口扩展到了前所未有的两百万标记。对其代码生成、逻辑推理、多轮对话以及音频和图像理解能力进行了增强。
该公司还将Gemini 1.5 Pro整合到Google产品中,包括Gemini Advanced和Workspace应用。此外,Gemini Nano现在可以理解多模态输入,不再局限于仅包括文本。

Google宣布其下一代开源模型Gemini 2,旨在实现突破性的性能和效率。Gemma家族也在扩大,随着PaLI-3启发的首个视觉语言模型PaliGemma的推出。

最后,Google分享了Project Astra(高级视听对话式代理)的进展,这是其对AI助手未来愿景的展望。该公司已开发出可以更快速地处理信息、更好地理解上下文并迅速在对话中作出回应的原型代理。

Google首席执行官Sundar Pichai解释说:“我们一直想要构建一个在日常生活中有用的通用代理。Project Astra展示了多模态理解和实时对话功能。”

“借助这样的技术,很容易设想未来人们可以通过手机或眼镜拥有一位专家级AI助手的情形。”

Google表示,这些能力中的一些将在今年晚些时候推出到其产品中。开发人员可以在这里找到他们需要的与Gemini相关的所有信息。

另请参阅:GPT-4o提供了与文本、音频和视觉一样类似于人类的AI交互。

想要从行业领袖那里了解更多有关AI和大数据吗?查看将在阿姆斯特丹、加利福尼亚和伦敦举办的AI&Big Data Expo。这一全面的活动与其他主要活动同时举办,包括智能自动化大会、BlockX、数字转型周和网络安全和云展。

在此处探索由TechForge提供的其他即将举办的企业技术活动和网络研讨会。

Tags: ai, 人工智能, 聊天机器人, 双子座, 双子座Flash, 双子座Pro, 珍妮玛2, Google, 项目阿斯特拉, 虚拟助手



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Meta在公开批评Instagram后撤回对色情勒索专家的职位提议

Meta在一名知名的网络情报分析师批评Instagram未能保护在线儿童后立即撤回了对他的工作提议。


Paul Raffile被提供了一份人类剥削调查员的工作,专注于色情勒索和人口贩卖等问题。他参与了4月24日关于防范金融色情勒索计划的网络研讨会,在研讨会中批评了Instagram允许儿童成为骗子的受害者,并提出了可能的解决方案。“我能想到工作提议被撤回的唯一原因是我试图揭示Instagram上发生的这个重大问题,以及Instagram迄今为止做很少来防范它,”Raffile说。Raffile是该网络研讨会的共同组织者,其中包括四名因在Instagram上被骗而死亡的儿童的家长。350名与会者中包括了Meta的工作人员、失踪与受虐儿童国家中心(NCMEC)、执法机构、联合国毒品和犯罪问题办事处、Visa、Google和Snap。

Raffile告诉《卫报》,他在网络研讨会上进行了一些简短的介绍性讲话,不到一分钟。由于合同已经签署,Raffile应该在研讨会结束后几个小时内开始他每年17.5万美元的新角色,但他接到撤回提议的电话。Raffile说,“Meta的招聘经理没有分享解雇原因,表示指令来自‘我们的上许多级别’”。Meta在一份声明中表示:“暗示提议被撤回是因为NCRI报告、网络研讨会或候选人在这一领域的专业知识是不准确的。”公司没有提供撤销Raffile提议的原因。Raffile说:“这表明Meta不愿认真对待这个问题。我提出了合理的担忧和建议,他们可能不愿意采取足够有力的措施来解决这个问题。”

在过去两年中,金融色情勒索计划飙升,仅2023年就有超过26,700起未成年受害者向NCMEC报告。根据FBI的说法,色情勒索是美国增长最快的网络犯罪。受害者主要是青少年男孩,骗子通过假装成吸引人的女孩接触受害者。在威胁要向他们的朋友和家人发布这些照片的情况下,骗子迫使受害者发送自己的性暴力图像以换取赎金。这些案例中有相当一部分是尼日利亚的网络犯罪分子针对海外青少年。骗子们自称为“Yahoo男孩”,最常在Instagram和Snapchat上活动。这种犯罪可能致命。未成年人常常被骗子的威胁压倒,金融色情勒索导致至少20名青少年自杀,在2021年10月至2023年3月之间,FBI称。

Meta在一份声明中表示,对于未经同意分享私密图像有严格的规定。Raffile质疑Meta和其他社交媒体公司没有有效采取行动抵制金融色情勒索的原因。“我以前在金融机构和科技公司中与Yahoo男孩对抗过,”他说。他先前在咨询公司Booz Allen Hamilton和Teneo担任过职务。“我们曾在四到六个月内从我们的平台上根除他们。然而,社交媒体平台已经有两年时间来处理这个问题了。”

Meta发言人表示,其专家团队知道色情勒索行为者主要来自几个国家,包括西非。Raffile说,Instagram的设计特点有助于促成这些网络犯罪,包括计划对直接消息进行加密,这增加了隐私性,但可能会损害调查。另一个主要问题是用户不能使他们的粉丝和关注者列表保持私密,这意味着勒索者可以访问受害者的朋友和家人,他说。“他们会向受害者发送消息,说:‘嘿,我有你的裸照,我拍摄了你所有的朋友和家人,还有你的粉丝。’”。 “Meta没有认真对待青少年的隐私,”Raffile说。Raffile批评了Meta在4月宣布将检测到包含裸露图像的图像模糊为未满18岁用户的默认设置。但青少年仍然可以选择查看它们。“让未成年人在他们的平台上传输这些图像听起来是非法的,”他说。“为什么不直接封锁它们呢?”Meta在一份声明中表示:“这个功能的目的是在保护人们免受见到裸照的风险以及告知他们分享这些图像的风险之间取得平衡,同时不阻止或中断人们重要的对话。”



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

TensorOpera & 高通科技宣布技术合作

TensorOpera,提供“您的规模化生成式人工智能平台”的公司,宣布与高通科技合作,共同推出解决方案,使人工智能(AI)开发人员能够构建、部署和扩展生成式AI应用程序。图片{ width=60% }


将该公司的TensorOpera® AI平台与高通科技的Qualcomm® Cloud AI 100推理解决方案相结合,开发人员将能够利用高通科技在TensorOpera AI平台上提供的先进AI技术。

强大的开源基础模型的快速增长,以及更快速、更实惠的AI硬件的可用性,鼓励许多企业——从初创公司到大公司——开发自己的生成式AI应用程序,提供更大的隐私权、控制权和所有权。然而,许多人在处理复杂的生成式AI软件栈、基础设施管理以及扩展和将其应用程序投入生产的高计算成本方面遇到了挑战。

为了帮助解决这些挑战,开发人员可以利用TensorOpera的AI平台全面的堆栈,旨在简化生成式AI开发的复杂性。Cloud AI 100能够促进从云端到客户端边缘的分布式智能,并具有业内领先的能效、可移植性和灵活性,TensorOpera AI平台将能够提供出色的性价比和成本效率,从而成为开发人员和企业的理想选择。

AI开发人员现在有机会在TensorOpera AI平台上访问Cloud AI 100实例,旨在实现使用流行的生成式AI模型,包括Meta的Llama3和Stability AI的Stable Diffusion。他们可以选择从各种使用模型中进行选择,包括API访问、按需式(按使用付费)或专用部署,同时利用许多功能,如自动扩展、全面的端点监视、优化作业调度和AI代理创建。

TensorOpera的联合创始人兼首席执行官Salman Avestimehr对技术合作表示了热情:“我们很高兴与高通科技合作。这扩展了我们的AI平台上的AI开发人员的计算选择。我们的共同工作也符合我们共同的长期愿景,即集成边缘-云平台,我们相信这将推动生成式AI的广泛采用。为了贯彻这一愿景,TensorOpera将很快推出为智能手机和边缘设备优化的新基础模型。集成到TensorOpera AI平台中,该模型能够在移动设备上直接开发强大的AI代理——高通通过为智能手机提供高性能、高效的计算芯片而在这一领域投入了大量资金。”

高通科技云计算副总裁Rashid Attar表示:“随着新生成式AI模型的爆发,全球各地的开发人员渴望轻松、有效地获得用于部署的高性能AI推理。通过将TensorOpera的AI平台与高通科技的Cloud AI 100相结合,开发人员现在可以立即访问推动器最受欢迎的GenAI/Large Language Models—即Llama3、Mistral、SDXL的推理。我们很高兴与TensorOpera合作,提供一种提供卓越价值和便利性的高性能推理平台。”

这项技术合作代表了加速生成式AI部署并为创新创造新机会的重要一步。TensorOpera的AI平台和高通科技的Cloud AI 100推理解决方案的结合优势将推动多个行业中的AI应用程序的进步。我们邀请AI开发人员和企业探索TensorOpera和高通科技提供的服务。立即访问https://TensorOpera.ai/qualcomm-cloud-ai-100 申请获得对Qualcomm-TensorOpera专用或无服务器模型端点的早期访问权限。


注意:Title、Date、Body 三个部分的内容,放入到对应的位置。最后只需要输出为Makedown源文件格式内容。

感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Google将人工智能进入“双子座时代”带来的AI进展

Google已经发布了一系列关于其人工智能产品的更新,包括引入Gemini 1.5 Flash、对Gemini 1.5 Pro进行的增强,以及其对未来AI助手的愿景项目Astra的进展。图片{ width=50% }


Gemini 1.5 Flash是Google模型系列的新成员,旨在更快速且更高效地提供大规模服务。虽然比1.5 Pro更轻,但其保留了在海量信息中进行多模态推理的能力,并具有突破一百万标记的长上下文窗口。
Google DeepMind的CEO Demis Hassabis解释道:“1.5 Flash在摘要、聊天应用、图像和视频字幕、长文档和表格中的数据提取等方面表现出色,这是因为它通过一种称为‘蒸馏’的过程,从更大的模型向更小、更高效的模型转移了最基本的知识和技能。”
与此同时,Google显著提升了其Gemini 1.5 Pro模型的能力,将其上下文窗口扩展到创纪录的两百万标记。改进还包括其代码生成、逻辑推理、多轮对话以及音频和图像理解能力。
该公司还将Gemini 1.5 Pro整合到Google产品中,包括Gemini Advanced和Workspace应用。此外,Gemini Nano现在可以理解多模态输入,不再局限于仅文本,而是包括图像。

Google宣布了其下一代开放模型Gemini 2,旨在实现突破性性能和效率。Gemma系列还随着PaliGemma的加入而扩大,这是该公司受到PaLI-3启发的第一个视觉语言模型。
最后,Google分享了项目Astra(高级见与谈的响应代理)的进展,这是其对AI助手未来愿景的展望。公司已经开发出可以更快速处理信息、更好地理解上下文并在对话中快速回应的原型代理。
Google CEO Sundar Pichai解释道:“我们一直希望构建一个在日常生活中有用的通用代理。项目Astra展示了多模态理解和实时对话能力。”
“有了这样的技术,很容易想象未来人们通过手机或眼镜可以拥有专业的AI助手。”

Google表示,其中一些能力将于今年晚些时候推出到其产品中。开发人员可以在这里找到他们所需的所有与Gemini相关的公告。
参见:GPT-4o通过文本、音频和视觉集成实现类似人类的AI交互

想要从行业领袖那里了解更多关于人工智能和大数据的知识吗?请查看将在阿姆斯特丹、加利福尼亚和伦敦举行的人工智能和大数据博览会。这一全面的活动与其他顶级活动合作,包括智能自动化大会、BlockX、数字化转型周以及网络安全与云博览会。
探索由TechForge提供的其他即将举行的企业技术活动和网络研讨会。
Tags: ai, artificial intelligence, chatbot, gemini, gemini flash, gemini pro, gemma 2, Google, project astra, virtual assistant



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

aiOla任命阿隆·佩雷格(Alon Peleg)为首席运营官

aiOla,一家企业语音识别技术领军企业,今天宣布阿隆·佩雷格(Alon Peleg)加入公司担任首席运营官。图片{ width=60% }


佩雷格在多家财富500强公司担任技术和高管职务长达20年,具有大幅扩展企业规模、领导战略和文化变革的丰富经验,理想地定位于促进并优化经营效率,同时加速aiOla的迅速全球扩张。

阿隆·佩雷格担任Wix和思科的总经理以及英特尔的部门经理等20年领导经验,使他擅长制定和执行战略愿景、率先推动产品路线图,并推动多家公司的增长,从成功的初创公司到传奇行业巨头。作为aiOla新任首席运营官,他在扩展能力方面的领导力和专业知识是对aiOla团队的宝贵补充。

“我很高兴能加入aiOla杰出的团队,” 阿隆·佩雷格说道。aiOla的解决方案显着改进了跨行业的检查流程,使企业能够有效地自动化和增强关键运营。我很期待与aiOla的世界级研究科学家和人工智能专家一起工作,优化和扩展产品开发和市场推广运营,推动aiOla的扩张。此外,我渴望赋能更多企业利用aiOla的最先进人工智能解决方案。

aiOla使得跨关键行业如车队管理、制造业和供应链等企业通过先进的语音人工智能增强操作能力。他们的技术能够准确识别行业术语和缩写,甚至在嘈杂环境中。通过集成aiOla的多语言语音人工智能,企业可以简化流程并优化生产效率。

“阿隆的加入时间再好不过了,我很高兴能有他和我一同领导aiOla的快速扩张,” aiOla的联合创始人兼首席执行官阿米尔·哈拉马提(Amir Haramaty)表示。“凭借他在领先科技公司的丰富技术和管理职位,阿隆带来了产品知识、研发战略、领导力和以客户为中心的创新等独特组合,将在我们继续为各行业企业提供巨大价值的过程中发挥无可估量的作用。”

注意:Title、Date、Body 三个部分的内容,放入到对应的位置。最后只需要输出为Makedown源文件格式内容。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

40%网络安全团队因担心失业而未报告网络攻击

新数据还显示,虚假的安全感可能导致加剧的网络安全风险,因为人工智能(AI)驱动的攻击频率和严重性不断增加。图片{ width=60% }


领先的预测预防网络安全和合规公司VikingCloud今天发布了一项新研究,显示40%的网络安全团队尚未报告网络事件,因为他们担心失去工作——这一披露表明全球网络侵犯事件的严重被低估。调查还发现,这一趋势使企业面临不遵守新兴行业监管规定的风险,同时也容易受到攻击的威胁,根据调查显示,在过去12个月中,有49%的公司的攻击频率增加,43%的公司遭受的攻击严重性增加。
从美国、英国和爱尔兰的近170名网络安全专业人士(高管、副总裁、总监和经理级别)的定量调查中收集的数据显示,96%的公司对其实时检测和响应网络攻击的能力充满信心。然而,这些公司也承认他们没有为当今最迫切的网络安全风险做好准备,包括关键第三方遭受勒索软件攻击(48%)、网络钓鱼攻击(40%)、DNS攻击(33%)和自身遭受勒索软件攻击(32%)。
VikingCloud的研究——《2024威胁景观报告: 网络安全风险、机遇和韧性》还揭示了以下内容:
由AI推动的新网络攻击方法令领导人夜不能寐:53%的人透露新兴的AI攻击方法正在创造新的攻击点,使他们不堪重负。最令人担忧的AI威胁包括生成式AI(GenAI)模型提示入侵(46%)、大型语言模型(LLM)数据毒化(38%)、勒索软件即服务(37%)、GenAI处理芯片攻击(26%)、应用程序编程接口(API)违规(24%)和GenAI网络钓鱼(23%)。
网络安全团队和犯罪分子之间的技能缺口不断扩大:55%的公司认为现代网络犯罪分子比他们内部团队更为先进。35%的人报告称,黑客使用的技术比他们团队能够接触到的技术更为复杂。尽管如此,三分之一的公司仍未对团队进行关于GenAI相关网络风险的培训。
关键痛点包括人才短缺和资源有限:过去12个月只有10%的公司增加了网络安全人员招聘,将近20%的公司表示,缺乏合格人才是克服网络攻击的关键挑战。35%的公司没有足够的预算投入新技术,32%的公司没有足够的预算增加员工。
网络警报疲劳影响网络攻击响应时间:33%的公司未能及时响应网络攻击,因为他们正在处理虚假积极性,63%的公司每年花费超过208小时处理虚假积极性。总体上,68%的网络安全团队受访者目前无法满足证券交易委员会的四天披露要求和基于平均时间而设立的网络安全行业基准,他们估计需要多长时间来应对新的严重攻击。

利用先进技术的紧迫需求
技术有望成为网络安全团队的平等器。63%的公司正在寻求实施可以帮助减轻网络安全人才短缺影响的新技术。41%的人表示GenAI对缓解网络警报疲劳具有最大潜力。然而,仅有5%的公司在过去一年为解决这些持续挑战额外拨款给他们的网络计划。
“网络领导者可以从以下两个角度看待像GenAI这样的先进技术——作为威胁或武器。事实上,它既是威胁也是武器,这使得企业迫切需要积极实施正确的解决方案,武装他们的团队并以黑客自己的游戏击败网络犯罪分子,”Pierce说。



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB