Igor Jablokov, Pryon: Building a responsible AI future

随着人工智能的迅速发展,围绕这些改变世界的创新的发展和部署引发的伦理问题变得日益突出。图片{ width=50% }


在北美人工智能与大数据博览会之前的一次采访中,人工智能公司Pryon的首席执行官兼创始人伊戈尔·亚博洛夫(Igor Jablokov)直面这些紧迫问题。

人工智能中的关键伦理挑战
当被询问最关键的伦理挑战时,亚博洛夫表示:“不止一个,也许有20多个以上”,他概述了必须小心避免的一系列潜在陷阱,包括从人工智能幻觉和虚假言论到数据隐私侵犯和在专有信息上进行训练泄漏知识产权等。
亚博洛夫认为,偏见和对抗性内容渗透到训练数据中是另一个主要担忧。他还列举了类似嵌入式代理和提示注入攻击这样的安全漏洞,在他的关注列表中排名很高,以及大型语言模型的极高能源消耗和气候影响。
Pryon的起源可以追溯到20多年前现代人工智能的最早迹象。亚博洛夫此前曾在IBM领导一个先进的人工智能团队,他们设计了后来成为沃森的原始版本。“他们没有批准它。 因此,出于我的frustration,我离开了,创立了我们上一个公司,”他回忆道。那家公司当时也叫Pryon,最终成为亚马逊的第一个人工智能相关的收购,诞生了现在的Alexa。
Pryon当前的使命是通过负责任的设计解决人工智能的伦理困境,重点放在关键基础设施和高风险用例上。亚博洛夫解释说:“[我们想要]创造一些更注重关键基础设施、关键工作者和更严肃追求的东西”。
一个关键要素是为企业提供对其数据环境的灵活性和控制。“我们为他们提供平台消费的选择…从多租户公共云、私有云到本地部署,”亚博洛夫说道。 这使组织能够在需要时将高度敏感的数据置于自己的防火墙后面。

之后的段落请自行添加…



感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB

Igor Jablokov, Pryon: Building a responsible AI future

https://www.gptnb.com/2024/04/27/2024-04-26-auto2-yLjkQP/

作者

ByteAILab

发布于

2024-04-27

更新于

2025-03-21

许可协议