Ethical, trust and skill barriers hold back generative AI progress in EMEA
根据企业分析人工智能公司Alteryx的调查显示,在欧洲、中东和非洲(EMEA)地区,76%的消费者认为人工智能将在未来五年内发挥重要作用,但其中47%对人工智能的价值提出质疑,41%对其应用感到担忧。{ width=50% }
自2022年11月OpenAI发布ChatGPT以来,关于生成式人工智能潜在变革性的讨论日益热烈,许多人认为这是当今最具革命性的技术之一。
79%的组织表示生成式人工智能对业务产生积极影响,显然需要解决一个问题,即向消费者证明人工智能在他们个人和职业生活中的价值。根据《市场研究:生成式人工智能的态度和采纳》报告,该报告调查了690名IT业务领导者和1100名EMEA地区普通大众,关键问题是信任、伦理和技能问题普遍存在,可能会妨碍生成式人工智能的成功部署和更广泛的接受。
对于人工智能产生不正确或不合逻辑的输出的幻觉是一个重要问题,信任生成式人工智能产生的内容对于业务领导者和消费者都是一个重大问题。超过三分之一的公众担心人工智能可能产生假新闻(36%)并被黑客滥用(42%),而一半的商业领导者报告称他们正在应对生成式人工智能产生的错误信息。同时,一半的商业领导者观察到他们的组织正在应对生成式人工智能产生的错误信息。
此外,生成式人工智能提供信息的可靠性被质疑。来自普通大众的反馈显示,一半从人工智能获得的数据是不准确的,38%被视为过时。在商业领域,担忧包括生成式人工智能侵犯版权或知识产权(40%)以及产生意外或无意产出(36%)。
对企业(62%)和公众(74%)来说,AI幻觉是一个关键的信任问题。对于企业,挑战在于将生成式人工智能应用于适当的用例,支持正确的技术和安全措施,以减轻这些担忧。接近一半的消费者(45%)倡导对人工智能使用进行监管。
此外,伦理关切和风险在生成式人工智能的使用中仍然存在,并且在企业领导者和消费者中之间存在类似的情绪。超过一半的公众反对生成式人工智能用于做出伦理决策。同时,41%的商业受访者关注其在关键决策领域的应用。在其使用被反对的特定领域中存在差异;消费者特别反对其在政治中的使用(46%),而企业对其在医疗保健中的部署持谨慎态度。
这些担忧在研究结果中找到了一些验证,该研究突显了组织实践中存在的令人担忧的差距。只有三分之一的领导者确认他们的企业确保用于训练生成式人工智能的数据是多样化和无偏见的。此外,只有36%制定了伦理准则,52%为生成式人工智能应用制定了数据隐私和安全政策。
这种对数据完整性和伦理考虑不重视的做法会让企业面临风险。63%的业务领导者将伦理作为他们对生成式人工智能的主要关注点,紧随其后的是数据相关问题(62%)。这种情况强调了更好的治理的重要性,以建立信心并减轻与员工在工作场所如何使用生成式人工智能相关的风险。
随着生成式人工智能的发展,建立相关技能并提高数据素养将是实现其全部潜力的关键。消费者正在越来越多地在各种情景下使用生成式人工智能技术,包括信息检索、电子邮件通信和技能获取。商业领导者声称他们使用生成式人工智能进行数据分析、网络安全和客户支持,尽管试验项目取得了成功,但仍然存在挑战。尽管试验项目取得成功,但仍然存在一些挑战,包括安全问题、数据隐私问题以及输出质量和可靠性。
Alteryx的首席信息官Trevor Schulze强调了企业和普通大众必须充分理解人工智能的价值,并在探索生成式人工智能采用的早期阶段解决常见问题。
他指出,解决信任问题、伦理关切、技能短缺、隐私侵犯担忧和算法偏见都是重要任务。Schulze强调了企业加快数据之旅、采用强有力的治理措施、让非技术人员安全可靠地访问和分析数据、解决隐私和偏见问题的必要性,以便真正从这项“改变游戏规则的”技术中获益。
要想从业界领袖那里了解更多关于人工智能和大数据的内容吗?查看在阿姆斯特丹、加利福尼亚和伦敦举办的AI & Big Data Expo。这次综合性活动与其他领先的活动同期举行,包括智能自动化会议、BlockX、数字转型周和网络安全与云博览会。
感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB。
Ethical, trust and skill barriers hold back generative AI progress in EMEA