每个人都想要负责任的人工智能,但很少有人为此采取行动
73% 的企业领导者表示人工智能指南不可或缺。然而,只有 6% 的公司在其公司中制定了此类指导方针。
最近的一项调查显示,虽然近十分之九的企业领导人都认为制定有关人工智能(AI) 道德和企业责任的明确指导方针非常重要,但几乎没有人承认他们有这样的指导方针。
这些发现表明,人们对需要采取哪些方法来管理人工智能的采用感到困惑,技术专业人员需要挺身而出,领导其以数据为主导的计划的 安全和道德发展。
该结果来自科技公司 Conversica 发布的一项基于 500 名商界领袖观点的调查,调查显示:“调查中得出了一个响亮的信息:大多数受访者认识到,制定明确的指南对于负责任地使用信息技术至关重要。公司内部的人工智能,尤其是那些已经采用该技术的公司。”
近四分之三 (73%) 的受访者表示人工智能指南不可或缺。然而,只有 6% 的人制定了明确的人工智能使用道德准则,36% 的人表示他们可能会在未来 12 个月内制定准则。
即使在生产中使用人工智能的公司中,目前使用人工智能的公司中,五分之一的领导者也承认对其组织的人工智能相关政策了解有限或一无所知。超过三分之一(36%)的人声称仅“稍微熟悉”与政策相关的问题。
报告作者指出,解决负责任人工智能问题的指导方针和政策应纳入治理、公正的训练数据、偏见检测、偏见缓解、透明度、准确性以及人类监督。
约三分之二 (65%) 的受访高管表示,他们已经或计划在未来 12 个月内推出人工智能服务。人工智能的主要用例包括支持互动功能,例如客户服务和营销(39%),以及产生分析见解(35%)。
调查发现,人们对人工智能输出最关心的问题是当前数据模型的准确性、虚假信息和缺乏透明度。超过四分之三(77%)的高管对人工智能产生虚假信息表示担忧。
商界领袖表示,人工智能提供商没有提供足够的信息来帮助制定指导方针,尤其是在数据安全和透明度以及制定强有力的道德政策方面。
大约三分之二 (36%) 的受访者表示,他们的企业对使用生成式 AI 工具(例如Chat GPT)有规则。但 20% 的受访者表示,在可预见的未来,他们的公司将给予员工个人使用人工智能工具的自由。
Conversica 的调查显示,在实现负责任的人工智能方面存在领导差距。那么,技术领导者和业务线专业人员如何挺身而出,确保负责任的人工智能实践到位?以下是Google 人工智能团队分享的一些关键指南 :
使用以人为本的设计方法: “实际用户体验系统的方式对于评估其预测、建议和决策的真实影响至关重要。内置适当披露的设计功能:清晰度和控制对于良好的用户至关重要在设计过程的早期对潜在的不利反馈进行建模,然后在全面部署之前对一小部分流量进行特定的实时测试和迭代。”
与不同的用户和用例场景互动: “在项目开发之前和整个过程中纳入反馈。这将为项目构建丰富多样的用户观点,并增加从技术中受益的人数。”
使用公平和包容性的具体目标来设计模型: “考虑随着时间的推移,技术及其发展将如何影响不同的用例:代表谁的观点?代表什么类型的数据?遗漏了什么?”
检查系统是否存在不公平偏见: “例如,组织一群值得信赖的、多样化的测试人员,他们可以对系统进行对抗性测试,并将各种对抗性输入纳入单元测试中。这可以帮助识别谁可能会遇到意想不到的不利影响。甚至低错误率可能会导致偶尔出现非常严重的错误。”
在困难的情况下对系统进行压力测试: “这将使您能够快速评估您的系统在每次更新系统时可能特别有害或有问题的示例上的表现。与所有测试集一样,您应该不断更新此集随着系统的发展,功能会被添加或删除,并且您会从用户那里获得更多反馈。”
测试、测试、测试: “学习软件工程最佳测试实践和质量工程,以确保人工智能系统按预期工作且值得信赖。进行严格的单元测试,单独测试系统的每个组件。进行集成测试了解各个机器学习组件如何与整个系统的其他部分交互。”
使用黄金标准数据集来测试系统并确保其继续按预期运行: “根据不断变化的用户和用例定期更新此测试集,并减少在测试集上进行训练的可能性。进行迭代用户测试在开发周期中纳入不同的用户需求。”
应用防错的质量工程原理: “在系统中建立质量检查,以便意外故障不会发生或触发立即响应 - 例如,如果意外丢失重要功能,人工智能系统将不会输出预言。”
企业可能希望快速实施人工智能,但必须谨慎确保工具及其模型的准确和公平。虽然企业正在寻求人工智能的进步,但该技术每次都必须提供负责任的结果。