随着内部开发的人工智能系统从实验室转向正式投产,创造无偏见的道德系统的重要性比以往任何时候都要大。
挑战在于,公司没有一个简单的解决方案让AI算法的具备道德。虽然如此,有一些关键的事情任然可以尽早做。
机器学习算法不能告诉你一个决定是否符合道德标准,或者是否会对组织内的士气造成不可挽回的损害。它不能够像人一样花费数年的时间去磨砺自己的商业直觉。即使一个建议看起来是正确的,它也不会被你的客户群所接受。
这时就需要人类的判断了。你可以采取多种方法将AI集成到你的决策策略中。根据赌注的高低以及你想要解决的问题,选择把工作外包给AI,前提是坚持要求一个人在采取行动之前检查它的结果。或者你可以确定哪块是人工智能可以决定的关键领域,这将减少你需要参与有关该特定过程的每一步。
在未来一段时间内,人的判断力仍将是商业决策的核心。随着AI系统在企业库中变得越来越强大,我们必须确保这些工具符合我们的道德规范。有一些方法可以做到这一点。
确定贵公司的核心价值
将贵公司的核心价值系统化,这开始于识别和记录这些价值观。捕捉已成为公司文化核心的价值观。但如果你不愿意接受实际价值所带来的痛苦,不要费尽心思去制定价值观。
如果一个人工智能系统提出了一个并不符合组织的长期目标的仅仅在纸面上有意义的行动方案,那么你需要一个强大的内部逻辑才能做出正确的决定。数据很重要,但是你最终要为你的决定负责。当被要求解释你的行为时,你不能只是说:“AI让我做。”使用这些工具来收集信息,并作为决策过程的基础。但是当你做出决定的时候,应该把人性融入到这个过程中。
建立一个AI监督小组
机器学习系统与我们提供的数据一样好。 这立刻给AI系统开发者带来了挑战:人类是有偏见的。 即使是最公正的人也会带有无意识的偏见。
为了解决这个问题,创建内部的AI监督组,定期检查你的算法的输出,并可以解决有关歧视和偏见的投诉。 然后使用小组的调查结果来改进个人在整个组织中如何使用系统。
预测AI对员工的影响
机器学习系统可以为客户和员工生成强有力的个性化体验。以道德方式使用AI包括将员工绩效指标从基于输出的度量转变为评估他们为公司带来的创造性价值。
在世界经济论坛发表的一篇文章中讲到:“尽管有地位会受到威胁,但也有比以往任何时候都更需要的角色。再培训现有员工填补未来需要的角色比聘用新员工更具成本效益,而且他们也更有可能忠于你的组织。
在办公室部署人工智能工具的一个重要部分是人们不必再做这么多的苦工。让员工变得越来越有活力,你的评估标准也应该如此。
更多烟台编程相关资讯,请扫描下方二维码