然而,问题在于,目前很少有可靠的指令或模板或石蕊试验来解决与许多关于人工智能企业部门观察到的“快速移动和破坏事物”观念相关的日益增长的问题。如果这个空间中的少数,聪明的思想领袖将被真正的倾听和注意,或者仅仅通过人工智能的扩张,无定形幽灵的权力和控制的承诺而被淹没。
事实上,拥有AI的责任是什么意思,看起来和那个降压实际上停在哪里?
这是最近在纽约市举行的人工智能峰会期间特别有趣的舞台对话的背景。这次活动被称为世界上第一个也是最大的会议和展览,旨在了解人工智能对企业组织的实际影响,该活动将来自谷歌的高层管理人员聚集到NBC环球公司,微软公司和IBM以及许多人,他们蜂拥而至,讨论,演示,交易 - 制作并了解所有人工智能。在第三年,会议提供了来自主要公司的一些高级管理人员发言人,但最令人挑衅和令人不安的谈话之一是题为“负责任的人工智能:为公平,道德,多元化的AI提议奠定基础”的小组交流在你的组织中。“
跟踪数据,公共政策,正在进行的实际工作的完整性,此类工作的可靠性问题及其对社会的影响和利益的问题只是将一些思想领袖聚集在一起的一些主要讨论要点关于责任和人工智能的麻烦问题,公司的哪个领域应该管理人工智能道德,这些道德应该是什么,以及人与机器的巨大混乱。而且,根据该小组结论的空白看法,目前还没有达成共识或行业范围的道德准则。
更为复杂的是,如何吸引多元化员工进入人工智能空间的问题是一个挑战。然后,即使曾经在船上进一步担心这些员工的健康和福祉,因为我们仍然不确定跟踪,钻探和分析模式的影响,比如说,机器识别的模式实际上对人类有什么影响筛选这些数据 - 特别是如果该数据在某种程度上是负面的 - 一小时一小时,一天又一天。