189 8069 5689

使用人工智能来监督非技术难题的人工遭遇

远程办公的规范化推动了云监管软件的市常最近,一款名为Enaible的人工智能监控软件卖得很好。这款人工智能软件不仅可以盯着员工,还可以给员工的工作效率打分.

芗城网站制作公司哪家好,找成都创新互联!从网页设计、网站建设、微信开发、APP开发、成都响应式网站建设公司等网站项目制作,到程序开发,运营维护。成都创新互联2013年开创至今到现在10年的时间,我们拥有了丰富的建站经验和运维经验,来保证我们的工作的顺利进行。专注于网站建设就选成都创新互联

COVID-19爆发的肺炎已经逐渐使远程办公成为常态。美甲、飞书、企业微信、zoom等视频会议软件很好地解决了远程通信问题。除了视频会议软件,另一种云监管软件也在火上浇油。这个人工智能软件可以观察你的工作,看看你是否在“钓鱼”,并给你一个分数。这个人工智能监控软件被称为可启用。据报道,Enaible在所有员工在家工作时尤其受欢迎,前来咨询的公司数量是以前的四倍。然而,一些批评家说这个软件会使员工失去创造力和对公司的忠诚。

收集操作痕迹 可给工作效率评分

人工智能主管有什么魔力来监督员工的工作并给他们打分?据介绍,Enaible软件安装在员工的电脑上,可以一直在后台运行,收集员工工作的详细数据并提供给公司。该软件使用一种称为触发任务时间的算法。该算法将根据电子邮件或电话判断员工应该完成哪些任务,并计算完成这些任务需要多长时间,然后根据这些数据对员工的工作效率进行评分。

“我们使用的操作系统会以日志的形式记录应用软件的运行过程。打开哪个文档,内容是什么,在互联网上浏览哪个网页会留下使用痕迹。在计算机中安装一个监控软件,并在操作系统中给予它很多权限。人工智能主管可以收集在办公室操作计算机时留下的各种数据,并将其融合成计算机可理解的表达式。”天津大学智能与计算系教授韩亚红解释说,由于人工智能主管记录的数据将包括图片、字符、视频、音频和各种符号数据,因此将使用人工智能领域的最新技术,如模式识别、自然语言处理、语音识别、数据挖掘和多模态数据融合。

“人工智能监管的核心部分不仅仅是收集数据。大的困难是通过算法模型分析这些数据来做出正确的决策,也就是给员工的工作效率打分。韩亚红解释说,这种算法模型的形成需要机器学习,特别是监督学习。有大量的数据用于监督学习是远远不够的。需要积累大量的专业知识,以便在数据本身和最终的正确决策之间建立联系,并形成有监督的信息,即有效的训练数据。

“什么是有效的训练数据?例如,当训练机器识别动物时,我们会发现许多不同品种和形状的猫和狗的照片,但是我们必须用猫或狗的名字来标记这些照片。这个标记是正确的决定,并且图片和相应的标签一起形成有效的训练数据。通过学习大量有效数据,机器可以建立算法模型来识别图片。”韩亚红举例说。

“为了生成触发任务时间的算法模型,该领域的专家知识和数据是必不可少的。要训练这样一个模型,需要积累和储备许多领域的相关知识,并寻找一种有效的知识融合方法。”韩亚红分析说,这是实现人工智能监管的核心关键。

根据Enaible官方网站,这家公司的创始人有20年的首席执行官教练经验。正是由于这种专业背景,AI监管软件不仅可以对员工进行评判,还拥有一个领导推荐算法,可以为老板提供建议,自动发现员工工作中的问题,提高工作效率。

隐私无所遁形 AI被吐槽不近人情

人工智能监督者自诞生以来一直备受争议。在许多员工眼中,人工智能监管软件扮演着“饭碗杀手”的角色,是不人道的。

员工最常见的抱怨是“不信任”和“每分钟都被监控,这让他们感觉很糟糕”.2019年4月底,亚马逊使用数字监控器跟踪送货仓库提货工人的工作速度,管理和限制员工离职时间,然后自动生成解雇指令。员工被“无形但无处不在”的“电子鞭子”所驱使,甚至不敢去厕所喝水,更不用说各种隐私了。

“人工智能监督者的存在引发了一个一直伴随着人工智能发展的重要问题,即人工智能的伦理问题。道德是有界限的,超越某些界限可能涉及法律问题。”例如,韩亚红说,例如,如果无人驾驶汽车在路上撞死人,谁应该承担法律责任?这是人工智能的伦理问题。对于安装在电脑上的人工智能主管来说,虽然员工在工作,但电脑毕竟是私人的,监控员工可能涉及个人隐私数据。因此,人工智能监管者的存在应该首先解决人工智能伦理问题。

也有很多员工质疑“人工智能主管的决策能否衡量员工的生产力”和“判断结果是否准确”.韩亚红表示,这种软件肯定会考虑大多数办公企业的情况,所以大多数决策结果都是准确的。然而,特殊情况确实存在。当机器遇到以前从未遇到过的特殊情况时,算法也可能给出不准确的判断。因为这种监督员工工作效率的工作,即使由人来做,有时也是不准确的。

解决伦理问题 AI监工或迎长远发展

面对各种各样的抱怨,恩纳贝尔公司也感到很委屈。根据他们的统计,在八小时工作制下,人们实际上只有三个小时的产出,而美国每年有4000亿美元的损失是由员工的低效率造成的。管理者应该关注员工,判断他们工作中的问题,在这个过程中人工智能也是如此。企业无论如何都要裁员,所以最好能准确地找出工作效率最低的人。

“Enaible的说法也有一定的道理,但为了将来能充分利用AI监督者,首先有必要澄清人工智能伦理与人工智能应用之间的关系。”韩亚红提出了自己的意见。只有理顺人工智能的伦理问题,我们才能决定人工智能主管是否可以继续使用它。只有当员工和老板意识到这一点,人工智能主管才能发展。

"在技术层面上,增加交互功能将大大有助于改进机器算法模型."韩亚红解释说,当人工智能主管被部署到一个公司时,它的表现可能一开始就不太好。然而,如果人工智能监督者模型能够以交互的形式设计并在交互中进化,其学习能力将会得到提高。如上所述,如果我们遇到模型算法没有遇到的数据,我们可能会在决策中出错。如果此时机器被告知通过交互做出正确的决策,机器的算法模型将从一个实例中得出推论,并在下次遇到类似问题时给出正确的决策。

“而在现实世界中,员工的工作状态不可避免地会受到他们所生活的社会、家庭和生活环境的影响,因此不可能仅用与工作相关的冷数据来监督和管理员工。”韩亚红表示,如果人工智能主管能够变得更加人性化,即算法模型设计得更加个性化,比如通过捕捉员工的表情和动作的变化,通过大数据的线索发现员工状态、情绪和健康的异常和变化,并将这些数据整合到模型算法的决策中,人工智能主管的最终决策可能会让人感觉更加人性化。

正如《麻省理工科技评论》引用英国律师科里的话说,一个好的工作环境应该让员工觉得他们的工作是值得信任的,但是光靠监督是做不到的。


文章题目:使用人工智能来监督非技术难题的人工遭遇
标题链接:http://jkwzsj.com/article/chdpds.html

其他资讯