当前位置:首页 > 企业新闻 >

机器人测试结果可靠吗?未来就业中不会大规模应用于人工智能吗?【烈火电竞官网】

编辑:首页 来源:首页 创发布时间:2020-11-16阅读47952次
  本文摘要:据美国《福布斯》杂志报道,“第一单位”是专门招聘青年人才的人力资源公司,正在开发名为“Maya”的人工智能(AI)系统,帮助企业在如雪般飞来的简历中慢慢检查合适的求职者。本质上,谷歌工程师不将种族歧视加载到代码中,构成种族歧视的是用于翻译成软件的AI本身。

另外,到了一年的打工季节,江西某高校毕业生小新(化名)的打工经历是一波三折。4月,她参加了某银行的校园招聘,经过五官斩六将,在笔试和口试中表现优异,被录用者接纳,接受了入学通知。没想到。

在最后一个环节的机器人性格测试中,她的测试结果是“感情风险等级低”,银行以不正当的事情为由拒绝录制。素信的相遇备受关注,事件的另一位主人公3354机器人面试官也引人注目。

机器人测试结果可靠吗?在未来就业中不会大规模应用于人工智能吗?“机器人面试官”大大提高入学概率。如果你是打工大军的一员,每天重复一件事。

就是给有可能雇用你的公司投递简历。然而,这些信都像石沉大海,你的焦虑更令人反感。有一天,你在等企业打来的第一个考试电话。高兴得发狂地接了电话后,你听到了可爱的女孩声。

这个声音用口音问了你一系列问题。“你工作多久了?”“”你对公司待遇失望吗?单击“可以拒绝夜间工作吗?单击“什么时候可以开始工作?单击……挂断电话的瞬间,你可能没有意识到和你开始这个对话的人不是人类,而是机器人。这种在科幻电影中不常出现的场面现在已经沦为现实。据美国《福布斯》杂志报道,“第一单位”是专门招聘青年人才的人力资源公司,正在开发名为“Maya”的人工智能(AI)系统,帮助企业在如雪般飞来的简历中慢慢检查合适的求职者。

打工

逐渐能够胜任服务员、司机、翻译等,AI开始渗透到人力资源领域。“建设‘玛雅’是来自我个人悲惨的打工经历。

”“第一职业”创始人埃亚尔格拉耶夫斯基表示,《福布斯》年大学毕业时,他申请了40多个职位,但只有两家公司恢复了他,大部分申请者都没有回来,就像掉进了“黑洞”一样。威廉莎士比亚、黑洞、黑洞、黑洞、黑洞、黑洞、黑洞、黑洞)85%的求职者从雇主那里恢复过来,而71%的招聘者指责接近适应性的人。AI招聘系统的频繁出现将彻底改变求职者和招聘者面临的困境。

据美国有线电视新闻网(CNN)报道,“玛雅”以云数据为基础,具有自学能力。如果申请人的条件符合,“Maya”不会尽快决定试镜,否则“Maya”不会向申请人推荐其他职业。《福布斯》认为,目前人事部收到的打工简历数量是过去的几倍。一方面,人们仍然把稳定作为职业生活的首要目标。

另一方面,网络经常出现,使兼职更加方便,鼠标给力的话,兼职资料会同时发送到多个邮箱。这种“广泛撒网,重点汇款”的打工方式也带来了弊端。

“面对数量巨大的邮件,人力专家很难正确对待所有兼职志愿者,这就是AI介入的原因。”格拉耶夫斯基说:“拒绝机器人试镜在一起听起来有点丢人,但干脆比没有人理你更强。

”“研究显示,使用‘Maya’系统的公司的雇用效率增加了38%,申请人被任用的概率减少了1.5倍,恢复的概率是过去的3倍。更多的公司开始用AI处理基本的人力工作。有5亿个履历的上班族社交网络服务“英英”开发了可以与人对话的智能系统,向求职者明确了“你想在哪里工作”等简单问题。”这些阶段不是人力资源的焦点,所以为了提高效率,想从人力工作中分离出来。

“雇佣软件负责人约翰杰辛对美国的‘HR驱动器’网站说。人类思维形势“传染”人工智能除了与求职者对话外,AI还可以根据招聘者的偏爱制定搜索方案,验证最合适的人选。Facebook、标准化、希尔顿等公司慎重地将AI系统应用于招聘。

AI在人力资源领域的应用更加广泛,但批评不断。仅次于AI面试官的批评缺乏人情味。据英国《金融时报》报道,即使最先进的人力专家也无可奈何地否认,没有人不愿意机器人对自己发表评论的上班族精英。对高层人士来说,人脉资源是他们最珍贵的财产之一,在这一点上,再智能的机器人也不能在短时间内代替人类。

人类抽象思维是AI的另一个短板。描述公司文化时,你会想起“灵活性”、“生气勃勃”、“人性美”等词。“每天雇佣”网站主张:“但是,应该将这种抽象、主观概念系统化、标准化的数据汇总起来,让机器人进行解释。

打工

”反对AI的人主张说,与人类面试官相比,机器人面试官用有色眼镜看人,导致因种族、性别、年龄等原因预设的种族歧视。通过代码修改这种种族歧视比在人类潜意识中避免这种种族歧视容易得多。

所以机器人比人类更公平。果真如此吗?技术网站“Unleash”认为,虽然人们可以在代码中回避性别、种族等因素,但AI要彻底消除种族歧视并不是一件容易的事情。以谷歌翻译为例,土耳其语中的人称代词没有性别,“他”、“她”、“它”都是指“O”。

将土耳其语翻译成英语时,如果“O”是医生,谷歌翻译就会被翻译成“他是医生”。如果“O”是护士,翻译结果就是“她是护士”。

你看,种族歧视无处不在,人工智能也不能独善其身。在不得不区分的时候,谷歌翻译成软件后,医生、企业家、男性、护士、教师被揭露为女性的隐藏的成人种主义。本质上,谷歌工程师不将种族歧视加载到代码中,构成种族歧视的是用于翻译成软件的AI本身。

(阿尔伯特爱因斯坦,Northern Exposure(美国电视连续剧),)通过模拟现实的背景和人们在语言中使用的方式,人们将思维的局势“感染”到人工智能上。“具备自学能力的人工智能也不会引起种族歧视。

就像现实世界一样。”微软的研究员里奇卡鲁阿纳对他说“Unleash”。

美国吉利德科学公司聘用电脑工程师的结局事例可以证明分歧不一。在检查简历时,该公司设定了“讨厌漫画”的条件。有这个特性的人更有可能成为出色的“极客”。

但是“漫画爱好者”和“杰出工程师”之间没有必然的联系。"数据分析师凯西奥尼尔对他说:“Unleash。”本质上,这个预设更与性别和种族相关。

打工

他们讨厌漫画更有可能成为亚裔男性吗?“更糟糕的是,AI通常从黑匣子开始运算,不可能搞清楚它的逻辑。”一旦AI经常偏离,很难找到错误的根源。“奥尼尔说。

但是要避开人工智能的漏洞并不是没有办法。“口袋雇佣”公司人力专家巴什塔指出,人类应该将最终决定权掌握在自己手中,并将结果赋予AI,不断完善其计算方式。仅次于机器人面试官带来的挑战的《金融时报》预测说,AI的适用范围从体力劳动转变为脑力劳动时,人力资源是最先受到影响的职业之一。在未来,人力资源领域的工作岗位不会逐渐减少,但这个岗位将完全消失。

人力资源工作总是需要人来完成,不同的是未来人力资源工作的焦点和职业技能会再次发生变化。人工智能擅长某些业务,如识别数据类型。英国桑德兰大学应用科学系主任约翰麦金特尔说,英国就业网站“Personnel Today”。

“但是不能像人类一样解释和转换数据。因此,不能提出最终要求。”因此,那些算法无法处理的任务仍将由人类完成。

“了解求职者的身体语言,求职者是否有资格工作,是否符合公司文化,这些事情电脑几乎可以做到。(约翰f肯尼迪,职业生涯)。"早期招聘企业的CEO史蒂夫古德曼对《金融时报》说。“但是如果你是初级人力专家,每天的工作都是通过网络搜索简历,展开非常简单的分类文件,那么你的饭碗很有可能被人工智能偷走。

(另一方面,也就是说,“这是一项工作,是工作的一部分。”对未来的人力专家来说,促销将是他们的大同小异,是人工智能最重要的能力。

“每天雇佣”网站认为,无论招聘使用多么先进的设备,选拔优秀人才都是雇佣的最终目的,这需要人力专家亲自出马。(威廉莎士比亚、温斯顿、日工、日工、日工、日工)到目前为止,还没有能够与人类展开随机应变对话的人工智能,可以在对话中培养信任关系,宣传公司文化。

人的简单感情和不道德是机器无法模拟的。“日常工作被AI接收后,人力专家应该集中精力为求职者提供职业咨询、振兴公司文化等高附加值工作。”一家高级猎头公司总裁纪尧姆尚帕内对《金融时报》说。

“因此,未来的人力专家要有更高的感性。”但是正如CNN所说:“就业是不正确的科学。

”无论人力专家有多聪明,AI有多先进的设备,谁也不能保证任何优秀的人才会被抛弃在手指之间。威廉莎士比亚、哈姆雷特、德高望重)“不是继机器人面试官带来的挑战之后,改变人力资源领域,而是人类以某种姿势和方式庆祝这种变化。”。


本文关键词:烈火电竞首页,人工智能,美国,人力,种族歧视,打工

本文来源:烈火电竞官网-www.run-hosting.com

0999-78919187

联系我们

Copyright © 2010-2014 韶关市烈火电竞官网股份有限公司 版权所有  粤ICP备53415137号-5