天天喊取代人类:人工智能为啥还是不行?

来源:www.xjctc.net   时间: 2019-08-28

人工智能已经诞生了61年,但从高冷技术到被人们食用已经有几年了。我们可能已经在媒体上看到人工智能做各种各样的事情。我们可以写文字和写文章,吴能在战场上砸枪。所以总会有一个声音告诉我们:人工智能总会有任何东西。那么,到那时你就是它寄生的一部分,甚至由它控制。

但最近发生的一系列事件告诉我们相反的结论:谈论人工智能取代人类还为时尚早,至少还有一些问题需要解决。

人工智能还不够成熟

人工智能最基本的优势之一是能够长时间保持中立性和准确性,这是许多公司开发人工智能的主要原因之一。

例如,小发猫Watson认知计算平台适用于医疗目的。但并非所有的人工智能都如此可靠,例如最近在Facebook消息流中使用人工智能。

Facebook的热门新闻部分被指责为严重的政治偏见。后来Facebook解雇了整个承包商编辑。最初的编辑工作完全被人工智能所取代,但在几天之内,人工智能摧毁了这场大灾难:它给了“趋势新闻”部分推了一个假新闻声称福克斯电视台已经解雇了一位着名的主持人并称主持人是“叛徒。”在Facebook纠正错误之前,数百万用户可能已经看过假新闻。

Facebook赞助的假新闻

后续工作更令人惊讶。 Facebook解雇了整个人工新闻编辑团队,用于人工智能。在假新闻事件发生后,三名原创新闻编辑声称,在被解雇之前,Facebook的新闻算法并不完美,甚至编辑也爆料。当他们回顾人工智能算法推荐的新闻时,他们发现算法推荐的只有50篇文章只是真正的新闻,而20个新闻来源并不具有权威性。

Facebook“趋势”部分

在这种情况下,人工智能可能没有人类编辑对新闻事件的青睐和厌恶,但新闻本身的准确性大大降低,直接影响新闻推荐的质量。

编辑说,除了工程师不断改进算法外,编辑对于人工智能系统的培训也是必不可少的,但这里的人工智能还没有得到充分的研究,并被Facebook推出以获得新闻中立性。人。

后来事情变得更加严重:当Facebook推出人工智能新闻算法时,它刚刚进入美国大选,然后备受争议的特朗普当选总统。那些对结果不满意的人开始责怪Facebook:你的消息流中的所有假货。新闻帮助特朗普获胜!

这个声明可能被怀疑是涮锅,但Facebook的流行虚假新闻确实是真的。据说,在欧洲一个名为“马其顿”的国家,一些年轻人依靠建立假新闻网站和编辑新闻来赚取广告费,而传播假新闻的最快方式是通过Facebook。

现在,Facebook,乞丐的血腥狗,已采取各种措施打击假新闻。效果仍有待证明。

这告诉我们,人工智能需要时间。技术人员需要不断改进人工智能算法;更重要的是,人工智能必须模仿人类思维,必须有一个学习过程,绝大多数学习过程都是通过人的训练来实现的。

目前,各大科技公司开发人工智能的时间还不够长,而相应的系统学习还不够成熟。可以说它相当于几岁或十几岁的水平,因此这样的系统可以承担成年人可以做的工作。超过当前系统的承受能力。

人工智能也可以被欺骗

与人工智能本身的缺陷引起的错误相比,本文并不十分明显,但想一想,黑客系统对人工智能是一个明显的威胁。作为基于各种算法的系统,必然会有被黑客攻击的可能性。

黑客目前使用的最常见攻击是欺骗人工智能。最近的电信欺诈告诉我们,人类本身并不总是聪明,特别是对于缺乏充分思考的人工智能。在这方面,黑客可以使用技巧来玩弄技巧。

例如,美国的研究人员可以通过生成的3D模型欺骗人脸识别系统。这些研究人员首先在社交网站上收集面部照片,使用这些照片创建面部3D模型,并添加面部手势或小手势,如闪烁。至于皱纹等面部细节,可以锻造它们,从而生成面部的3D模型。五分之四的人脸识别系统可以在55%到85%的测试时间内被愚弄。

研究人员使用照片创建了脸部的3D模型

除了欺骗人脸识别系统,黑客还可能攻击自动驾驶系统。例如,黑客已经使用特斯拉自动驾驶系统成功“催眠”特斯拉。

研究人员使用“噪音攻击”方法干扰特斯拉

如果系统本身还不够成熟,那就很有趣了。已经有记者测试了一个初创的人工智能投资机器人。因此,该机器人不得不投入1400万美元用于一个虚构的创业项目。

人工智能想“投资”1400万美元给一家虚构的记者创业公司。

因此,目前人工智能仍有可能被欺骗。至少我们不能把它作为判断事物或做出决定的唯一依据。

人工智能分不清是非

当涉及到“明辨是非”的时候,对目前的人工智能来说可能太高了。毕竟,即使是人也不能总是分辨对与错。有些人甚至害怕,如果用人工智能来区分是非,那就意味着人工智能有自己的判断,有自己的喜恶,不能完全听人的话,甚至不能背叛人。

事实上,它并不神秘。人工智能学习区分是非的原因是让它判断人类让它做的事情是对还是错。一个不能判断对与错的人工智能可能会成为一个坏心肠的人的杀人工具。它将无条件地执行恶人的命令。即使问题不是那么严重,也可能是这样一种情况:一个坏老头。让人工智能机器人浇花,但实际上机器人只是浇花。

电影中的机器人[0x9A8b]

让人工智能决定命令背后的风险,规避风险,是人工智能“智能化”的重要一步,目前已有人注意到这一点。他们正试图开发控制技术,让人工智能做出简单的判断。其他人则建议将伦理和法律传授给人工智能。

但目前,相关技术仍在开发中。在伦理法教学方面,技术巨头举行了一次特别会议,试图制定人工智能的道德规范;欧洲议会还推动了有关自动驾驶和人工智能的相关法律,事故后明确相关的责任,并要求人工智能机器人安装“自毁按钮”。但这些努力才刚刚开始。

美国五大科技巨头齐心协力制定人工智能道德标准

美国科学技术杂志《终结者》前编辑凯文凯利曾在他的书中写道,人类在人工智能的心态上有七个阶段。目前,我们关于人工智能的心态可能是这样的:人工智能会做很多事情,但我不一定会这样做,或者经常导致问题,我需要处理它,或者我需要训练它学习新任务。

此外,在这三个阶段中,人类可以安全地将任务移交给它。

在作者看来,人工智能可以完全承担人类在上述三个问题上给予的工作。

  • 日期归档
  • 友情链接:
  • 版权所有© 新疆计算机培训中心 | 新ICP备10201303号-1 | www.xjctc.net . All Rights Reserved | 网站地图