人工智能seo技术什么时候才能全面影响搜索算法?

作者: [db:作者] 分类: seo知识 发布时间: 2020-01-02 20:13

在过去的一两年里,人工智能已经成为最热门和迅速进入实用技术领域的技术。我之前写过人工智能将彻底改变seo,我还介绍了人工智能在搜索算法中的实际应用,但是应该注意到,到目前为止,人工智能在搜索算法中的应用并不广泛。也许影响人工智能在搜索算法中广泛应用的最重要因素是搜索引擎工程师不知道人工智能系统是如何做出判断的,进而导致另一个重要问题:难以调试。

人工智能是个黑盒子

以不太严格但容易理解的方式,深入学习是对现有数据(大量数据)进行标记,然后系统自己总结数据和结果(即标记)之间的关系。当面对新数据时,它可以根据自己总结的规则进行判断。对于围棋来说,无论是历史游戏还是自我游戏,阿尔法围棋都知道棋盘的面貌和结果(也是一种标签)。当面对新的牌面时,系统将总结规则并判断赢得游戏的概率。然而,人工智能系统发现即使是创建人工智能的工程师也不知道数据的哪些特征和结果之间的关系。

因此,当前的人工智能系统是一个黑匣子。我们知道人工智能的判断有很高的准确率,但我们不知道为什么或如何。

搜索算法中的人工智能也是如此。百度搜索工程师的声明鲜为人知,但人们只知道百度现在全在人工智能中。谷歌工程师已经明确表示,他们不确定rankbrain到底是如何工作的。在这种情况下,在算法中广泛使用人工智能更加麻烦。一旦出现异常结果,就不可能在不知道原因的情况下进行调试。

我写这篇文章是因为前几天我在《纽约时报》上看到一篇文章,“人工智能能学会自我解释吗?”,非常有趣。心理学家迈克尔·科辛斯基(Michal kosinski)将200,000个社交网络账户(约会网站)的照片和个人信息(包括许多内容,如性取向)输入面部识别人工智能系统,发现人工智能仅在看到照片时判断性取向的准确率很高。通过照片人工判断一个人是不是同性恋的准确率为60%,高于掷硬币的准确率,但通过人工智能判断一个人是不是同性恋的准确率高达91%,低于判断一个女人的准确率,为83%。

从照片中,没有诸如色调、语调、姿势、日常行为、人际关系等信息来帮助判断。同性恋者有纯粹的面部特征吗?我个人的经验是,以貌取人并不可靠。我以前认识几个男同性恋。他们都很有男子气概。他们一年到头都保持健康,礼貌待人,但没有女性气质。从外表看不到他们。这还取决于一些服装特征吗?表情?背景?人工智能从照片中看到了哪些我们人类可能忽略的特征,或者哪些人类根本看不到的特征,准确率高达91%。我不知道,但我只知道人工智能看起来非常准确。

不能解释自己的ai无法被信任

这个黑盒特征有时是不相关的,比如判断性取向。有时候你不能这么匆忙,比如去看医生。虽然人工智能系统诊断某些癌症的准确率已经达到了人类医生的水平,但最终的结论是医生仍然需要这样做,特别是当人工智能不能告诉我们其诊断的原因时。除非人工智能能够解释为什么它会在未来做出这样的诊断,否则对人工智能100%的信心有很大的心理障碍。

就在几天前,新加坡政府开始测试无人驾驶汽车。这显然是一个正确的方向,我相信它将在不久的将来成为现实。虽然自驾汽车的事故率比人低,但我们都知道从道理上来说其实是比较安全的,但是在过马路的时候,停在附近的公交车没有司机,我会不会有点担心它会突然启动呢?开车时,我转过头,发现旁边的公共汽车上没有司机。我会被吓到并下意识地远离它吗?至少在最初。和几个朋友谈论这件事既理性又感性。

以前的程序是基于确定性和因果性运行的,比如搜索算法中的哪些页面特征是排名因素,以及每个页面特征的权重。这是由工程师选择和决定的。尽管可以通过敲打头部来决定选择,但是在监测效果和调整参数之后,将会达到令人满意的平衡。人工智能系统不依赖于工程师给出的因果判断,而是更善于发现概率和相关性之间的联系。对人们来说,以概率和相关性为特征的判断通常很难解释,例如,它们看起来是否好,取决于情绪。

要求人工智能系统解释它的判断不仅是一个心理问题,而且以后可能会变成一个伦理和法律问题,就像看医生一样。另一个例子涉及到用户的利益,如贷款,人工智能根据大量数据做出拒绝贷款的决定,但银行无法解释为什么拒绝,如何为用户解释?今年,欧盟可能会颁布法规,要求必须解释机器做出的决定。这是对谷歌和facebook等全球企业的压力。在军事、法律和金融等许多领域,所有的决策都需要有人承担责任。如果一个决定不能解释原因,恐怕没有人敢承担责任。

要求人工智能解释的另一个原因是,如前所述,人工智能着眼于概率和相关性,但着眼于相关性来做出决策有时会导致严重的错误。《纽约时报》的文章举了一个例子。数据训练的人工智能系统辅助医院急诊室分诊,整体效果良好,但研究者仍不敢真正应用,因为数据中的相关性可能误导人工智能做出错误的判断。例如,数据显示患有肺炎的哮喘患者的最终恢复比平均水平要好,并且这种相关性是真实的。如果人工智能系统因为这些数据而给予患有肺炎的哮喘患者较低的治疗水平,那么可能会发生事故。这些病人最终身体状况良好的原因是,他们一到达就获得了最高的等级和最好最快的治疗。因此,有时从相关性中看不到真正的原因。

可解释的人工智能

X.a.i .(可解释人工智能)可解释人工智能是一个新兴领域,其目的是让人工智能解释自己的判断、决策和过程。去年,国防高级研究计划局(darpa)启动了大卫·冈宁博士领导的xai项目。谷歌仍然是这个领域的领导者,深度梦想似乎是这项研究的副产品:

回到搜索算法和搜索引擎优化,搜索引擎仍然不能完全应用人工智能的原因之一可能是人工智能的判断还没有被解释或理解。如果算法使用当前的人工智能,工程师将无法知道原因是什么,以及一旦排名异常如何调整。

我认为自动驾驶仪是人工智能应用的第一批领域之一,它与能否解释有关。大多数自动驾驶汽车的决定不需要解释太多,或者解释一目了然。它离前车太近,无法减速或刹车。这种判断不需要进一步解释。

Seo的人可能也有同样的疑问,竞争对手的页面看起来没什么特别的,内容不太好,视觉设计一般,外链一般,页面优化每个人都一样,为什么排名这么好?现在搜索算法也可以探究原因,搜索工程师可能有内部工具来查看排名的合理性。如果搜索工程师看到一个非常糟糕的页面,它在前面,但他们不知道原因,也找不到,他们的心可能会焦虑。

Xai研究刚刚开始,这给seo研究人员最后的缓冲期。从人工智能系统在其他领域粉碎人类的性能来看,一旦大规模应用于搜索,作弊和黑帽搜索引擎优化很可能会成为过去。当前例行的搜索引擎优化工作可能变得无关紧要。SEOs需要回到网站的本质:没有其他方法可以提供有用的信息或产品。

如果觉得我的文章对您有用,您的支持将鼓励我继续创作!

标签云