当前位置:百问十五>百科问答>人工智能与“人工智障”有清晰的界限么,在哪里?

人工智能与“人工智障”有清晰的界限么,在哪里?

2024-07-06 05:01:44 编辑:join 浏览量:598

人工智能与“人工智障”有清晰的界限么,在哪里?

我非常喜欢你的问题,能提这样的问题,不是一般般人

你知道扫地机器人嘛?这个产品就是界于智能与智障之间

这个机器人有一大爱号,就是扫着扫着,它就去日鞋子,扫帚之类的硬物,一日,就是日一天,日了一日又一日,哈哈哈;

你看到了,那叫一个气啊,明明买回来的是一台智能机器人,结果表现就像个智障

长期以来人工智能,培养出来的就差不多是人工智障了

人工智能与人工智障之间差什么?

是人类的思维。

但人类的思维并不是有海量的知识储备就能自动生成的。

就像我们说的书呆子,徒有满腹经纶,但就是不能灵活运用。

可目前,我们还在对人工智能做这样的事,填鸭式地教它怎么做,怎么说。

可它总会遇到更复杂的问题。

那我们恐怕下辈子都看不到像钢铁侠的贾维斯那样强大的A了。

所以,让AI变得更好并不在于他懂不懂美食,而是先让他了解为什么要吃饭。

最近出自《 Science》的一篇论文就提出了一个概念,认为人类的意识模式分三级,而目前的人工智能充其量只掌握了一级。

“计算机之父”艾伦图灵曾经梦到过机器人与世界顶尖棋类高手对弈的场景,那时候听来搞笑,但是今天的阿法狗却被大肆吹嘘。

然而,阿法狗虽然非常厉害,但是它却不知道自己也许人们觉得阿法狗不需要知道自己很厉害,它只是个A而已,但是如果要成就更棒的A,那么阿法狗就必须像人一样,意识到自己实力超群。

换言之,它要像人那样思考。

该论文针对这一点,详细提出了人类的三种意识模式,可以供A参考学习。

第一层-C0级:无意识的意识

这一意识水平涉及到人类大脑中的无意识工作,比如说面部和语言识别。

研究人员称,人类大脑进行的大多数运算都发生在这一阶段。换句话说,人类不会意识到这些运算的发生。

论文还举例说,当你早高峰开车上班,到单位时你也许会突然问自己,“诶,我是怎么来的呢,怎么一点印象都没有?”,这段早高峰的驾驶经历其实就是论文称,尽管人工智能技术在不断地进步,但机器仍然主要处于这种意识水平上。比如说,被称为“卷积神经网络”的A系统就是在执行人类C级意识的运算,例如面部识别等功能。

第二层-C1级:深思熟虑后的决定

论文接着介绍到,C1级意识也就是深度思考能力,它可以临时支配思维帮助我们做出更多的行为,而这种意识则是人类和动物所独有的。

还是那个例子,一天过后,你开车下班,路上你突然发现油箱警示灯亮了起来,此时你的大脑飞速运转着,离这儿最近的加油站在哪儿?距离多远?从哪条路走比较近

在人类和其它灵长类动物中,大脑的前额皮质层作为信息处理的中央,进行着C1级意识的许多运算通过分析大脑这一部分的神经回路,科学家们能够探索大脑处理信息的原则并有望将其通过编码输入第三层-C2级:元意识

最后一个级别是C2级,涉及到元认知,或者说监测自我思想和运算的能力,换句话说就是具备自我意识的能力。

依然是那个例子,你通过C0意识驾驶着车辆,C1意识则带你前往最近的加油站,C2级意识则站在高处注视这一切,把握着行为的大方向。

C2级意识能够让你主观感觉正确还是错误,这就能帮助人们意识到错误并且改正。

它还可以帮助人们了解他们知道什么或者不知道什么,引发人的好奇心,这种机制会驱使人探索知之甚少或者一无所知的事物。对于A来说,这一点弥足珍贵

论文合著者,加利福尼亚大学神经系统科学家Hak wan Lau认为,这三种意识模式构成了人类基本的行为,而人类意识或许来自于一组特定的运算。

人工智能现在跟热门,但你看到过亚马逊智能音箱劝主人自杀的视频了么?

人工智能,是基于人创造出来的智能。如果人创造出来的这个东西不好用,可以说是人工智障,如果创造出来的东西过于好用甚至有自己的思维,可以反向作用于人类,比如攻击人类等,那是真的“人工智障”了。

近两年人工智能被人们诟病最多的地方是:人工智能体现不出智能。

很多人对人工智能的认知都是分裂的。一方面媒体不断报道人工智能又取得了什么样的新成果,国外各路大咖让人们要警惕人工智能的发展,人工智能还被纳入我国发展的规划中等等。

另一方面,新闻里经常传出自动驾驶又发生事故,家里的智能家具表现地像个智障一样,资讯平台总是傻傻地推同样类型的新闻等,这些现象都让我们疑惑,人工智能到底智能在哪里?

回答这个问题之前,我们有必要搞清楚,强人工智能和弱人工智能的区别。

最初,在达特茅斯会议提出人工智能一词时并没有强与弱之分。普遍认为人工智能就是让机器拥有思想,能够像人类一样决策。当时各种算法的研究也是奔着这个目标而去,希望能够模拟人类决策的方式赋予机器真正的智能。

但很快就有人发现:在这种方式下实现的人工智能并非真正的智能,只是对人类智能的模拟。美国哲学家John Searle提出了一个思维实验:中文房间(Chinese Room Argument),它是这样的:

想象一位只会英语的人身处一个房间之中,这间房间除了门上有一个小窗口以外,全部都是封闭的。他随身带着一本写有中文翻译程序的书。房间里还有足够的稿纸和铅笔。

写着中文的纸片通过小窗口被送入房间中。房间中的人可以使用他的书来翻译这些文字并用中文回复。虽然他完全不会中文,Searle认为通过这个过程,房间里的人可以让任何房间外的人以为他会说流利的中文。

值得注意的是,这本书仅仅是语法的对应,并不涉及到任何语义的说明。房间中的人,只需要按照对应的回答,拼凑出相应的中文字符递出去即可。在这个过程中,他并不理解问题和他所写的答案是什么意思。

Searle认为,人工智能就是这样工作的。他认为计算机根本无法真正理解接收到的信息,但它们可以运行一个程序,处理信息,然后给出一个智能的印象。

例如图像识别技术,它的工作原理就是将颜色变成数字编码,再从这些数字编码中找到特征,查找字典,找到对应的解释然后显示出来。实际上计算机压根不知道自己识别的到底是飞机还是兔子,只是字典告诉它这个特征很大概率对应的是“飞机”这个单词。

绝大部分算法在本质上都是在玩概率的游戏,不同的方式只是在模型训练时需要的信息不同,以及计算出来对应“飞机”的判定方式不同。

当前所有被广泛应用的知名模型都是通过矩阵运算训练数据来获得某种概率分布。复杂模型的概率分布通常是高维的,这里又会引申出各种数学方法,但本质的思想依旧是想通过概率分布来描述训练数据的特征。有了这些,对于同类的数据,就可以使用相同的概率分布去描述,从而实现所谓的“识别”或“预测”。

实际上并非模型真的像人类一样理解了什么是“飞机”,只是通过这种方式,模型能够大概率把长得像飞机的图片识别出来。

后来业界也普遍认识到这一点。因此把人工智能这个概念又划分为强人工智能与弱人工智能。

强人工智能流派仍然追求让计算机拥有人类的心智与意识,具有自主选择行为。就像西部世界中从固化程序逐渐演化出自我意识的梅芙一样。但是强人工智能的研究难度较大,市面上还没有成熟的应用。

而弱人工智能更像是一个解决特定问题的工具。这类问题的特点是可以通过统计,归纳出经验并形成解决方案,而这种解决问题的实现方法被称为“机器学习”。

机器学习最基本的做法,是使用算法解析数据、从中学习数据的规律,然后对真实世界中的事件做出决策。与传统的编程方式不同,机器学习是用大量的数据进行训练,通过各种算法从数据中学习“如何完成任务”。

例如量化交易、人脸识别和AlphaGo都是擅长于单个方面的机器学习模型。在训练模型时,我们只教会AlphaGo下围棋的技巧,所以它只能会下围棋。如果你把一道数学题丢给AlphaGo,显然它是无从下手的。

所有的机器学习模型都只能完成特定的任务,很多时候我们通过组合的方式满足更多的场景。例如智能音箱本质上是一个语音识别的模型结合NLP(自然语言处理)模型,它并非真的能听懂我们说的话代表什么含义,仅仅是能够把接收到的信息转化为模型的输入,在字典中找到对应的输出而已。

从机器学习的特点可以看出来,如果想通过统计归纳经验,数据的数量与质量是决定性条件。没有数据,就没有人工智能。

也就是说在你没有作出同类别行为,或者是与你行为相近的人群较少时,人工智能是没有办法作出判断的,这也是人工智能变成人工智障的重要原因。当行为增加,数据慢慢变多,数据质量逐渐上升时,你会发现预测越来越准确,人工智能通过大数据也能做到真正的“想你所想”。

标签:智障,人工智能,界限

版权声明:文章由 百问十五 整理收集,来源于互联网或者用户投稿,如有侵权,请联系我们,我们会立即处理。如转载请保留本文链接:https://www.baiwen15.com/answer/135399.html
热门文章