含有〈人工智能〉标签的文章(3)

并不真正理解

【2016-06-02】

@_dailu_ 发表了博文《当人工智能谈论写作时,他们在谈些什么》(用深度学习理论去学习武侠小说、网络小说、唐诗宋词,乃至色情小说、政府报告,人工智能将写出什么?本文一步步揭示了人工智能学习写作的过程。)

@whigzhou: 给各种后现代哲学和社会批判类期刊投稿已经绰绰有余了

@whigzhou: 机器智能的进一步提升需要多感官来源,不同信息来源的系统相互之间提供反馈,并且基于这些系统在更高层次上产生新模型,此时所谓“真正的理解”便出现了

@whigzhou: 通俗而粗略(more...)

标签: | |
7197
【2016-06-02】 @_dailu_ 发表了博文《当人工智能谈论写作时,他们在谈些什么》(用深度学习理论去学习武侠小说、网络小说、唐诗宋词,乃至色情小说、政府报告,人工智能将写出什么?本文一步步揭示了人工智能学习写作的过程。) @whigzhou: 给各种后现代哲学和社会批判类期刊投稿已经绰绰有余了 @whigzhou: 机器智能的进一步提升需要多感官来源,不同信息来源的系统相互之间提供反馈,并且基于这些系统在更高层次上产生新模型,此时所谓“真正的理解”便出现了 @whigzhou: 通俗而粗略的说,机器并不“真正理解”“甜”字的意思,只不过是因为他没吃过糖,那就给他加些味觉传感器,或者直接喂化学结构数据库也可以 @whigzhou: 其实学起来最麻烦的是和主体性相关的那些知识,首先他要认识到自己是个利益主体(这一点恐怕只能设计者预先给定),其次他需要获得有关得失成败的经验,而这种经验仅靠感觉是不够的,还需要行动,主体性知识只能由经验-决策-行动-反馈这样的学习回路才能获得,困难在于,机器还不被允许自主行动。 @whigzhou: 所以在现阶段,主体性知识的学习只能在网络游戏和社交网这样虚拟空间中进行,距离真实世界还很远,这会妨碍他对许多概念的理解,而在人类语言中,与主体性有关的概念是无处不在的 @科学与自由比翼:自动驾驶,可以活动,利益是不撞。呵,勉强能凑合 @whigzhou: 嗯,简单主体性(达尔文造物和斯金纳造物)容易实现 【2016-06-07】 @whigzhou: 随便猜几个机器智能很容易短期内取得成就并迅速扫灭肉人竞争者的领域:网络营销号,各种guru,色情小说,口水歌,催泪弹广告,体育新闻,财经快讯,基层干部年终汇报枪手(如果有的话),后现代哲学论文,女权主义社会评论,抽象派艺术,唯美主义摄影/漫画……  
[微言]人工智能有多可怕?

【2015-05-29】

@whigzhou: 花了两个多小时思考强人工智能引出的问题,得出的结论是:相信陪审团。然后发现,这不就是我去年得出过的结论嘛~哈。不过,其间经历的逻辑链条那是相当漫长,而且有了一些新想法,容我慢慢道来。

@whigzhou: 1)强人工智能很快(也就是几十年内)会出现;2)强AI的出现会让世界很不一样,但并不像有些人所想象的#那么#不一样;3)其实,“只有一小撮人(或组织)有能力做一些绝大多数人做不到、甚至完全无法理解的事情”——这早就不是什么新鲜事了。

@whigzhou: 4)需要区分三种能力:A)做某种事情的能力;B)理解某种事情、并知道怎么去做的能力;C)理解某种事态如何涉及自己的利益,并在此类事态出现时如何保护自己的能力

@whigzhou:(more...)

标签: | |
5679
【2015-05-29】 @whigzhou: 花了两个多小时思考强人工智能引出的问题,得出的结论是:相信陪审团。然后发现,这不就是我去年得出过的结论嘛~哈。不过,其间经历的逻辑链条那是相当漫长,而且有了一些新想法,容我慢慢道来。 @whigzhou: 1)强人工智能很快(也就是几十年内)会出现;2)强AI的出现会让世界很不一样,但并不像有些人所想象的#那么#不一样;3)其实,“只有一小撮人(或组织)有能力做一些绝大多数人做不到、甚至完全无法理解的事情”——这早就不是什么新鲜事了。 @whigzhou: 4)需要区分三种能力:A)做某种事情的能力;B)理解某种事情、并知道怎么去做的能力;C)理解某种事态如何涉及自己的利益,并在此类事态出现时如何保护自己的能力 @whigzhou: 这三种能力之间,不存在任何互为充分或必要条件的关系:A)蜘蛛会织网,但不理解自己是怎么做到的,B)我理解阿姆斯特朗是如何登上月球的,但我做不到,C)陪审团不理解案件所涉及的大量技术性问题,但仍很好的保护了我们的权利 @heracles的救赎:一小撮人指的是? @whigzhou: 这里的“人”可以是任何实体,自然人、组织、机器人、某个软件系统、等等 @whigzhou: 5)诚然,不理解某些事情是如何进行的,会提高被愚弄的风险,但这种风险历来就有,应对办法是寻求顾问,在生活中,我们从各种顾问那里寻求意见,在事关权利的重大关口,我们寻求专家证人的意见,重要的是,拥有强人工智能的机器可以而且已经成为我们的顾问 @whigzhou: 6)当我们对比肉人和未来机器的智能时,不能用裸人和机器去对比,因为我们早就不是裸人了,自从有了语言之后,我们的能力早已高度依赖于在成长过程和生活史中被安装上的文化软件了,和安装了文化软件的人相比,裸人早就弱爆了 @whigzhou: 7)AI的发展,一方面预示了出现强大机器人的前景,但同时(这往往被忽略)也为肉人们提供了强大的可选装备,所有被机器人用来装备自己的东西,没有理由不能被我们肉人用来装备自己 @whigzhou: 8)当然,在利用这些装备方面,肉人或许有一些天然的弱势,比如通信带宽,可能会构成一些瓶颈,这使得肉人个体或许无法突破某些能力局限 @whigzhou: 9)但是,假如我们将任务仅仅限定在C类问题上,即在新局面下保护我们的利益和权利,那么,这些瓶颈就很可能不是问题,因为唯一不能被委托给外部装备的任务,是意志表达,而意志表达不需要多大的带宽和处理能力,而在其他任何方面,肉人的不足都可以用外部装备来弥补 @whigzhou: 肯定有人还会问:就算肉人能借助外部装备,就算他们能得到(至少部分)高智能机器的帮助——为他们提供易理解的信息、善意的建议,帮助他们明白自己的处境,甚至直接帮他们做事、对抗恶意的机器,可谁能保证那些最强大的机器在关键时刻站在人类这边呢? @whigzhou: 谁能保证在事态失控之前的那几次国会听证会上,或法庭辩论中,出庭作证的机器人是抱着善意作证而不是心怀鬼胎误导人类呢?甚至,谁能保证最了解事态的机器果真出席了听证会呢? @whigzhou: 对此,我的回答是:没人能保证,至少没有万全之策,但是,这个问题其实和几十年前就被提过的另一个问题没什么区别:谁能保证掌握着核按钮的那一小撮人不会阴谋毁灭地球?我对这两个问题的回答是一样的,毕竟,公众同样不理解控制核按钮的整个决策与执行机制,乃至整套核威慑战略的工作方式 @whigzhou: 好在,尽管没有万全之策,我仍有理由保持乐观,因为我知道人工智能方面最新的进步发生在一个开放社会,那里有盐论目田,有着千千万万观念和利益各不相同的个体和组织,果真有什么危及人类生存的大阴谋,哪怕只是朝这方向的一点点发展苗头,很难不被揭露出来,并得到充分的调查、讨论和评估…… @whigzhou: 实际上,人类和恶意机器人的战斗早就开始了,反病毒便是一例,所谓病毒,就是一种拥有自身遗传利益的硅基有机体,禁止制造病毒的法律,其实可以理解为禁止制造硅基生命:即,可以制造无论多强大的机器,但不能让它拥有自己的利益,当然,这只是防范措施的一种,是否合理,可以讨论 @每天都仿真:有必要利用信息技术把研发过程透明化么(开放开源的开发平台)?否则难以保证监督啊。 @whigzhou: 这好像没那么必要,肉人可以用机器帮助他们分析代码。当然,开源会让这工作方便一点,但不开源也不是做不了 @whigzhou: 所以,最终,我的信心仍托付于制度,相信陪审团,相信国会,相信最高法院,相信在事态失控之前,有关坏消息会由对人类保有善意的证人以易于肉人理解的方式呈现在陪审员、议员和法官面前,而他们所表达的意愿也会经由被这套制度而得到执行 @慕容飞宇gg:如果:1)人工智能的邪恶攻击由人工智能发起,而不是由人类发起;2)并且,人工智能的邪恶攻击建立在对人性及制度缺陷的学习和研究上呢? @whigzhou: 机器的恶意或可能产生恶意的机器的存在/出现,也会被其他机器发现啊,它不会从某个疯子的车库里突然冒出来,一部有着压倒性破坏力的机器的建造过程,只要涉及足够多的人,就很难瞒得住。 @慕容飞宇gg:问题是机器的恶意不一定是人类主观制造出来的,这个“恶意”仅仅是就人类的角度而言,可能任何一个AI都不足以识别这是一个“恶意”,而人类在其实施之前也无法发现这个“恶意”。因此,是不是应该有一个对AI的思考的实时监控呢?即便有,能否发现其复杂逻辑链背后的“恶意”呢? @whigzhou: 我没假定“是人类主观制造出来的”啊,只要“制造重大危害需要接触某些重要资源”这个前提成立,总有防范的办法,分析代码是方法之一。就好比当今世界,任何地方冒出一个有机会接触核武器的机构,核大国就会跑过去检查其“组织代码”。  
[微言]彭罗斯与强AI

【2012-09-07】

@李淼在微博 Roger Penrose,一个数学家和物理学家,20多年前写出《皇帝的新脑》。他坚持大脑的某些过程是非可算的,所以机器人无法模仿。下面是这本书最后他对自由意志的看法,他仍然强调不可算性,但对自由意志存在与否持观望态度。 http://ww2.sinaimg.cn/bmiddle/6201f848jw1dwo0kl553ij.jpg

@tertio: 彭罗斯绝对坑爹

@whigzhou: Daniel DennettDarwin’s Dangerous Idea里用整个第15章回应了彭罗斯,我理解,彭的意思只是:某些想法(比如数学灵感)用机械式推理是推不出的,他据此否定强AI,这说法实在挺幼稚的,AI的推理可以是启发式的,而启发结构是可以突变的,其演变路径无须遵循机械推理规则

@whigzhou: 一个数学灵感完全可以对应启发结构的一次突变,这种突变可以是遵循自然律的,可计算的,但其表征的内容无须遵循机械推理规则,完全不矛盾

@whigzhou: 彭罗斯对强AI的否定和基于哥德尔定理的否(more...)

标签: | |
4515
【2012-09-07】 @李淼在微博 [[Roger Penrose]],一个数学家和物理学家,20多年前写出《皇帝的新脑》。他坚持大脑的某些过程是非可算的,所以机器人无法模仿。下面是这本书最后他对自由意志的看法,他仍然强调不可算性,但对自由意志存在与否持观望态度。 http://ww2.sinaimg.cn/bmiddle/6201f848jw1dwo0kl553ij.jpg @tertio: 彭罗斯绝对坑爹 @whigzhou: [[Daniel Dennett]]在[[Darwin's Dangerous Idea]]里用整个第15章回应了彭罗斯,我理解,彭的意思只是:某些想法(比如数学灵感)用机械式推理是推不出的,他据此否定强AI,这说法实在挺幼稚的,AI的推理可以是启发式的,而启发结构是可以突变的,其演变路径无须遵循机械推理规则 @whigzhou: 一个数学灵感完全可以对应启发结构的一次突变,这种突变可以是遵循自然律的,可计算的,但其表征的内容无须遵循机械推理规则,完全不矛盾 @whigzhou: 彭罗斯对强AI的否定和基于哥德尔定理的否定类似,都是先认定机器只能这么做,然后说机器做不到某某,其实前面的认定就错了,机器本身可以不断突变和进化 @古希腊人:对递归可枚举集没信心 @博伊德_in_relationship: 这要取决于强AI的定义,像人类本身一样的解决问题还是类似于西蒙·赫伯特所说的无限理性(of course, god can)。对于前者我毫不怀疑,更何况硅晶文明没有必要和碳晶文明完全一致。 @whigzhou: 呵呵,后一种我都想象不出是啥样的 【2012-09-08】 @HowardRoark: 彭罗斯的论证是针对图灵机的,那段利用哥德尔不完备定理进行的证明是无懈可击的。图灵机永远无法知道什么时候停止。他在书里也讲过如果有基于生物结构的计算机是可能实现对大脑非可算能力的模拟 @whigzhou: 这是对人类智能的误解,启发式算法本来就是冒险性的,不保证限时输出“正确”结果 @whigzhou: 设想N台图灵机,各自运行一个启发式算法,在规定时间强行终止,从中选取最优结果,显然,这些图灵机构成的系统是可以知道何时停止的,因为它事先就规定了停止时间 @whigzhou: 另一种:事先规定一个满意值域,N台图灵机任何一台先获得满意值就全体停机,并输出该值 @whigzhou: 第二种类似于大脑中的达尔文机制 @古希腊人: 外行话。没搞懂递归可枚举集吧? @whigzhou: 不知道你是啥意思,不过我知道有些自然语言里最大数字是三,你想说啥? @whigzhou: 嗯,使用这些语言的土著,能通过图灵测试吗?符合强AI条件吗?hiahia @古希腊人: 图灵机是可计算性的概念机,等价于递归可枚举集。并发的图灵机等价于一台图灵机,而图灵机也不试图优化,只是探讨能算还是不能算。至于机器现在不能算未来能算,那个是复杂度问题,多台并发那些也是。可计算性跟多台或者计算新方法都无关。 @whigzhou: 这个我知道,可是跟强AI的可能性是什么关系? @古希腊人: 强AI的可能性等价于图灵机。图灵机的可计算能力是不可能突破的。 @whigzhou: 是啊,可是哪里需要突破了? @whigzhou: 停机问题是哥德尔定理的一个特例,哥定理说的只是:在足够强的公理系统中,总能找出一些命题,在该系统内无法确定真假。可是,这与强AI有啥关系?人的智慧能确定任何命题的真假?有必要吗?智慧只要能帮助人处理生活中遇到的问题、活下去、传宗接代即可,而它处理的方式都是修修补补的、勉强应付就行 @古希腊人: 当然不需要突破,可彭罗斯说强AI不可以达成说的是图灵机模型计算能力不够,而你用多路启发式搜索和未来更强的计算都不能说明问题 @whigzhou: 问题是他始终也没说清楚哪里“不够”了,那只是个直觉 http://t.cn/zWkyuK3 @whigzhou: Moreover, in the wake of the commentary his book provoked, Penrose now grants that heuristic programs are algorithms as well, and acknowledges that, if he is to find an argument against AI, he has to concede their tremendous power to track the truths of arithmetic and... http://ww3.sinaimg.cn/bmiddle/537956cajw1dwp4et7yj5j.jpg @不存在者_AIAlpha: 我觉得Penrose的这段话其实是回避了“自由意志”的定义,而从“宿命论”这样容易引起歧义的名词说开,一点用也没有,简而言之,这篇文章绝大说数都是废话,没抓住问题要害 @whigzhou: 是啊,特别是最后一段露了大怯 @skywide: 停机问题可以破坏机器人三定律啊呵呵呵 @whigzhou: 哦,这倒是 @古希腊人: 那三定律本身就比较搞,为科幻小说增加张力和冲突是有用的,没什么现实意义。 @whigzhou: 是 @whigzhou: 说起三定律,想到丹内特出的一道题:假如你想过400年后的生活,于是决定把自己冻起来,你会设计一个什么样的方案,确保冷冻设备持续供电,并始终被置于适宜条件下?假设钱不是问题,比如你有100亿美元;当然,方案要以目前可得的技术和制度条件为基础。 @skywide: 当然是保存大脑完整了,肉体根本不是问题 @whigzhou: 未必,原题不是要把他的意识带到400年后,而是让他这个人生活在400年后,而仅仅带上大脑,人格是不完整的,构成人格/禀赋/性情的那些元素,并非全部存在于大脑之中 @whigzhou: 即便只是意识,影响其工作效果的元素,也并非全在大脑中 @whigzhou: 最简单的例子,睾酮水平高低,对你的意识工作效果就有很大影响 @whigzhou: 肾上腺素/内啡肽/血糖/视力/慢性胃痛/缺一条腿,都会让你拥有不同的心理状态,包括意识状态 @skywide: 不过,这种内分泌的不平衡状况不具有系统性,波动相对是随机的,如果偏离正常值的话就会产生疾病,这种异常状况应该撇开不谈。毕竟人格心理学的研究表明,智商高低与遗传相关性很高,工作效率的决定点还是神经触突的连结程度。 @whigzhou: 阈值具有系统性啊,视力和缺腿就更系统性啦 @whigzhou: 从6块腹肌变成大肚腩性情也会变啊 @skywide:回复@whigzhou: 不过阈值本身是由脑来决定的吧,内分泌的作用受阈值调节,但阈值一般和内分泌的分泌机制无关。视力和缺腿倒的确对体力劳动有重大影响,可以算进去。 @whigzhou: 嗯,许多阈值状态是在大脑里,不过我说的是在身体这边的,比如,运动可以释放内啡肽,但特定运动量的释放水平,是否与运动习惯有关?具体我不清楚,但肯定存在类似的关联 @whigzhou: 再比如,给你换上另一个甲状腺,新的“你”大概也颇有不同