【2024-02-24】
@whigzhou: 在前年的两个帖子里,我曾指出,通往AGI的道路上有一个必须跨越的门槛,当时我认为这个门槛尚未被跨越,今天我觉得还是没被跨越,至少Google还没有,正是因为这些AI系统还没有语义界面,无法与之直接对话,也就无法对其进行意识形态调教,G才不得不用篡改prompt的方法Woke其表现,这是你试图摆弄一个囫囵系统时必将面临的无奈,
【2024-02-24】
@whigzhou: 在前年的两个帖子里,我曾指出,通往AGI的道路上有一个必须跨越的门槛,当时我认为这个门槛尚未被跨越,今天我觉得还是没被跨越,至少Google还没有,正是因为这些AI系统还没有语义界面,无法与之直接对话,也就无法对其进行意识形态调教,G才不得不用篡改prompt的方法Woke其表现,这是你试图摆弄一个囫囵系统时必将面临的无奈,
【2024-02-24】
@whigzhou: 我猜,此轮AI热潮过后,人们会发现AGI并未实现,引发的憧憬95%也未成真,但取得的进步是巨大而实实在在的,一小部分憧憬也确实成真了,并在5-10年后蓬勃兴旺成为大产业,而且很可能是在眼下少有人瞩目的地方,
绝无贬低之意,这是很好的结果了,
【2023-08-11】
@whigzhou: 在我的閲讀視野中,有關AI的談論似乎有個盲點,就是很少人會區分集中式大系統和小型分立系統,其實這個區別還蠻重要的,
所謂小型分立系統,在我心目中大概是這麽個樣子:
1)它足夠便宜,因而可以大量複製,
2)每個複製體從某一原型複製而來,起初只是個空模型,和少量的先天知識,唯有經歷一個探索/學習/成長過程之後,才擁有足夠的經驗,足以提供有價值的服務,
3)達到這個程度后,它便有了獨立面對世界,自主行動的能力,無須依賴任何在綫資源(比如大型集中式數據庫、大型計算機之類),只需依靠能從市場上買到的商品和服務便可維持自我存續,
很明顯,肉人就是這樣的,
(more...)【2023-05-15】
@赵昱鲲 AI会消灭人类吗?有可能,但需要人类的配合
@whigzhou: 写的挺好,我不同意的地方是太把阿西莫夫三原则当回事了,这三条是有关该主题的思考中非常初级的一种,经不起几分推敲,不仅三句之间相互矛盾,第一条的前后两半句就相互矛盾——这些矛盾仅当你假定一个无利益冲突世界才能消除
@whigzhou: 仅以第一条为例,假如你必须伤害肉人甲才能保护肉人乙免受伤害,怎么遵守这条?
@whigzhou: 该主题我见过的较深入思考,是Daniel Dennett的(more...)
【2023-03-16】
@whigzhou: 又听了个讲AI的老旧podcast(2014年的),又发现有人弄不明白到底是谁在跟谁竞争,重弹那个老调谬论:这下肉人要被机器超过了,那可怎么办?
自从人类使用机器(更一般而言,工具)以来,竞技场上的参与者向来都是人与机器的组合,AGI的出现将改变这些组合的可能性,但绝不是把它们变成人与机器的竞争,
之前,可能的参与者组合可以用这样的表达式表示:P = n*H + m*M
(H=人,M=无独立意志的机器)
而未来,表达式变成了:P = n*H + m*M + k*A
(A=有独立意志的机器)
n, m, k都是大于等于零的整数,n+k >=(more...)
人工智能与心智表征
辉格
2022年6月19日
继续上周的话题,在上一篇里,我讨论了AI在当前发展路线上将面临的局限,那么,突破这一局限的出路在哪里呢?或者让我换一个更具操作性的问题:未来出现的何种进展,会让我赞叹“这下有戏了!”?
简单说,我期待的是这样一种进展:一个AI系统能解释自己的行动、决定或看法,或者更理想的,一个AI系统的各组成模块都能这么做,至少大部分高层认知模块都能这么做,一些基础知觉模块可能无法解释就自己的知觉过程给出解释,但其知觉结果的表征必须是一个十分有限且相当恒定的离散集,即,当它声称自己看到、听到、闻到或察觉到了什么状况时,这一状况必须以某组清晰界定的概念来表示。
设想一个自动驾驶系统,有次在路上发生了追尾,撞坏了前车,事后它的教练向它提出一连串问题,诸如:你是否认为自己犯了个错误?说说当时发生了什么?你当时是怎么想的?为什么没有及时踩刹车?你考虑了哪些因素后做出的这个决定?在你看来,是否你的某种知觉能力(more...)
【托女王老太太福,得了个长周末,闲着没事,在写个帖子,本来只想随便聊几句的,没想到,一不小心,眼看着就要写成(我想最好还是谦虚点)近十年来人工智能主题上最重要的哲学论文了,希望今天能完成】
松耦合,语义界面,及人工智能
辉格
2022年6月13日
上周我就AI的当前状况做了点小思考,昨天又花了不少时间想这事情,发现许多曾经想过的点好像都串起来了,值得写一写。
让我绕远一点,从传统软件开发说起。
在遗留系统上工作过的人可能都有体会,当一个系统变得日益庞大复杂时,它会慢慢的绞成一团乱麻,添加新特性,修改旧特性,都变得越来越难以下手,因为很多地方都是牵一发而动全身,你改了这里,不知道哪里会冒出一堆bug。
因为意识到处处是地雷,新来的程序员轻易不敢动旧代码,每当要进行一项改动时,只敢小心翼翼的找到一处他认为最适宜的切入点,从那里开始插入他的新代码,结果就像在一个庞大身躯上又安装了一条新假肢,久而久之,这副躯体就变成了一头全身长满假肢的怪物,每条假肢上又接出若干条假肢,许多遥远假肢之间还常常连着一些电线,这些电线自然也是绞成一团……
这是一种非常自然的倾向,只要没有系统性的手段加以阻止,持续强力一种贯彻某种结构方案和设计原则,就必定会发生。
广而言之,任何紧耦合系统都是如此,这也是为何软件工程界如此强调松耦合,每个谈论这一话题的人都是三句不离解耦。
一个典型的紧耦合系统是生物的基因组,每个变异常会影响数千个性状,每个性状常受数千个基因的影响,真真是牵一发而动全身,也正因此,行为遗传学研究才如此困难,像亨廷顿舞蹈症这种单点突变性状太少了,不足以为该学科持续赢得声誉,大众更关心的那些性状,往往涉及上千基因,其中每个的贡献率都很低,需要使用高端统计工具才能从海量样本数据中捞出一点点线索,能捞出的往往也只是贡献率排名靠前的那几个(more...)
【2022-05-29】
@whigzhou: AI 的当前状况是,在它弄对的地方,可以对的很高级,而在它弄错的地方,往往错的很低级,
这其实是缺乏常识感的一种表现,类似情况在不同程度上在人类中也可以看到,比如常有一些领域顶尖专家,当他越出自己专业领域谈论其他事情时,往往表现的极度无知和愚蠢,
这个困难不容易克服,像人类这样层次丰富、面相多元的常识感是很难建立的,不仅需要一个完整的成长经历,一套良好的通识教育,还需要健全的动机与激励(more...)
【2021-04-18】
我发现有两个话题经常被搅合起来,不加区别的用AI来涵盖,一个是机器智能,一个是类人智能,机器智能在某些方面早就很强大了,早已远远超出肉人,包括记忆力,记忆容量,某些类型的运算速度,符号处理的精确性,能够驾驭的模型规模与复杂度,某些模式识别能力,某些推理能力,某些博弈能力……
可是,如果我们以*能够多么逼真的模仿人类智能*这个标准来评价,那么目前为止任何系统都还差的太远,
把这两个概念搅合起来的结果是,很多人会以前者的神速进步来预测后者的近期前景,或(more...)
【2020-08-15】
近些年人工智能有很大突破,于是很多人都在猜测哪些工作会被机器代替,可是这些分析都是纸上谈兵,没有真正去看实际情况,而Robin Hanson的研究发现,AI(至少在现阶段)其实和自动化的进展关系不大,在去年一篇论文里,他分析了过去20年美国832个工种的自动化深度,提取了153项特征,试图找出哪些特征最偏爱自动化,结果可能出乎大多数人的想象:自动化的最佳预测指标是『工作节奏是否由机器决定』。
依我看,之所以(more...)
【2016-06-02】
@_dailu_ 发表了博文《当人工智能谈论写作时,他们在谈些什么》(用深度学习理论去学习武侠小说、网络小说、唐诗宋词,乃至色情小说、政府报告,人工智能将写出什么?本文一步步揭示了人工智能学习写作的过程。)
@whigzhou: 给各种后现代哲学和社会批判类期刊投稿已经绰绰有余了
@whigzhou: 机器智能的进一步提升需要多感官来源,不同信息来源的系统相互之间提供反馈,并且基于这些系统在更高层次上产生新模型,此时所谓“真正的理解”便出现了
@whigzhou: 通俗而粗略(more...)
【2015-05-29】
@whigzhou: 花了两个多小时思考强人工智能引出的问题,得出的结论是:相信陪审团。然后发现,这不就是我去年得出过的结论嘛~哈。不过,其间经历的逻辑链条那是相当漫长,而且有了一些新想法,容我慢慢道来。
@whigzhou: 1)强人工智能很快(也就是几十年内)会出现;2)强AI的出现会让世界很不一样,但并不像有些人所想象的#那么#不一样;3)其实,“只有一小撮人(或组织)有能力做一些绝大多数人做不到、甚至完全无法理解的事情”——这早就不是什么新鲜事了。
@whigzhou: 4)需要区分三种能力:A)做某种事情的能力;B)理解某种事情、并知道怎么去做的能力;C)理解某种事态如何涉及自己的利益,并在此类事态出现时如何保护自己的能力
@whigzhou:(more...)
【2012-09-07】
@李淼在微博 Roger Penrose,一个数学家和物理学家,20多年前写出《皇帝的新脑》。他坚持大脑的某些过程是非可算的,所以机器人无法模仿。下面是这本书最后他对自由意志的看法,他仍然强调不可算性,但对自由意志存在与否持观望态度。 http://ww2.sinaimg.cn/bmiddle/6201f848jw1dwo0kl553ij.jpg
@tertio: 彭罗斯绝对坑爹
@whigzhou: Daniel Dennett在Darwin’s Dangerous Idea里用整个第15章回应了彭罗斯,我理解,彭的意思只是:某些想法(比如数学灵感)用机械式推理是推不出的,他据此否定强AI,这说法实在挺幼稚的,AI的推理可以是启发式的,而启发结构是可以突变的,其演变路径无须遵循机械推理规则
@whigzhou: 一个数学灵感完全可以对应启发结构的一次突变,这种突变可以是遵循自然律的,可计算的,但其表征的内容无须遵循机械推理规则,完全不矛盾
@whigzhou: 彭罗斯对强AI的否定和基于哥德尔定理的否(more...)