<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	
	>
<channel>
	<title>《又一篇采访问答》的评论</title>
	<atom:link href="https://headsalon.org/archives/5783.html/feed" rel="self" type="application/rss+xml" />
	<link>https://headsalon.org/archives/5783.html</link>
	<description>A Salon for Heads, No Sofa for Ass</description>
	<lastBuildDate>Fri, 23 Jan 2026 05:27:46 +0000</lastBuildDate>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
	<generator>https://wordpress.org/?v=4.2.38</generator>
	<item>
		<title>作者：辉格</title>
		<link>https://headsalon.org/archives/5783.html#comment-594266</link>
		<dc:creator><![CDATA[辉格]]></dc:creator>
		<pubDate>Tue, 25 Aug 2015 16:25:53 +0000</pubDate>
		<guid isPermaLink="false">http://headsalon.org/?p=5783#comment-594266</guid>
		<description><![CDATA[2）“软件层面的情况全靠猜”——肯定不是，每个假说都可以用实验来评估起可能性，不可评估的就该直接抛弃。]]></description>
		<content:encoded><![CDATA[<p>2）“软件层面的情况全靠猜”——肯定不是，每个假说都可以用实验来评估起可能性，不可评估的就该直接抛弃。</p>
]]></content:encoded>
	</item>
	<item>
		<title>作者：辉格</title>
		<link>https://headsalon.org/archives/5783.html#comment-594265</link>
		<dc:creator><![CDATA[辉格]]></dc:creator>
		<pubDate>Tue, 25 Aug 2015 16:24:49 +0000</pubDate>
		<guid isPermaLink="false">http://headsalon.org/?p=5783#comment-594265</guid>
		<description><![CDATA[1）“似乎还不如进化出一个类似于操作系统进程调度程序的可能性高”——不一定，要看基础是什么，即，在那之前已经有了什么。]]></description>
		<content:encoded><![CDATA[<p>1）“似乎还不如进化出一个类似于操作系统进程调度程序的可能性高”——不一定，要看基础是什么，即，在那之前已经有了什么。</p>
]]></content:encoded>
	</item>
	<item>
		<title>作者：bear</title>
		<link>https://headsalon.org/archives/5783.html#comment-591802</link>
		<dc:creator><![CDATA[bear]]></dc:creator>
		<pubDate>Wed, 12 Aug 2015 12:47:45 +0000</pubDate>
		<guid isPermaLink="false">http://headsalon.org/?p=5783#comment-591802</guid>
		<description><![CDATA[补充一下（顺便试试看还能不能发言），由于对“连贯思考”解释的不满意，我（或许很不严谨地）试图加入一个调度模块来替换抢占式算法。它绝不是笛卡尔小人的翻版，相反，它应该是一个相对简单的调度算法，比抢占式复杂，但肯定比丹内特模型中的虚拟机简单得多。这种复杂度的排序至少很符合程序员的直觉。甚至是斯金纳的造物也可以有一个这样的模块，但其算法比人类的简单得多。人类思维的连贯性就是由调度模块保证的。
这就好比，人类的思维是一期访谈节目，调度模块是主持人，节目内容还是由原来的小人嘉宾们提供。]]></description>
		<content:encoded><![CDATA[<p>补充一下（顺便试试看还能不能发言），由于对“连贯思考”解释的不满意，我（或许很不严谨地）试图加入一个调度模块来替换抢占式算法。它绝不是笛卡尔小人的翻版，相反，它应该是一个相对简单的调度算法，比抢占式复杂，但肯定比丹内特模型中的虚拟机简单得多。这种复杂度的排序至少很符合程序员的直觉。甚至是斯金纳的造物也可以有一个这样的模块，但其算法比人类的简单得多。人类思维的连贯性就是由调度模块保证的。<br />
这就好比，人类的思维是一期访谈节目，调度模块是主持人，节目内容还是由原来的小人嘉宾们提供。</p>
]]></content:encoded>
	</item>
	<item>
		<title>作者：bear</title>
		<link>https://headsalon.org/archives/5783.html#comment-591792</link>
		<dc:creator><![CDATA[bear]]></dc:creator>
		<pubDate>Wed, 12 Aug 2015 11:27:16 +0000</pubDate>
		<guid isPermaLink="false">http://headsalon.org/?p=5783#comment-591792</guid>
		<description><![CDATA[难道现在又好用了？]]></description>
		<content:encoded><![CDATA[<p>难道现在又好用了？</p>
]]></content:encoded>
	</item>
	<item>
		<title>作者：bear_bear</title>
		<link>https://headsalon.org/archives/5783.html#comment-591791</link>
		<dc:creator><![CDATA[bear_bear]]></dc:creator>
		<pubDate>Wed, 12 Aug 2015 11:26:41 +0000</pubDate>
		<guid isPermaLink="false">http://headsalon.org/?p=5783#comment-591791</guid>
		<description><![CDATA[测试下能不能留言]]></description>
		<content:encoded><![CDATA[<p>测试下能不能留言</p>
]]></content:encoded>
	</item>
	<item>
		<title>作者：bear</title>
		<link>https://headsalon.org/archives/5783.html#comment-591662</link>
		<dc:creator><![CDATA[bear]]></dc:creator>
		<pubDate>Tue, 11 Aug 2015 16:03:05 +0000</pubDate>
		<guid isPermaLink="false">http://headsalon.org/?p=5783#comment-591662</guid>
		<description><![CDATA[运行大量可以互相干预的软件最终达到人类思维这种程度的协调，这种事出现的概率似乎还不如进化出一个类似于操作系统进程调度程序的可能性高。软件层面的情况全靠猜，丹内特提出多重草稿模型是因为（如果我没理解错的话）它的架构最简单。问题是，用这种架构实现人类思维这种级别的软件难度太高了。当然，进化的实现能力一直比工程师强得多，可为什么不能进化出一个进程调度程序呢？

很明显，连贯思考时的心理状态不同于日常模式（比如码农几乎都有过不知不觉写了几个小时代码的体验），所以我觉得应该要有软件层面的解释，而不是简单退回到硬件（神经）上找答案。而且在丹内特的模型中，也没有哪些神经是能主导调度的。不知道丹内特自己有没有讨论过类似的问题。]]></description>
		<content:encoded><![CDATA[<p>运行大量可以互相干预的软件最终达到人类思维这种程度的协调，这种事出现的概率似乎还不如进化出一个类似于操作系统进程调度程序的可能性高。软件层面的情况全靠猜，丹内特提出多重草稿模型是因为（如果我没理解错的话）它的架构最简单。问题是，用这种架构实现人类思维这种级别的软件难度太高了。当然，进化的实现能力一直比工程师强得多，可为什么不能进化出一个进程调度程序呢？</p>
<p>很明显，连贯思考时的心理状态不同于日常模式（比如码农几乎都有过不知不觉写了几个小时代码的体验），所以我觉得应该要有软件层面的解释，而不是简单退回到硬件（神经）上找答案。而且在丹内特的模型中，也没有哪些神经是能主导调度的。不知道丹内特自己有没有讨论过类似的问题。</p>
]]></content:encoded>
	</item>
	<item>
		<title>作者：辉格</title>
		<link>https://headsalon.org/archives/5783.html#comment-591646</link>
		<dc:creator><![CDATA[辉格]]></dc:creator>
		<pubDate>Tue, 11 Aug 2015 13:31:00 +0000</pubDate>
		<guid isPermaLink="false">http://headsalon.org/?p=5783#comment-591646</guid>
		<description><![CDATA[1）多重草稿模型的重点就是不存在一个专门的“斟酌模块”；

2）抢占式调度确是关键，但更重要的是：抢占控制权的各模块不是相互独立的、无关的，而是以相互抑制和调控的方式开展争夺，其中某些模块会对系统的其余部分进行表征和模拟，否则当然就跟低级动物没啥区别了；这就好比，系统中运行着很多软件，其中一些构建了一部虚拟机，对模拟另一些模块的行为，预测其行动，并在必要时加以干预，于是就有了自我意识；

3）某些连贯思考过程，之所以显得连贯，或许（这一点我不是很确定）是因为，执行它的那个模块的每一步动作，为它在下一刻仍然占据控制权创造了必要的神经条件（比如输出了某个刺激）；]]></description>
		<content:encoded><![CDATA[<p>1）多重草稿模型的重点就是不存在一个专门的“斟酌模块”；</p>
<p>2）抢占式调度确是关键，但更重要的是：抢占控制权的各模块不是相互独立的、无关的，而是以相互抑制和调控的方式开展争夺，其中某些模块会对系统的其余部分进行表征和模拟，否则当然就跟低级动物没啥区别了；这就好比，系统中运行着很多软件，其中一些构建了一部虚拟机，对模拟另一些模块的行为，预测其行动，并在必要时加以干预，于是就有了自我意识；</p>
<p>3）某些连贯思考过程，之所以显得连贯，或许（这一点我不是很确定）是因为，执行它的那个模块的每一步动作，为它在下一刻仍然占据控制权创造了必要的神经条件（比如输出了某个刺激）；</p>
]]></content:encoded>
	</item>
	<item>
		<title>作者：bear</title>
		<link>https://headsalon.org/archives/5783.html#comment-591619</link>
		<dc:creator><![CDATA[bear]]></dc:creator>
		<pubDate>Tue, 11 Aug 2015 08:44:35 +0000</pubDate>
		<guid isPermaLink="false">http://headsalon.org/?p=5783#comment-591619</guid>
		<description><![CDATA[在看后记的时候，我又想起了当初看《意识的解释》时对多重草稿模型的一个困惑，想请教一下辉总的看法。

我们的行为其实有两种模式（当然这种两分法是不精确的，中间还有介于两者之间的一串模式）：
1.下意识的反应
2.经过反复斟酌的决定，有时候还会借助外力推演，比如纸笔和棋盘。

按照我的理解，多重草稿模型其实就是一种抢占式的调度模式。根据后记的描述，我觉得辉总也是这么认为的。这种调度方式可以很好地解释第一种模式，但对于第二种似乎有点不适合。

在多重草稿模型的前提下，我只能想到两种方式理解第二种模式：
1）把“斟酌模块”作为一个整体，当它抢占到资源的时候就会触发斟酌的行为。但是，这个“斟酌模块”显然是意识的重要--甚至是主要部分，没道理把它扔到一个黑盒里不解释。
2）把“斟酌”时的每一个步骤作为一个独立部分，每一步推演就是触发了一次抢占调度，而整个“斟酌”过程就是一连串调度的有序集合。我最初是认可这种想法的，但后来越想越觉得这个解释有问题，感觉它漏掉了一些重要的信息。在这种解释下，人的一次思维演算和一只螃蟹对外界做的一连串反应没有任何本质区别--都是一连串抢占调度的结果。但就意识这个问题而言，更需要解释的是：这一连串的抢占调度怎么会形成思维的？螃蟹的反应到人类的思维之间缺少的部分究竟是什么？我在丹内特的理论中找到的答案是：1）硬件升级（大脑和记忆）；2）操作系统升级（语言）。问题是这些升级就能够填满这空缺吗？貌似很难说，毕竟少了应用软件的部分。]]></description>
		<content:encoded><![CDATA[<p>在看后记的时候，我又想起了当初看《意识的解释》时对多重草稿模型的一个困惑，想请教一下辉总的看法。</p>
<p>我们的行为其实有两种模式（当然这种两分法是不精确的，中间还有介于两者之间的一串模式）：<br />
1.下意识的反应<br />
2.经过反复斟酌的决定，有时候还会借助外力推演，比如纸笔和棋盘。</p>
<p>按照我的理解，多重草稿模型其实就是一种抢占式的调度模式。根据后记的描述，我觉得辉总也是这么认为的。这种调度方式可以很好地解释第一种模式，但对于第二种似乎有点不适合。</p>
<p>在多重草稿模型的前提下，我只能想到两种方式理解第二种模式：<br />
1）把“斟酌模块”作为一个整体，当它抢占到资源的时候就会触发斟酌的行为。但是，这个“斟酌模块”显然是意识的重要&#8211;甚至是主要部分，没道理把它扔到一个黑盒里不解释。<br />
2）把“斟酌”时的每一个步骤作为一个独立部分，每一步推演就是触发了一次抢占调度，而整个“斟酌”过程就是一连串调度的有序集合。我最初是认可这种想法的，但后来越想越觉得这个解释有问题，感觉它漏掉了一些重要的信息。在这种解释下，人的一次思维演算和一只螃蟹对外界做的一连串反应没有任何本质区别&#8211;都是一连串抢占调度的结果。但就意识这个问题而言，更需要解释的是：这一连串的抢占调度怎么会形成思维的？螃蟹的反应到人类的思维之间缺少的部分究竟是什么？我在丹内特的理论中找到的答案是：1）硬件升级（大脑和记忆）；2）操作系统升级（语言）。问题是这些升级就能够填满这空缺吗？貌似很难说，毕竟少了应用软件的部分。</p>
]]></content:encoded>
	</item>
</channel>
</rss>
