按键盘上方向键 ← 或 → 可快速上下翻页,按键盘上的 Enter 键可回到本书目录页,按键盘上方向键 ↑ 可回到本页顶部!
————未阅读完?加入书签已便下次继续阅读!
4。我们所看到的并不一定是全部。历史把黑天鹅现象隐藏起来,使我们对这些事件发生的概率产生错误的观念:沉默的证据造成的认知扭曲。
5。我们“犯过滤性错误”:我们只关注一些有明确定义的不确定性现象,一些特定的黑天鹅现象(而不关注那些不太容易想到的)。
我会在接下来的第五章逐一讨论以上5个问题。然后,在第一部分的结尾,我会向你们展示它们其实是同一个问题。
《黑天鹅》第三部分第五章 不能只靠过去的经验判断
虽然证明行为在我们的习惯和传统智慧中根深蒂固,但它是一种危险的错误。
假设我告诉你,我有证据证明球星辛普森(20世纪90年代被控杀害妻子)不是罪犯。瞧,那天我和他一起吃早餐,他谁也没杀。我是认真的,我没有看到他杀任何人。这能够证明他的无辜吗?如果我这么说,你一定会叫来救护车甚至警察,因为你可能会想,我在交易室度过了太多的时间,或者我在咖啡馆坐得太久了,一直想这个黑天鹅问题,我的逻辑可能立即给社会带来危险,所以我本人需要立即被关起来。
如果我告诉你,我有一天在纽约的一处铁轨上打了个盹儿却没有被轧死,你可能会有同样的反应。我会说,嗨,看看我,我还活着,这就证明躺在铁轨上是没有危险的。但想一想,再看一下第四章的图4?。某个人观察了火鸡前1000天的生活(但没有看到第1001天令人震惊的事件),他会对你说,而且说的是对的,没有证据表明会发生大事,即黑天鹅事件。但是,你会把这一说法理解为证据表明黑天鹅事件不会发生,尤其在你不仔细考虑的时候。这两种说法之间的逻辑差距实际上是非常大的,但在你的思维里显得很小,所以二者可以相互替代。从现在起10天后,即使你还记得第一种说法,你的印象中也很有可能是第二种说法,不确切的说法,即证据表明没有黑天鹅现象。我把这种混淆称为回路错误(round…tripfallacy),因为两种说法是不可互换的。
把这两种说法相混淆犯了一个很小很小(但至关重要)的逻辑错误,但我们对微小的逻辑错误是没有免疫力的,教授和思想家也好不到哪里(复杂的方程式似乎无法与清晰的思维和谐共存)。除非我们的注意力非常集中,否则我们很可能无意识地简化问题,因为我们的思维在我们无意识的情况下习惯这么做。
这个问题值得我们更深入地探讨。
“我从未想说保守主义者通常很愚蠢,我想说的是愚蠢的人通常很保守。”约翰?斯图亚特?米尔(JohnStuartMill)曾抱怨说。这个问题由来已久:如果你告诉人们成功的秘诀并不总是技能,他们会以为你在说这不是靠技能,而是靠运气。
我们在日常生活中运用的推理机制不适用于复杂的环境,当一句话的措辞稍做修改时,其语义会发生很大变化。想一想,在原始环境里,“大部分杀手是野生动物”与“大部分野生动物是杀手”这两种说法之间的差异是没什么影响的。虽然混淆二者是一个错误,但几乎没什么影响。我们的统计直觉还没有发展出认为二者差异很大的思维习惯。
领域特殊性
无法自动把知识从一种情况转化为另一种情况,或者从理论转化为实际的状态,是人类本性中令人困扰的特性。让我们称它为行为反应的“领域特殊性”。领域特殊性的意思是,我们的行为反应、思维模式和直觉取决于事物的背景,进化心理学家称之为事物或事件的“领域”。教室是一种领域,生活也是。我们对一则信息的反应不是根据它的逻辑特性,而是根据它的环境,以及它在我们的社会情绪系统中的位置。在教室中以某种角度理解的逻辑问题在日常生活中可能受到不同的对待。实际上,它们在日常生活中确实受到了不同对待。
知识即使是准确的,也不总是产生适当的行为,因为我们习惯忘记我们所知道的,或者忘记如何正确对待知识,即使我们是专家。读者已经看到了,统计学家习惯把脑子留在教室里,一旦他们来到大街上,就会犯最微小的推断错误。1971年,心理学家丹尼?卡尼曼(DannyKahneman)和阿莫斯?特沃斯基(AmosTversky)不断向统计学教授提出不像统计学问题的统计学问题。其中有一个类似下面的问题(为了表述清楚,我改变了原题):假设你生活的城市有两家医院,一家大,一家小。某一天,其中一家医院出生的婴儿中60%是男孩。这有可能是哪家医院?许多统计学家的回答(在闲谈中)相当于犯了选择大医院的错误,而实际上统计学的基础就是大样本更为稳定,对长期平均值(在这个例子里是每种性别各50%的比例)的偏离比小样本更小。这些统计学家连自己的考试都会不及格。在我做数理专家的日子里,我遇见过数百次忘记自己是统计学家的统计学家犯这类严重错误。
再看一个我们在日常生活中犯可笑的领域特殊性错误的例子。让我们来到豪华的纽约锐步体育俱乐部,看一看多少人乘手扶电梯上了几层楼之后,径直奔往台阶式健身器。
我们在推断和行为反应上的领域特殊性表现是双向的:有些问题我们能够在实际应用中理解,却不能在课本中理解;有些问题我们更容易从课本中理解,却不能在实际应用中理解。人们能够不费力地在社会环境下解决一个问题,但在它以抽象的逻辑问题形式出现时不知所措。我们习惯在不同的情况下使用不同的思维机制,或者模块:我们的大脑缺少一台全能中央计算机,对所有可能的情况制定和应用同样的逻辑规则。
我已经说过,我们可能在现实中而不是在教室中犯逻辑错误。这种不对称在对癌症的诊断中得到最佳体现。我们看一看那些为病人检查癌症征兆的医生,检查一般在病人想知道他们是已痊愈还是会“复发”的时候做。(实际上,复发是一种错误的说法,它只是表明治疗并没有杀死全部癌细胞,而那些未被发现的坏细胞开始以失控的方式增长。)在现有技术状况下,不可能对病人的每一个细胞进行检查来确定它们是否都是正常的,所以医生通过尽量精确地扫描病人的身体来选取样本,然后对没有检查的部分做出假设。在一次常规癌症检查之后,医生对我说:“别担心,我们有证据表明你已经痊愈了。”这让我大吃一惊。“为什么?”我问。回答是:“证据显示没有癌症。”“你怎么知道?”我问。他回答:“扫描的结果是阴性。”他居然到处说自己是医生!
医学上有一个首字母缩写词语NED,意思是无疾病征兆(NoEvidenceofDisease),但并不存在一个END可以证明无疾病(EvidenceofNoDisease)。我与许多医生讨论这一问题的经验证明,即使是那些发表研究论文的医生,都有许多犯了回路错误。
20世纪60年代,傲慢的医生把母乳看做某种低级的东西,似乎他们能够在实验室里复制,却没有认识到母乳可能包含超过他们科学理解能力的有用成分,他们只不过是混淆了“无证据表明母乳的优势”与“证据表明母乳无优势”。(这是又一种柏拉图化的行为,认为当我们能够使用奶瓶时,采用母乳喂养是“毫无道理的”。)许多人为这种无知的推理付出代价:那些婴儿时期没有得到母乳喂养的人面临更高的健康问题风险,包括更可能罹患某些癌症,因为在母乳中一定还有一些我们没有找到的营养成分。而且,采用母乳喂养的母亲们获得的好处也被忽视了,比如降低了患乳腺癌的风险。
扁桃体问题也是一样:切除扁桃体可能导致更高的喉癌风险,但数十年来,医生们从不怀疑这一“无用”的器官可能有着他们没有发现的功能。还有水果和蔬菜中发现的膳食纤维,20世纪60年代的医生认为这些膳食纤维是没有用处的,因为他们没有发现食用这种纤维的必要性,于是他们导致了一代人的营养不良。最后人们发现,纤维能够延缓糖类在血液中的吸收,还能清扫肠道癌症前期细胞。实际上,由于这类简单的推理混淆错误,医学在历史上造成了大量灾难。
我并不是说医生不应该有他们的信念,只是应该避免某些固定的、封闭的信念。医学在进步,但许多其他类型的知识没有改善。
证据
由于一种我称为无知经验主义的思维方式,我们天生习惯于寻找能够证明我们的理论以及我们对世界的理解的例子,这些例子总是很容易找到。唉,有了工具和傻子,任何东西都是容易找到的。你可以把能证实你的理论的过去的事例当做证据。例如,一名外交官会向你展示他的“成就”,而不是他没能做到的事。数学家会努力让你相信他们的科学对社会有用,方法是指出那些起作用的事例,而不是白费时间的事例,或者更糟的情况—那些由于高雅的数学理论的非经验特性而给社会造成严重成本浪费的数不清的数学应用事例。
即使在检验一项假设时,我们也习惯于寻找证明假设正确的事例。当然,我们很容易找到证据—我们只需要去找,或者让研究者为我们找。我可以为任何事情找到证据,正如富有经验的伦敦出租车司机能够找到拥堵的地方以增加车费一样。
有人更进一步给了我一些我们成功预测事件的例子。确实有一些,比如登陆月球和21世纪的经济增长率。人们还能够找到本书观点的许多“反证据”,最好的例子就是报纸非常擅长预测电影和剧院的演出时间表。瞧,我昨天预测太阳今天会升起,而它真的升起了!
消极经验主义
不过,有办法解决这种无知的经验主义。我的意思是,一系列证实性事实未必是证据。看见白天鹅不能证明黑天鹅不存在。但有一个例外:我知道什么论点是错的,但不一定知道什么论点是正确的。如果我看见一只黑天鹅,我可以确定并非所有天鹅都是白的!如果我看见有人杀人,我可以非常肯定他是罪犯。如果我没有看见他杀人,我不能肯定他是无辜的。同样的道理适用于癌症检查:发现一处恶性肿瘤证明你有癌症,但没有发现肿瘤不能让你得出没有癌症的确定结论。
我们可以通过负面例子而不是正面证据接近真相!对观察到的事实制定通用法则是具有误导性的。与传统智慧相反,我们的知识并不能通过一系列证实性的观察结果得到增加,就像火鸡的例子一样。但有一些事情我持怀疑态度,另一些事情我却可以确定。这使得观察结果具有不对称性。实际情况并不比这更复杂。
这种不对称性具有很强的实际性。它告诉我们不必成为彻底的怀疑主义者,只需要成为半怀疑主义者。实际生活的微妙之处在于,在决策时,你只需要对事情的一个方面感兴趣:如果你需要确定病人是否有癌症,而不是他是否健康,你可以满足于否定性推理,因为它能够向你提供你所需要的确定信息。所以,我们能够从数据获得许多信息,但不像我们期望的那样多。有时大量信息会变得毫无意义,而少量信息却具有非凡的意义。确实,1000天并不能证明你是正确的,但1天就能证明你是错误的。
提出这种单边半怀疑主义观点的是卡尔?波普尔(KarlPopper)。在我写下这些文字时,他的一幅黑白照片就挂在我书房的墙上。这是我在慕尼黑从散文家约恒?韦格纳(JochenWegner)那里得到的礼物,同我一样,韦格纳也认为波普尔是现代哲学家中“代表一切”的人物—嗯,几乎代表了一切。他的著作是为我们写的,不是为其他哲学家写的。“我们”是指现实决策者,他们相信自己受不确定性制约,并且认为弄懂如何在不完全信息条件下采取行动是人类最高和最紧迫的事业。
波普尔针对这种不对称性提出了一项重大理论,其基础是一种叫做“证伪”的方法(证明某事为错误),旨在区分科学与伪科学。人们立即开始针对这种方法争论不休,尽管它并不是波普尔思想最有趣和最具原创性的部分。这种关于知识不对称性的思想非常受实践者的喜爱,因为他们对它的感受很明显,它就体现在他们的工作方法中。哲学家查尔斯?桑德斯?皮尔斯(CharlesSandersPeirce)像有些艺术家一样,在死后才获得敬重。
当然,“证伪”,也就是确定地指出某事是错的没那么容易。测试方法的缺陷可能导致错误的“错误”结论。发现癌细胞的医生可能使用了有缺陷的仪器,导致视觉错误,或者他可能是一个伪装成医生的使用钟形曲线的经济学家。目击犯罪的证人可能