提升认知:启发性的效应和原理
约 1547 字大约 5 分钟
2025-12-18
查理·芒格曾提出过“普世智慧”的概念,主张通过构建一个“思维模型格栅”来理解世界。以下是值得每个人了解,各学科中对我们最有启发、能显著提升认知水平的效应与原理:
心理学与认知科学
自证预言(Self-fulfilling Prophecy)
又称 自我实现预言,人们对某个情境的预期或信念,会无意识地影响他们的行为,最终导致预期结果成真。简单来说,你相信什么,就可能让这件事真的发生,即使最初这个信念可能并不准确。
皮格马利翁效应(Pygmalion Effect)或 罗森塔尔效应(Rosenthal Effect)
赞美、信任和期待具有一种能量,能够改变人的行为,最终使预言成真。强调他人(如老师、父母、上司)的期望对受众(学生、子女、下属)产生的积极推动作用。
达克效应 (D-K Effect)
能力欠缺的人往往会产生一种虚假的优越感,错误地认为自己比真实情况更聪明。
请保持谦逊,警惕“无知产出的自信”。
幸存者偏差 (Survivorship Bias)
我们往往只看到经过某种筛选过程而留存下来的结果(如成功的创业者),却忽略了那些失败的大多数。
认知失调 (Cognitive Dissonance)
当人的行为与自我观点产生矛盾时,会感到不适并倾向于为行为寻找借口。理解它能帮你减少自我欺骗。
哲学与逻辑学
第一性原理(First Principles Thinking)
回归事物的本源,从最基础的真理出发,而不是通过“类比”来思考。
相较于比较思维(analogy)参考别人或过去是怎么做的,第一性原理更强调底层逻辑、基本的物理定律。
幸存者谬误 (The Gambler's Fallacy)
错误地认为随机事件发生的频率在短期内会互相补偿。比如赌徒认为“已经开了十把大,下一把必定是小”。
社会学与系统思维
马太效应 (Matthew Effect)
强者愈强,弱者愈弱。在资源分配、名声累积中,初始优势会被不断放大。
帕累托法则 (二八定律,80/20法则,Pareto Principle)
系统中约 80% 的结果往往源于 20% 的原因。提示将精力聚焦在关键少数上。
破窗效应 (Broken Windows Theory)
一个坏榜样如果没有被及时纠正,会诱发更多人效仿。强调环境维护和早期干预的重要性。
墨菲定律(Murphy's Law)
凡是可能出错的事,必定会出错。(Anything that can go wrong will go wrong.)
你排的队伍永远是动得最慢的,掉落的面包总是涂有黄油那一面着地,平时好好的电脑在演示时蓝屏……
墨菲定律不是为了让你害怕失败,而是让你通过承认可能失败,从而做得更严密。
经济学与金融学
机会成本 (Opportunity Cost)
为了得到某种东西而放弃的另一种东西的最大价值。决策的核心不仅要看得到了什么,更要看放弃了什么。
沉默成本(Sunk Cost)
指已经发生且无法收回的投入(如金钱、时间、精力等)。理性的决策应该只看未来,不看过去,沉默成本不应该参与决策。
如果心疼已经付出的成本,而选择继续投入,就会陷入沉没成本谬误。
复利效应 (Compound Interest)
只要方向正确且时间足够长,微小的增长也会带来爆炸性的结果。爱因斯坦称之为“世界第八大奇迹”。
边际效用递减 (Diminishing Marginal Utility)
随着消费某种物品的数量增加,每一单位新增消费带来的满足感会下降。它解释了为什么“第一口蛋糕最甜”。
物理学与自然科学
蝴蝶效应(Butterfly Effect)
在一个复杂动态系统中,初始条件微小的、看似不相关的变化,经过不断放大,可能引发系统长期且巨大的连锁反应,导致结果出现巨大差异。
熵增定律(热力学第二定律,second law of thermodynamics)
在一个孤立系统中,总的混乱度(熵)会自发地增加或保持不变,永远不会减少,系统总是趋向于从有序走向无序,并最终达到热寂状态。
均值回归(Regression to the Mean)
极端的变化之后往往跟着平庸的表现。如果一个孩子考了满分,下次大概率会退步。说明事物是会波动的。
海森堡不确定性原理(Uncertainty principle)
这是量子力学的核心概念。在微观世界,你无法同时知道粒子的位置和速度。
计算机科学
摩尔定律(Moore's Law)
在相同成本下,集成电路上的晶体管数量大约每18至24个月会翻一倍,这意味着芯片性能随之翻倍,而成本相应下降。这不是自然科学定律,而是一个指导行业进步的预测。
缩放定律(scaling law)
也称规模定律,是机器学习(尤其是深度学习)中观察到的一种经验规律。描述了模型性能(如准确率、生成质量等)与模型规模(参数量)、训练数据量和计算资源(如算力)之间的数学关系。简单来说,它回答了一个关键问题:当模型、数据和算力按比例增大时,性能会如何变化?总体上,性能会随着这些参数的增加而稳定、可预测地提升,甚至效率更高,但边际收益递减。
图灵完备 (Turing Completeness)
如果一个系统或语言是“图灵完备”的,那么它在理论上能够执行任何可计算的任务。
这说明只要逻辑足够,简单的规则可以模拟极其复杂的系统。
