请关闭浏览器的阅读/畅读/小说模式并且关闭广告屏蔽过滤功能,避免出现内容无法显示或者段落错乱。
近来,有人对拉普拉斯妖分析数据的能力提出一个极限。这个极限是由宇宙最大熵、光速、以及将信息传送通过一个普朗克长度所需要的时间得来的,约为1012o比特。在宇宙开始以来所经历过的时间以内不可能处理比这个量更多的数据。
量子力学不可逆性:拉普拉斯妖的决定论规范假设,与主张不确定性的哥本哈根解释互不相容。量子力学领域对拉普拉斯妖的相关解释争议颇大,多世界解释、德布罗意-玻姆理论等观点的支持者(诸多物理学家)均持相反意见。
混沌理论:混沌理论被认为与拉普拉斯妖存在矛盾:混沌理论指出确定性系统可能呈现不可预测行为(如蝴蝶效应,初始条件微小变化可引发重大差异),这解释了现实中的不可预测性,但该理论对拉普拉斯妖的适用性存疑——拉普拉斯妖的假设前提是已知系统所有细节,不存在初始条件变化,而混沌理论仅适用于系统知识不完善的情况,其导致混沌的可变性,与拉普拉斯妖所假设的世界知识完美性(不变性)相互冲突。
对角论证法:美国物理学家、计算机科学家大卫·希尔顿·沃尔珀特采用对角论证法质疑拉普拉斯妖,他将拉普拉斯妖假设为计算设备,进而证明不存在能完全预测彼此的两个此类设备。
麦克斯韦妖(Maxwells deon),是热力学中的一个假想物,由麦克斯韦为探讨热力学第二定律的一个可能反例而提出。
1871年,麦克斯韦在《热的理论》一书中,提出了一个假设:在一个充满空气并且温度均一的容器中,有一堵带有活门的隔墙,把容器分成为A、B两部分。这扇小门由一个小妖把守,其中某些气体分子,一定要比其余分子运动得快些。这个小妖能有选择地打开活门,它只允许高速度运动的分子由A室进入B室,低速运动的分子由B室进入A室,而不允许相反情况。小妖就能在不消耗功的情况下,提高B室的温度,降低A室的温度。这样设想没有违反热力学第一定律,然而却和热力学第二定律发生了矛盾。这就是麦克斯韦的设想。1895年,波尔兹曼从统计物理学的角度提出了一种微观起伏理论。1981年,Be的论文表明,麦克斯韦妖控制“门”使分子从一格进入另一格中的耗散过程,并不是发生在衡量过程中。1948年,贝尔实验室的电气工程师香农发表关于信息的一系列论文,正式提出了“信息论”。1949年,法国物理学家L.布里渊在其《生命、热力学和控制论》中指明麦克斯韦妖能够长存的系统条件在于系统本身必须是开放的,并在1956年出版《科学与信息论》中把热力学熵与信息熵联系起来,使热力学中“麦克斯韦妖”佯谬得到满意解释。
麦克斯韦妖虽然不存在,但麦克斯韦设想涉及到信息的作用、以及信息和能量的关系。此争论促进了信息论的建立和发展,加深了对热力学第二定律的认识。
麦克斯韦妖(Maxwells deon),是在物理学中假想的妖,能探测并控制单个分子的运动,于1871年由英国物理学家詹姆斯·麦克斯韦为了说明违反热力学第二定律的可能性而设想的。
当时麦克斯韦意识到自然界存在着与熵增加相拮抗的能量控制机制。但他无法清晰地说明这种机制。他只能诙谐地假定一种“妖”,能够按照某种秩序和规则把作随机热运动的微粒分配到一定的相格里。麦克斯韦妖是耗散结构的一个雏形。
可以简单的这样描述,一个绝热容器被分成相等的两格,中间是由“妖”控制的一扇小“门”,容器中的空气分子作无规则热运动时会向门上撞击,“门”可以选择性的将速度较快的分子放入一格,而较慢的分子放入另一格,这样,其中的一格就会比另外一格温度高,可以利用此温差,驱动热机做功。这是第二类永动机的一个范例。
在1981年,Be的论文表明,麦克斯韦妖控制“门”使分子从一格进入另一格中的耗散过程,并不是发生在衡量过程中,而是发生在妖的对上个分子判断“记忆”的去除过程,且这个过程是逻辑不可逆的。
在热力学第一定律问世后,人们认识到能量是不能被凭空制造出来的,于是有人提出,设计一类装置,从海洋、大气乃至宇宙中吸取热能,并将这些热能作为驱动永动机转动和功输出的源头,这就是第二类永动机。
历史上首个成型的第二类永动机装置是1881年美国人约翰·嘎姆吉为美国海军设计的零发动机,这一装置利用海水的热量将液氨汽化,推动机械运转。但是这一装置无法持续运转,因为汽化后的液氨在没有低温热源存在的条件下无法重新液化,因而不能完成循环。
19世纪20年代法国工程师尼古拉·卡诺设计了一种工作于两个热源之间的理想热机——卡诺热机,即经典的“卡诺循环”。卡诺热机从理论上证明了热机的工作效率与两个热源的温差相关。德国人鲁道夫·克劳修斯和英国人开尔文在研究了卡诺循环和热力学第一定律后,提出了热力学第二定律。这一定律指出:不可能从单一热源吸取热量,使之完全变为有用功而不产生其他影响。热力学第二定律的提出宣判了第二类永动机的死刑,而这一定律的表述方式之一就是:第二类永动机不可能实现。
在信息论中,熵(英语:entropy)是接收的每条消息中包含的信息的平均量,又被称为信息熵、信源熵、平均自信息量。这里,“消息”代表来自分布或数据流中的事件、样本或特征。(熵最好理解为不确定性的量度而不是确定性的量度,因为越随机的信源的熵越大。)来自信源的另一个特征是样本的概率分布。这里的想法是,比较不可能发生的事情,当它发生了,会提供更多的信息。由于一些其他的原因,把信息(熵)定义为概率分布的对数的相反数是有道理的。事件的概率分布和每个事件的信息量构成了一个随机变量,这个随机变量的均值(即期望)就是这个分布产生的信息量的平均值(即熵)。熵的单位通常为比特,但也用Sh、nat、Hart计量,取决于定义用到对数的底。