概率和统计历史
另一位使概率论成为数学分支的创始人是瑞士数学家雅各布·伯努利[1654-1705]。他的主要贡献是建立了概率论中的第一极限定理,我们称之为伯努利大数定理,即“在重复实验中,频率趋于更稳定。”这一定是他死后更合理的说法,即1713,发表在他的遗书《猜谜》中。
1730年,法国数学家德·莫伊弗尔出版了他的著作《分析杂文》,其中包括著名的德·莫伊弗尔-拉普拉斯定理。这就是概率论第二基本极限定理的原形。然后拉普拉斯在1812出版的《概率分析论》中明确定义了概率。此外,他还和几位数学家一起建立了“正态分布”和“最小二乘法”理论。概率论史上的另一个代表人物是法国的泊松。他将大数定律推广为伯努利形式,研究了一种新的分布,即泊松分布。在他们之后,概率论的重点是推广和完善伯努利大数定律和中心极限定理。
随着概率论发展到1901年,中心极限定理终于被严格证明,后数学家们正在用这个定理第一次科学地解释为什么实践中遇到的许多随机变量近似服从正态分布。20世纪30年代,人们开始研究随机过程,著名的马尔可夫过程理论建立于1931。苏联数学家安德雷·柯尔莫哥洛夫在概率论发展史上也做出了巨大贡献。近代出现了理论概率和应用概率的分支,概率论被应用到不同的范畴,从而发展出不同的学科。因此,现代概率论已经成为一个非常庞大的数学分支。
概率论的历史起源是研究事物发生的可能性,但概率论的最初起源与赌博有关。
16世纪,意大利学者卡尔达诺开始研究骰子等赌博中的一些简单问题。概率统计的一些概念和简单方法,早期主要用在赌博和人口统计模型中。
随着人类的社会实践,人们需要理解各种不确定现象中隐含的必然规律性,用数学方法研究各种结果的可能性,从而产生概率论,并逐渐发展成为一门严谨的学科。概率统计的方法日益渗透到各个领域,广泛应用于自然科学、经济学、医学、金融保险乃至人文科学。
发展随着18和19世纪科学的发展,人们注意到一些生物、物理和社会现象与机会游戏之间有一些相似之处,于是起源于机会游戏的概率论被应用于这些领域,这也极大地促进了概率论本身的发展。使概率论成为数学一个分支的创始人是瑞士数学家伯努利,他建立了概率论中的第一个极限定理,即伯努利大数定律,并阐述了一个事件发生的频率对其稳定的概率。
然后德莫维尔和拉普拉斯推导出了第二基本极限定理(中心极限定理)的原始形式。拉普拉斯在系统总结前人工作的基础上撰写了《分析的概率论》,给出了概率的明确的经典定义,并将更有力的分析工具引入概率论,将概率论推向了一个新的发展阶段。
19年底,俄罗斯数学家切比雪夫、马尔科夫、李亚普诺夫等人用解析方法建立了大数定律和中心极限定理的一般形式,科学地解释了为什么实践中遇到的许多随机变量近似服从正态分布。20世纪初,受物理学的影响,人们开始研究随机过程。
在这方面,安德雷·柯尔莫哥洛夫、维纳、马尔科夫、秦心、列维和费雷尔都做出了杰出的贡献。扩展数据概率论是研究随机现象定量规律的数学分支。
随机现象是相对于决定性现象而言的。某种结果在一定条件下必然发生的现象称为决定性现象。
比如在标准大气压下,纯水加热到100℃,水必然会沸腾。随机现象是指在基本条件相同的情况下,每次实验或观察之前,都不确定会出现什么样的结果,表现出偶然性。
例如,当你掷硬币时,可能有正面或反面。随机现象的实现及其观察称为随机实验。
随机测试的每一个可能的结果称为基本事件,一个基本事件或一组基本事件统称为随机事件,或简称为事件。典型的随机实验包括掷骰子、掷硬币、扑克牌和轮盘赌。
事件的概率是对事件发生可能性的一种度量。虽然随机试验中一个事件的发生是偶然的,但那些在相同条件下可以大量重复的随机试验往往表现出明显的数量规律。
参考资料:
百度百科-概率论。
概率的历史故事:
第一个系统计算概率的人是16世纪的卡尔达诺。这是记录在他的书里的。书中概率的内容是古尔德从拉丁文翻译过来的。
卡尔达诺的数学著作包含了许多给赌徒的建议。这些建议都写在短文里。然而,正是在帕斯卡和费马之间的一系列信件中,首次提出了对概率的系统研究。
这些通信最初是由帕斯卡提出的,他想问费马几个关于切瓦利尔·德·梅尔提出的问题。切瓦利尔·德·梅尔是一位著名的作家,路易十四宫廷中的杰出人物,也是一个狂热的赌徒。主要有两个问题:掷骰子的问题和比赛中奖金分配的问题。
概率是衡量偶然事件发生的可能性的数值。如果经过多次重复实验,出现几次事故(。以x为分母,y为分子,形成一个数值。
在很多实验中,p在某个值上是相对稳定的,p称为某个发生的概率。如果偶然事件的概率是通过长期观察或大量重复实验确定的,则是统计概率或经验概率。
扩展数据:
随着人们遇到的问题越来越复杂,等可能性逐渐暴露出它的弱点,尤其是对于同一事件,从不同的等可能性角度可以计算出不同的概率,从而产生各种悖论。
另一方面,随着经验的积累,人们逐渐认识到,在做大量重复实验时,随着实验次数的增加,一个事件的发生频率总是在一个固定的数附近摆动,表现出一定的稳定性。
R.von mises把这个定数定义为事件的概率,这就是概率的频率定义。理论上概率的频率定义不够严谨。
百度百科-概率
概率史概率史:第一个系统计算概率的人是16世纪的卡尔达诺。
这是记录在他的书里的。书中概率的内容是古尔德从拉丁文翻译过来的。
卡尔达诺的数学著作包含了许多给赌徒的建议。这些建议都写在短文里。
然而,正是在帕斯卡和费马之间的一系列信件中,首次提出了对概率的系统研究。这些通信最初是由帕斯卡提出的,他想问费马几个关于切瓦利尔·德·梅尔提出的问题。
切瓦利尔·德·梅尔是一位著名的作家,路易十四宫廷中的杰出人物,也是一个狂热的赌徒。主要有两个问题:掷骰子的问题和比赛中奖金分配的问题。
概率是衡量偶然事件发生的可能性的数值。如果经过多次重复实验,出现几次事故(。
以x为分母,y为分子,形成一个数值。在很多实验中,p在某个值上是相对稳定的,p称为某个发生的概率。
如果偶然事件的概率是通过长期观察或大量重复实验确定的,则是统计概率或经验概率。扩展数据:
随着人们遇到的问题越来越复杂,等可能性逐渐暴露出它的弱点,尤其是对于同一事件,从不同的等可能性角度可以计算出不同的概率,从而产生各种悖论。
另一方面,随着经验的积累,人们逐渐认识到,在做大量重复实验时,随着实验次数的增加,一个事件的发生频率总是在一个固定的数附近摆动,表现出一定的稳定性。R.von mises把这个定数定义为事件的概率,这就是概率的频率定义。
理论上概率的频率定义不够严谨。百度百科-概率。
跪求概率论发展史19到20世纪,在线等概率理论是研究随机现象定量规律的数学分支。
随机现象是指这样一种客观现象,当人们观察它时,其结果无法事先确定,而只能是许多可能结果中的一种。在自然界和人类社会中,存在着大量的随机现象。
例如,当你掷硬币时,可能有正面或反面;测量物体长度时,由于仪器和观察受环境影响,每次测量结果可能不同;同样工艺条件下生产的灯泡,寿命参差不齐;等一下。这些都是随机现象。
随机现象的实现和观察称为随机实验,随机实验的每一个可能结果称为一个基本事件。一个或一组基本事件也称为随机事件,或简称为事件。事件的概率是对事件发生可能性的一种度量。
虽然随机试验中一个事件的发生是偶然的,但那些在相同条件下可以大量重复的随机试验往往表现出明显的数量规律性。人们在长期的实践中逐渐认识到其中的一些规律,并在实践中加以运用。
比如,如果你连续多次投掷一枚均匀的硬币,那么正面出现的频率(出现次数与投掷次数之比)会随着投掷次数的增加而逐渐稳定在1/2。再如多次测量一个物体的长度,随着测量次数的增加,测量结果的平均值逐渐稳定在一个常数上,大部分测量值落在这个常数附近,离得越远越小,因此其分布呈现“中间大两端小”和某种程度的对称(即近似正态分布)。
大数定律和中心极限定理描述并演示了这些定律。在实践中,人们往往需要研究一个特定的随机现象在时间推进过程中的演化,而描述这种演化的就是概率论中的随机过程。
例如,电话交换机从某一时刻到其后的每一时刻收到的呼叫数是一个随机过程。再比如,液体中微小颗粒由于周围分子的随机碰撞而产生的不规则运动(布朗运动)也是随机过程。
研究随机过程的统计特征,计算与过程有关的某些事件的概率,特别是与过程的样本轨迹(即过程的一次性实现)有关的问题,是现代概率论的主要课题。总之,概率论与实践密切相关,广泛应用于自然科学、技术科学、社会科学、军事和工农业生产中。
概率论也是数理统计的理论基础。发展简史概率论历史悠久,其起源与博弈问题有关。
16世纪,一些意大利学者开始研究赌博中的一些简单问题,比如掷骰子,比如比较两个骰子的总点数为9或10的可能性。17世纪中叶,法国数学家b·帕斯卡、p·德·费马和荷兰数学家c·惠更斯基于排列组合的方法(见组合数学)研究了一些复杂的赌博问题,他们解决了“赌注的合理分配”(即“计分问题”,见概率)和“输钱”等问题。
它的方法不是直接计算赌徒获胜的概率,而是计算期望的赢值,由此引出了数学期望的概念(惠更斯明确提出)。使概率论成为数学分支的真正创始人是瑞士数学家雅各布·伯努利,他建立了概率论中的第一个极限定理,即伯努利大数定律。定理断言,如果事件A的概率p(a)=p(0概率),应该理解为事件发生几率的度量,即公理化的概率度量(详见下文)。
1716左右,A. de moivre用他关于N!的渐近公式(即所谓的斯特林公式)进一步证明了它渐近地服从正态分布(德国数学家C.F .高斯在1809年研究测量误差理论时重新推导了正态分布,所以也叫高斯分布)。棣莫佛公式的结果后来被法国数学家P-S拉普拉斯推广到一般p(0概率论)中第二个基本极限定理(见中心极限定理)的原始形式。
拉普拉斯对概率论的发展做出了巨大贡献。他在系统总结前人工作的基础上,撰写了《概率分析论》(发表于1812,后六次再版)。
在这本书中,他首次明确定义了概率的经典定义(通常称为经典概率,见概率),并引入了差分方程、生成函数等概率论中更为有力的分析工具,从而实现了从简单的组合计算向解析方法的过渡,将概率论推向了一个新的发展阶段。拉普拉斯非常重视概率论的实际应用,尤其对人口统计学感兴趣。
拉普拉斯之后,概率论的中心研究课题是推广和完善伯努利大数定律和德莫维尔-拉普拉斯极限定理。在这方面,俄罗斯数学家切比雪夫迈出了决定性的一步。1866年,他用自己创立的切比雪夫不等式建立了关于独立随机变量序列的大数定律。
次年,建立了各阶绝对矩一致有界的独立随机变量序列的中心极限定理。但其证明并不严格,后来由A.A. Markov在1898中补充。1901年α。м.李亚普诺夫利用特征函数法证明了广泛的独立随机变量序列的中心极限定理。
他还利用这个定理首次科学地解释了为什么实践中遇到的许多随机变量近似服从正态分布。在李亚普诺夫之后,α。я.秦心,阿尔法。η.安德雷·柯尔莫哥洛夫、p .列维和w .费勒对随机变量序列的极限理论做出了重要贡献。
到了20世纪30年代,关于独立随机变量序列的极限理论已经趋于完善。在这一时期,由于实际问题的需要,特别是物理学的需要,人们开始研究随机。
统计学的历史是怎样的?英语中使用“统计”一词。用作复数名词时,表示统计数据。当用作单数名词时,它表示统计学。
一般来说,统计一词包括三层含义:统计工作、统计数据和统计。他们之间有着密切的关系。统计数据是统计工作的结果,统计来自统计工作。
原始统计工作,即人们收集的原始形式的数据,已经有几千年的历史,而作为一门科学,则是从17世纪开始的。统计学家和统计学家在英语中是一样的,但统计学不是直接从统计工作的经验总结中产生的。
每一门科学都有其建立、发展和客观条件,统计科学是统计工作经验、社会经济理论和计量经济学方法综合、提炼和发展起来的边缘学科。1,统计学一词源于国情调查,原意为国情研究。
在17世纪,人们对英国的“政治算术”感兴趣。在1662年,John Graunt发表了他的第一份也是唯一一份手稿,《死亡率账单上的自然和政治观察》,其中分析了男孩和女孩的比例,并开发了保险公司现在使用的死亡率表。
18世纪中叶,德国学者戈特弗里德·阿肯沃尔创立了英语统计学。它来源于国家地位和德国的政治算术。它最早由约翰·辛克莱使用,并于1797年出现在《大英百科全书》中。(早期还有一个词“publicitics”和“statistics”争夺“统计学”的含义。如果它赢了,它现在就会流行起来。).
2.关于高斯分布或正态分布1733,De Moivre在分发给朋友的一篇文章中给出了正态曲线(这段历史一开始被忽略了),拉普拉斯提出正态曲线方程适合用来表示误差分布的概率。1809年,高斯发表了他关于天体理论的巨著。在这部著作第二卷第三节中,他推导出正态曲线适于表达误差定律,并承认了拉普拉斯更早的推导。
正态分布因高斯的工作而在19世纪上半叶得到推广,所以通常称为高斯分布。卡尔-皮尔逊指出,德莫佛是正态曲线的创始人,他第一个称之为正态分布,但人们仍然习惯称之为高斯分布。
3.关于最小二乘法1805,勒让德提出了最小二乘法,高斯声称他在1794中用过,并基于1809中误差的高斯分布假设给出了严格的推导。4.19世纪中期三个不同领域的其他重要发展都是基于随机性是自然界固有的这一前提。
阿道夫·凯特莱特(A. Quetlet,1869)用概率的概念来描述社会学和生物学现象(正态曲线从观察误差扩展到各种数据)。孟德尔(G.Mendel,1870)通过简单的随机结构,制定了他的遗传定律玻尔兹曼(Boltzmann,1870)。1859年,达尔文出版了《物种起源》。达尔文的工作对他的堂兄戈登爵士产生了深远的影响,戈登爵士比达尔文更懂数学。他开始使用概率工具分析生物现象,为生物统计学的基础做出了重要贡献(你可以称他为生物信息学之父)。戈登爵士是第一个使用相关和回归这两个重要概念的人,他也是中位数和百分位。
受戈登工作的影响,在伦敦大学学院工作的卡尔·皮尔逊开始将数学和概率论应用于达尔文的进化论,从而开创了现代统计学时代,赢得了统计学之父的称号。《Biometrika》第一期出版于1901 (Ka Pearson是创始人之一)。5.在早期的文献中,我们可以找到从总体中抽样的明确例子,但往往缺乏只能从总体中获得样本的认识。
从K. Pearson的时代到19世纪末,样本和总体之间的区别是众所周知的,但这种区别并不总是得到遵守。-1910尤尔在他的教科书中指出。
在1900的早期,这种区别变得更加明显,这一点特别被费希尔在1922中强调。费希尔在1922年发表的一篇重要论文《论理论统计学的数学基础》中,解释了总体和样本等概念的联系和区别,奠定了“理论统计学”的基础。
6.期望、标准差和方差期望是一个比概率更原始的概念。在十七世纪帕斯卡和费马时代,期望的概念已经得到了认可。皮尔逊首先定义了标准差的概念。
在1918中,Fisher引入了方差的概念。力学中的矩与统计学中的均值的相似性,早在概率论领域的工作者就已经注意到,K. Pearson在1893中首次使用了统计意义上的“矩”。
7.卡方统计卡方统计是Karl-Pearson提出的检验已知数据是否来自特定的随机模型,或者已知数据是否与给定的假设一致。卡方检验被认为是1900以来所有科学技术分支中的20项前沿发明之一,就连宿敌费希尔对它的评价也很高。
8.矩估计和最大似然卡-皮尔逊提出了一种利用矩估计参数的方法。Fisher从1912到1922提出了最大似然估计法。基于直觉,他提出了估计的一致性、有效性和充分性的概念。
9、概率的公理化1933、前苏联数学家科尔莫戈罗夫发表了概率论的基本概念,为概率论奠定了严格的数学基础。10,贝叶斯定理贝叶斯几乎没有对统计学做出什么贡献,但是贝叶斯的一篇文章却成为了贝叶斯学派统计学思维模式的焦点。本文发表于1763,作者理查德·普里(Richard Pri),贝氏好友,著名的人寿保险原理先驱。