目录介绍:
- 1、什么是统计学中的两类错误
- 2、医学统计中的注意事项
- 3、《统计学》中“第一类错误”和“第二类错误”分别是指什么?
- 4、科学家都会犯的26个统计学错误,看看你踩了多少
- 5、大数据分析中出现的统计学错误包括什么?
- 6、现实中有哪些统计/统计学被滥用或误用的案例?
什么是统计学中的两类错误
显著性检验中的第一类错误是指:原假设事实上正确,可是检验统计量的观测值却落入拒绝域,因而否定了本来正确的假设。这是弃真的错误。发生第一类错误的概率在双侧检验时是两个尾部的拒绝域面积之和;在单侧检验时是单侧拒绝域的面积。
显著性检验中的第二类错误是指:原假设事实上不正确,而检验统计量的观测值却落入了不能拒绝域,因而没有否定本来不正确的原假设,这是取伪的错误。发生第二类错误的概率是把来自θ=θ1(θ1≠θ0)的总体的样本值代入检验统计量所得结果落入接受域的概率。
医学统计中的注意事项
1 设计方面的问题
11 分组没有严格遵循随机化原则研究对象的分组与抽样离不开随机化原则,在足够样本的前提下,随机抽样,随机分组,明确交代随机方法,各组样本量、基本特征等。随机不等于随便,有的作者滥用随机,只要抽样或分组,一概冠以随机,不描述随机方法,把随意、随便当做随机,使研究结果不可信。
12 无对照组或不合理医务科技工作者开展研究的目的就是验证假设是否正确,没有对照,无法做出判断。有的论文无对照组,没有对比观察,所得结论没有说服力。有的论文虽设有对照组,但不是严格的随机分组,组间缺乏可比性,如非同期对照,组间性别、年龄、患病状况不一致等。在实验组和对照组的可比性方面,两组例数要基本一致,否则没有可比性。
13 样本含量过少抽取恰当的样本量,结果才有可靠性。有些文章例数太少,这样抽样误差大,导致结果不可靠。研究对象变量标准差小的,样本可以小一些。观察计数指标的样本一般不少于20~30例,计量指标的样本不少于5~10例。有的作者仅仅观察了数例患者,就得出百分之多少的有效率,显然是不恰当的。
对于对比分析,样本太少得出的结果不可靠,往往随着样本量的增大而发生变化。
2 统计学处理不恰当在进行统计学处理时,首先要明白研究资料是计数资料还是计量资料,尽管是一个常识性的问题,但仍有不少作者搞混了。先分类再计数的资料叫计数资料,如A组30例,B组32例,可根据研究目的计算出阳性率、治愈率等。测定某项具体数值的资料叫计量资料,如身高、体重、脉搏、血压等许多物理诊断和化验结果。在医学科研论文中,计数资料最常用的统计学方法是检验,计量资料最常用的是t检验。在研究设计时,就应根据研究资料的特点,决定假设检验的方法。在处理资料时,因均数和标准差是用来描述正态分布资料集中和离散趋势的指标,可否采用均数±标准差描述研究资料的分布特征,首先要看资料是否是正态分布,如果资料不是正态分布或者方差不齐时,应对资料进行转换处理,使其符合正态分布,方差齐性后采用t检验或方差分析,达不到上述要求,用秩和检验。来稿中,不少作者不考虑适用条件,盲目使用t检验。造成统计学方法使用不当,结果不可靠。更有甚者,有的作者不分计数资料还是计量资料,乱用检验或t检验,其结果可想而知。这是无统计学常识或极不负责任的表现。
有的研究资料数据庞大,只能在表格描述中用阿拉伯数字或特殊符号表示与比较对象的P值,如 P005 , P005, P001,无法一一给出具体的P值。但有的作者既不交代使用的统计学方法,也不给出具体的P值,直接列出 P005或 P005,认为差异有统计学意义或无统计学意义,使读者对无法判断结果的可靠性。正确的做法是写明使用的统计学方法,使用了什么统计学软件,如进行了校正检验。亦应说明。这才有说服力。
3 描述不严谨日常生活中对差异的判断与统计学上差异是否有统计学意义是两个完全不同的概念。我们主观上感觉差异不大,而经统计学处理差异可能具有统计学意义;主观上感觉差别很大,但经统计学处理差异可能有统计学意义。有相当数量的作者,在描述统计学结果时,常用差异显着或差异非常显着,易与日常生活中差异的概念混淆,使用差异有统计学意义或差异无统计学意义更为确切。
我们把检验水准设定为 a=005时就是以 P005为界值,一般以 P005, P005, P0O1 3个档次描述差异有无统计学意义即可,有的作者出现 P0001,以强调差异的显着性。有的作者用 PO01或 P01来表示,是错误的, P0O1既可能是 P005,也可能是 P005,二者有本质的不同。
4 统计符号使用不规范统计符号使用不规范是论文中经常出现的问题,把卡方检验中的 写成x或x2,丢掉平方或把希腊字母x写成英文字母x;把均数±标准差( ±s),丢掉z 上方的一横,既影响论文质量,又影响阅读效果。
5 统计表格不规范统计表格是论文的重要组成部分,表格是否符合统计学要求,对论文有重要影响。常见的问题有:
① 无表题;
② 表题过于简单或过于繁琐。不确切;
③ 横纵标目倒置,不符合语法规律;
④ 标目层次过多;
⑤ 线条太多。甚至左上角有斜线;
⑥ 表内同一栏目数字不对齐,小数点后位数不一致。
表题如同文章的题目,简明扼要,字数控制在15个字以内。表格左侧的标目叫横标目,相当于汉语的主语,表明相应横行内数字的涵义;纵标目位于表格的上方,相当于汉语的谓语部分,说明表格内相应纵行数字的'涵义。
主谓语倒置是统计表格最常见的错误,一般情况下主语做横标目,谓语做纵标目。统计表用三线表,即顶线、底线和隔开纵标目与表内数字的横线,必要时可在纵标目下加辅助线,其余线条一概省略。
统计表格和文字叙述相辅相成,互相补充,能用简洁的文字说明的,一般不用表格,文字描述不要和表格内容完全重复。表格要简洁明快,重点突出,让人一目了然,不要变成数字的堆彻。出现统计表前,要用简要文字描述或强调主要发现,不要把文字叙述放在表格后。
6 使用统计指标不当常见的问题是率与构成比、发病率与患病率、死亡率与病死率等的混淆。
61 把构成比当率构成比是说明事物或现象内部各构成部分的比重,构成比表示某事物内部各组成部分的比重或分布,单位为%,各组成部分之和应为100%。计算公式为:构成比=某组成部分的观察单位数/同一事物各组成的观察单位总数例如2011年某市围产儿死亡总数为18例,其中死胎7例、死产3例、新生儿死亡8例。其构成比分另0为3889%、1667%、4444%。
率为表示某种现象发生的频率或强度。常以%、/万或/lo万表示。计算公式为率=某时期内某现象实际观察单位数/同时期内可能发生该现象的观察单位总数,如共检测568名5~7岁儿童,患龋齿儿童314人,检出率5528%。
构成比和率都是相对数指标。有一篇题为某年某地区4种乙类传染病疫情分析。经数据处理后,作者认为,4种传染病的发病率依次为痢疾5453%(1546/2 835)、肝炎1619%(459/2 835)、乙脑921%(261/2 835)、流脑689% (569/28352007)。该资料是构成比,不是发病率。作者犯了以比代率的错误。
62 发病率与患病率发病率是指观察期内(年、季、月等)新发生某病的例数与同期平均人口数之比,强调在观察期内的新发病例数,常以‰、/7/或/lO万表示。其计算公式为:某病发病率等于某年(期)内所发生的新病例数除以同年(期)平均人口数乘1000%o。例如某地某年年平均人口数为2500人,白喉发病28人,该地白喉年发病率为1120%0。而患病率则指观察时点的某病的现患病例数与该时点人口数之比强调的是该观察时点上某病的现患(新、旧病例)情况,常以百分率表示。有人调查16 875人,其中男性8 674人,沙眼患者7 632人,发病率为8799%;女性8 201人,沙眼患者6 210人。发病率为7572%。这样的结论当然是错误的,其所描述的结果应该是患病率。
63 死亡率与病死率这也是两个容易混淆的指标。某病死亡率是观察人群中某病的死亡频率。常以‰、/万或/10万表示;某病病死率是某病患者中因该病而死亡的频率。
一般以百分率表示。前者反映人群因该病而死亡的频率,后者反映疾病的预后。部分作者常将某病住院病死率误为某病死亡率。如重症监护室患者死亡情况分析一文中报道,颅脑损伤32例,死亡20例,死亡率为625%;严重心衰26例,死亡9例,死亡率为346%;严重肾衰竭18例,死亡11例,死亡率为611%。很明显,作者在这里是将住院病死率误作死亡率来讨论。
我们在编辑医学论文中经常会发现存在这样那样的统计学问题,致使文章质量下降,甚至无法刊用,十分可惜。提高统计学应用水平,减少统计学差错,是作者、审稿专家和编辑共同的责任。树立严谨的科学态度,选择正确的统计学方法,对提高科研水平,确保论文质量有着十分重要的意义。
《统计学》中“第一类错误”和“第二类错误”分别是指什么?
第一类错误:原假设是正确的,却拒绝了原假设。
第二类错误:原假设是错误的,却没有拒绝原假设。
第一类错误即I型错误是指拒绝了实际上成立的H0,为“弃真”的错误,其概率通常用α表示,这称为显著性水平。α可取单侧也可取双侧,可以根据需要确定α的大小,一般规定α=0.05或α=0.01。
第二类错误即Ⅱ型错误是指不拒绝实际上不成立的H0,为“存伪”的错误,其概率通常用β表示。β只能取单尾,假设检验时一般不知道β的值,在一定条件下(如已知两总体的差值δ、样本含量n和检验水准α)可以测算出来。
扩展资料
我们在做假设检验的时候会犯两种错误:第一,原假设是正确的,而你判断它为错误的;第二,原假设是错误的,而你判断它为正确的。我们分别称这两种错误为第一类错误和第二类错误。
我们常把假设检验比作法庭判案,我们想知道被告是好人还是坏人。原假设是“被告是好人”,备择假设是“被告是坏人”。法庭判案会犯两种错误:如果被告真是好人,而你判他有罪,这是第一类错误(错杀好人);如果被告真是坏人,而你判他无罪,这是第二类错误(放走坏人)。
记忆方法:我们可以把第一类错误记为“以真为假”,把第二类错误记为“以假为真”。当然我们也可以将第一类错误记为“错杀好人”,把第二类错误记为“放走坏人”。
在其他条件不变的情况下,如果要求犯第一类错误概率越小,那么犯第二类错误的概率就会越大。这个结论比较容易理解,当我们要求“错杀好人”的概率降低时,那么往往就会“放走坏人”。
同样的,在其他条件不变的情况下,如果要求犯第二类错误概率越小,那么犯第一类错误的概率就会越大。当我们要求“放走坏人”的概率降低时,那么往往就会“错杀好人”。
同样的,在其他条件不变的情况下,如果要求犯第二类错误概率越小,那么犯第一类错误的概率就会越大。当我们要求“放走坏人”的概率降低时,那么往往就会“错杀好人”。
参考资料来源:百度百科-第一类错误
参考资料来源:百度百科-第二类错误
科学家都会犯的26个统计学错误,看看你踩了多少
学好了数学或者成为了一个优秀的程序员绝对不等于对统计学有很好的了解。还有一些案例中显示有扎实的统计能力的优秀科学家也不一定总是在统计方面能做好——科学家也是人,他们也会在统计学领域犯错,这里有些例子:
1. 非常草率的处理数据,例如:数据误读,错误标注,未能正确清理数据,合并不正确项,不存档等等。
2. 对概率论的理解不足,过分依赖少数概率分布,如常态。
3. 对取样理论和取样方法的无知:从一个小的自选择样本推广到一个大的异质群体就是一个例子。对数据加权的误解也很常见。第三个例子使用复杂抽样方法时,将数据视为一个简单的随机样本。
4. 对统计推断的把握不严,如混淆统计意义和实际意义。另一个例子是对人口数据进行重要性测试。例如,如果我们对A国有五十年的季度GDP数据,这200个数据点是该时间段内国家的人口数据,而不是人口的样本。例如,进行t检验,看看线性趋势是否与零有统计学上的差异,在这种情况下是没有意义的。
5. 利用机会寻找重大差异(p-hacking),却不考虑已经进行的显著性测试的数量。
6. 在学术期刊上,要获得学术期刊的认可,通常需要达到统计上的重要性,而出版偏倚是一个严重的后果。 Meta-Analysis (Borenstein et al.) 和Methodsof Meta-Analysis (Schmidt and Hunter)这2本书中的对应方法很管用值得一看。
7. 从一个没有被复制甚至交叉验证的单一研究中得出戏剧性的结论。
8. 对贝叶斯统计,非参数统计,心理计量学和潜在变量模型的理解太表面。
9. 对分析时间序列和纵向数据的方法,以及空间统计和多层次混合模型理解不充分。
10. 许多工具,如支持向量机和人工神经网络,以及数据挖掘和预测分析中常用的Boosting和bagging等概念,对许多尚未开发的科学领域有潜在的实用价值。
11. 没有对广义线性模型方程给予足够的关注,例如忽略交互术语。
12. 在量化回归、回归样条、广义相加模型或其他方法时,对一组特定的数据进行线性化。
13. 不理解(或忽略)重要的统计假设。回归分析被普遍滥用。
14. 测量误差:统计显着性测试不考虑测量误差,但测量误差可能会对统计模型的解释造成很大影响。
15. 忽略回归到平均值:一个非常古老而又非常危险的错误!
16. 出于各种动机对连续变量进行分类,以满足统计假设,但这样做是不对的。另一个原因是它是一种输出结果的方法——一些“效应”是年龄真正的代理或年龄大大缓和。连续年龄有时被故意地分组到广泛的年龄范围,使其效果减弱。这样,一个不负责任的研究者可以得出结论:他们试图建立的效果在控制年龄后是“显着的”。
17. 已经知道结果后才提出假设:这个现象很普遍,以至于“人人都做,所以没关系”。
18. 用数据子集支持一个假设:“调整”数据直到它支持一个假设。
19. 混淆因果关系:对因果机制的误解并不罕见。
20. 埋藏在评论里的错误:有成千上万的“学术”出版物,但很少有期刊审稿人是具备专业的统计知识。
21. 将模拟数据当作实际数据处理,并将计算机模拟解释为使用真实数据的实验。
22. 基于假设而不是数据来进行粗略的估计,这在学术文献中很常见,我们很少注意到。随机模型有时也被误解为确定性模型。
23. 试图 “从石头里挤血” :当数据越少,研究人员就越要 “填写空白”。有许多(通常是复杂的)方法来处理过少的数据量,但都增加了进入建模过程的主观性。反过来,这也为不负责人的科学家提供了更多的余地。
24. 元分析和倾向分数分析的不当使用。
25. “从小见大”——用少量信息去证实假设。
26. 不跟上统计数据的最新发展,不与专业统计人员交流。这是上面列出的许多问题的根本原因。
大数据分析中出现的统计学错误包括什么?
1、变量之间关系可以分为两类
函数关系:反映了事物之间某种确定性关系。
相关关系:两个变量之间存在某种依存关系,但二者并不是一一对应的;反映了事务间不完全确定关系;
2、为什么要对相关系数进行显著性检验?
实际上完全没有关系的变量,在利用样本数据进行计算时也可能得到一个较大的相关系数值(尤其是时间序列数值)。当样本数较少,相关系数就很大。当样本量从100减少到40后,相关系数大概率会上升,但上升到多少,这个就不能保证了;取决于你的剔除数据原则,还有这组数据真的可能不存在相关性;改变两列数据的顺序,不会对相关系数,和散点图(拟合的函数曲线)造成影响;对两列数据进行归一化处理,标准化处理,不会影响相关系数;我们计算的相关系数是线性相关系数,只能反映两者是否具备线性关系。相关系数高是线性模型拟合程度高的前提;此外相关系数反映两个变量之间的相关性,多个变量之间的相关性可以通过复相关系数来衡量。
3、增加变量个数,R2会增大;P值,F值只要满足条件即可,不必追求其值过小。
4、多重共线性与统计假设检验傻傻分不清?
多重共线性与统计假设没有直接关联,但是对于解释多元回归的结果非常重要。相关系数反应两个变量之间的相关性;回归系数是假设其他变量不变,自变量变化一个单位,对因变量的影响,而存在多重共线性(变量之间相关系数很大),就会导致解释困难;比如y~x1+x2;x·1与x2存在多重共线性,当x1变化一个单位,x2不变,对y的影响;而x1与x2高度相关,就会解释没有意义。
一元回归不存在多重共线性的问题;而多元线性回归要摒弃多重共线性的影响;所以要先对所有的变量进行相关系数分析,初步判定是否满足前提---多重共线性。
现实中有哪些统计/统计学被滥用或误用的案例?
1、案例一:
在各类广告中,经常遇到由“方便样本”(即样本没有代表性)所产生的结论,例如:某减肥药广告称,其减肥的有效为75%。
但就提出这样的问题,这个数据是如何得到的,该药在多少人身上做了试验,即样本的容量是多少,样本是如何选取的等等,假设该药在4个人身上做过实验,即样本的容量是4,用这样小的样本来推断总体是不可信的。
2、案例二:
美国《新闻周刊》通过裁减掉一部分的纵坐标和拉长横坐标的方法夸大了美国道琼斯股票指数的涨幅,其原文标题是“非凡的牛市!”。文章想说明美国股市在经历一场非同寻常的上升过程,但事实上是编辑人员对图表的处理给了读者们错误的印象。
图表引自《统计数据的真相》(德)瓦尔特·克莱默,机械工业出版社第七版。五、百分数的陷阱美国多克斯牙膏公司做过一个用户调查,调查结果显示使用多克斯(Doakes)牌牙膏将使蛀牙减少23%!大字标题历历在目。
这些结论出自一家信誉良好的“独立”实验室,并且还经过了注册会计师的证明。似乎是值得信任的。但是事实上读者只有在读小字的内容时才会发现,实验的样本仅由 12 人组成。这全然不能说明多克斯牙膏的神奇功效。
扩展资料
做好任何一个统计工作都要了解自己工作的本质是什么,统计工作也是如此,统计工作主要是对社会,经济以及自然现象总体数量方面进行搜集,整理,分析过程的总称,这对于国家和企业以及事业单位十分重要。
统计工作最主要的一方面是通过数字揭示事物在特定时间、特定方面的数量特征,帮助人们对事物进行定量乃至定性分析,通过这样的分析,领导人才可以做出正确的判断,为国家和企事业单位的发展做好指导工作。
网友评论
最新评论
的概念混淆,使用差异有统计学意义或差异无统计学意义更为确切。 我们把检验水准设定为 a=005时就是以 P005为界值,一般以 P005, P005, P0O1 3个档次描
体就是一个例子。对数据加权的误解也很常见。第三个例子使用复杂抽样方法时,将数据视为一个简单的随机样本。4. 对统计推断的把握不严,如混淆统计意义和实际意义。另一个例子是对人口数据进行重要性测试。例如,如果我们对A国有五十年的季度GDP数据,这200个数
法使用不当,结果不可靠。更有甚者,有的作者不分计数资料还是计量资料,乱用检验或t检验,其结果可想而知。这是无统计学常识或极不负责任的表现。 有的研究资料数据庞大,只能在表格描述中用阿拉伯数字或特殊符号表示与比较对象的P值,如 P005 , P005, P001,无法一一给出具体
变两列数据的顺序,不会对相关系数,和散点图(拟合的函数曲线)造成影响;对两列数据进行归一化处理,标准化处理,不会影响相关系数;我们计算的相关系数是线性相关系数,只能反映两者是否具备线性关系。相关系数高是线性模型拟合程度高的前提;此外相关系数反映两个变量之间的相
研论文中,计数资料最常用的统计学方法是检验,计量资料最常用的是t检验。在研究设计时,就应根据研究资料的特点,决定假设检验的方法。在处理资料时,因均数和标准差是用来