新浪博客、微博用户使用行为调查

本人最近在网上发起了《新浪博客、微博用户行用行为调查》。

我在新浪的所有用户中,用RDS方法随即抽取了一批用户作为调查对象。

如果您收到了我发给您的邀请参与链接,希望您能帮忙参与这次调查。

我准备了一些纪念品(ipod shuffle)。在本次调查结束后,约10%的参与者会收到这些纪念品。当然,这一部分参与者也是随即抽取的。每个人获得纪念品的机会是一样的。

本次调查的所有结果都将用于学术研究,主要是用于我的毕业论文写作。

十分感谢您的参与!

 

香港城市大学媒体与传播系 博士候选人 陆亨

参加WAPOR年会

 

今年WAPOR的annual conference在Amsterdam举行,这是我第一次参加该会议。ASCoR是这次年会主要的承办机构。ASCoR可以说是欧洲最好的传播学院,当然,他们自己更是这么认为的。

与我参加过的其他会议如ICA相比,我觉得参加WAPOR更有收获一些。当然,这是很个人的意见,与我的研究兴趣和研究取向有很大关系。

今年的年会是WAPOR历史上最大的(参加人数最多的)一次年会,共有160多人参加,为期三天(包括一天的PhD Workshops),。这个数字跟今年的ICA相比(今年有2,507人注册参加了ICA,为期5天),那根本就不是一个数量级的。正是这种“小众”性质,使得与会者更homogeneous,参与感与参与度都更强。

今年是WAPOR年会第一次举办PhD Workshops,为了得到更多的帮助,我参与了这个workshop。一个主持人,每场5个博士学生发表,一个点评人。我参加的两场点评人分别是Jörg MatthesMichael Traugott。所发表的研究基本上都是经验研究,定量方法居多,定性的少。我参加的两场仅有一个研究用的定性方法。以我个人的感觉,做实验的研究相对(ICA)比较多。研究的结果多样,发现显著效应的最多,还有没发现显著结果寻求帮助的,有一个研究还在design阶段,没有数据。专家的点评很到位,主要涉及理论贡献,概念化,和具体分析方面。所有的点评都很建设性,专家都以看待学者的眼光看待学生,围绕如何修改能获得在期刊发表论文给出点评意见。大部分人都了解定量,用的术语也很定量,大家的提问很有point,讨论比较活跃充分。这一点对我而已,感触尤其深。WAPOR年会上的讨论大多都很活跃,很有point。

今年会议的Keynote Speaker是Willem Saris。“简单粗暴地”来说,他的发表介绍了网络调查的过去现在及将来。Willem的基本观点是,网络抽样还是要以概率抽样为基础,随便样本,哪怕样本量再大也不保证有代表性。样本量大能减小抽样误差,但不能代表样本的代表性。他具体比较了European Social Survey(概率样本,面访)和LISS Panel(概率样本,网络调查)两个数据在一些关键变量上的异同,以此说明根据网络概率样本所得的数据是靠谱的。但是,Willem说的网络概率样本调查成本还是相当高的,需要大量的经费。基本步骤是先随机抽样,选家庭,然后给没有电脑/网络的家庭提供电脑/网络,然后让他们定期上网填问卷。(不知道他们随机选完家庭之后,是否还随机选家庭成员。)现在他参与的网络调查项目,基本上每个月做一次调查。但是80%的问卷都是由同样20%的人填的。尽管这样,他们的结果显得这种网络调查结果还是靠谱的(跟面访比),在一些问题上,甚至更靠谱(比如,在面访中,高教育程度的人更可能把他们看电视的时间往少了说)。他讲完后,有个白头发老先生非说样本量大,非概率的网络抽样也靠谱,关键就是要做好weighting。貌似两个人谁也没说服谁,当然,也没有吵很久,也就争了两三个回合。

总的感觉是,WAPOR年会的参与感更强。很多白头发老头老太,见面时相当激动。问了周边的人,基本上都是年会的常客。说跟AAPOR相比,WAPOR更加国际化,更愿意参加WAPOR。当然,可能因为我问的多数不是美国人。听会的感想跟参加PhD Workshop基本一样:定量多,互动好,参与强,实验的比重较其他会议较重。

会议有一个聚餐,气氛融洽。期间宣布了今年年会获奖的论文,共三个奖。一个给发展中国家的研究,一个针对学生,一个针对所有论文。仅获学生奖的人在场。尽管如此,大家鼓掌的时候给我感觉很“由衷”。最好有一个类似终身成就奖的东西,给了McCombs和Shaw。Shaw因为个人原因没能参加。第一次见了McCombs本尊。Michael Traugott给他颁奖,之前念了一段颁奖词,恍惚觉得自己在参加艾美奖颁奖典礼之类。有那么几个时刻,自己觉得应该也好好做个study,去拿个奖啥的。对了,拿best paper的tips是international和interdisciplinary。

 

(图中白发者为Michael Traugott)

 

用GibbsLDA做Topic Modeling

Topic Modeling是一种文本挖掘的方法。将文本视作一个由许多许多词组成的数据库,就能通过分析哪些词经常在一起出现,哪些词出现的多,等等手段来探测文本中隐含的主题。比如,有一万篇文章,人工对这些文章进行分类,提取主题是十分浩大的工程。但是如果能用计算机来实现的话,对于社会科学研究者,尤其是注重对文本分析的传播学者来说,是个非常值得应用的工具。

简单来说,Topic Modeling就是干这么个活。把一堆文字放进去,你告诉计算机,你要多少个主题(比如,5),每个主题包含多少个字(比如,10),然后让计算机跑跑跑,过一会儿,计算机就告诉你5个主题,每个主题10个字分别是什么。

听起来有点玄乎,但是如果你能明白传统的因子分析(Factor Analysis),基本上就能明白Topic Modeling。核心思想无非就是降维度。对于因子分析来说,可以从100个变量,降维提出5个因子。对于Topic Modeling来说,可以通过100篇文章(可能包含100,000个字/词),降维提出5个主题。

具体到对Topic Modeling的操作,那就千变万化了。计算机科学(Computer Science)领域专门有人做这个,发展出各种算法。

我只介绍一种,叫做GibbsLDA。这其实就是Gibbs Sampling(一种抽样方法)跟Latent Dirichlet Allocation (LDA,一种算法/模型)的结合。这玩意儿太深奥了。我也解释不清楚。反正如果你google的话,有人用这两种东西的结合GibbsLDA写了文章,发了,貌似影响不小。是可行的,靠谱的。LDA最早是由David Blei提出的。

D. Blei, A. Ng, and M. Jordan: Latent Dirichlet Allocation, Journal of Machine Learning Research (2003).

更多的文章可以看看这里。也可以google下列文章:

l Finding scientific topics.

l The author-topic model for authors and documents.

l Bibliometric Impact Measures Leveraging Topic Analysis.

l Detecting Topic Evolution in Scientific Literature: How CanCitations Help?

这个GibbsLDA有很多的软件版本,比如C++版,Java版,Python版,MatLab版。各种版本对输入数据的要求可能还不一样。就我使用的情况来看,C++版本最稳定,运算速度也最快。

但是呢,C++版本一般在Linux上运行,如在Windows下运行,还得按照个Visual Studio。工程浩大。

Windows上装个Linux其实不难,搞个Wubi,在C盘上分出一个空间(10G左右),傻瓜都能搞定。这个Wubi给装的Linux是Ubuntu版本。不难用。Wubi其实是给你的电脑上傻瓜式地装上了一个虚拟Linux系统。开机时会让你选进Linux还是Windows。进了Linux也不怕,搞个天翻地覆,也就在你分给它的那点硬盘(比如10G)里,坏不了大事。当然,你舍不得搞复杂你的Windows的话,可以想办法搞个Linux的机器来玩玩。

累死了。简单来说,怎么安装使用GibbsLDA++看这里就可以了。不过我还是多罗嗦几句吧。

好了,从现在开始,就进入到安装GibbsLDA++了。

第一步:下载GibbsLDA++

第二步:把下载的文件放到一个文件夹。对于没接触过Linux的同学来说,你可以放到,,,比如说/home/user(你的用户名)/LDA/ 下面。对于在Windows上用虚拟Ubuntu的同学来说,在你找的地方,随便造个文件夹装下这文件就好了。

第三步:解压缩及安装。对于没用过Linux的同学来说,没有右键解压缩这个故事是很痛苦的。好吧,慢慢来。比如你这个狗屁文件放到了/home/user/LDA/下面。而你甚至连你在什么文件夹下都不知道。你可以这样。在Terminal(也就是一个黑屏幕,只能输入命令的那种)里面输入(下面的$表示一行命令的开始,不用输入)

$ cd /home/user/LDA/

就行了。然后,解压缩。输入

$ gunzip GibbsLDA++-0.2.tar.gz(这个gunzip后面是你刚下载的文件的文件名,我下的是GibbsLDA++-0.2)

$ tar -xf GibbsLDA++-0.2.tar

然后进到你刚解压出来的那个文件夹(假设你现在还是在/home/user/LDA/下面)。输入

$ cd \GibbsLDA++-0.2

现在,你已经在/home/user/LDA/GibbsLDA++-0.2/ 这个文件夹下面了已然后安装GibsLDA。输入

$ make clean

$ make all

到目前为止,你已经大功告成了。安装完成。

第四步:准备你要让计算机去做Topic Modeling的文件。在C++的环境里,Topic Modeling需要这样的一个文件。文件格式是dat。这是最原始的txt文件。你也可以用任何软件存成txt文件之后,直接把后缀改成dat就行。比如,你的文件包含1,000篇文章。那你的文件就是这样的

第1行是你总共的文章篇数,在我们的例子里面是1000

第2行到第1001行就是你的那些文章,每篇文章占一行。对于英文来说,每个词之间已经用空格分开了,但是中文不行,所以你要先对文章进行切词。切词这事儿,就不归我这篇小臭长文管了。

第五步:运行GibbsLDA++,得到你要的结果。

将你要跑的文件,比如就叫test.dat吧。将文件放到/home/user/LDA/ 下面,也就是/home/user/LDA/test.dat

然后进入到你装了GibbsLDA++的文件夹,也就是/home/user/LDA/GibbsLDA++-0.2/,然后运行指令。其实就是在Terminal里面输入

$ cd /home/user/LDA/GibbsLDA++-0.2/

$ lda -est [-alpha <double>] [-beta <double>] [-ntopics <int>] [-niters <int>] [-savestep <int>] [-twords <int>] -dfile <string>

这句话“$ lda -est [-alpha <double>] [-beta <double>] [-ntopics <int>] [-niters <int>] [-savestep <int>] [-twords <int>] -dfile <string>”里面其实是GibbsLDA进行估算的各种参数设计,你实际输入的指令可能是:

$ src/lda -est -alpha 0.5 -beta 0.1 -ntopics 100 -niters 1000 -savestep 100 -twords 20 -dfile /home/luheng/LDA/test.dat

这意思是,参数alpha是0.5(这个可以先不管),参数beta是0.1(这个也可以先不管),产生100个topic,运算迭代1000次,每迭代100次之后的结果都保存出来,每个topic包含20个词,要运算的文件是/home/luheng/LDA/test.dat

第六步:看结果。

好了,如果你顺利走到这一步,就去看结果吧。结果文件存在你的测试文件所在的目录。在这个案例中,就是/home/luheng/LDA/ 下面。

会产生类似这样的文件,不同的后缀表示不同的结果。所有这些文件都可以用记事本打开。newdocs.dat.others
newdocs.dat.phi
newdocs.dat.tassign
newdocs.dat.theta
newdocs.dat.twords

其中最直接的是.twords文件。这个文件里面就是你要的n个topic,以及每个topic下面包含的具体的字词。

.others里面是各种你设置的参数

.theta里面是每篇文章对应你设置的n个topic的“因子载荷”(factor loading)

.phi里面是每个topic对应每篇文章的“因子载荷”(factor loading)

.theta 和 .phi 里面的数据其实是一回事,互为转置罢(transpose)了。

.tassign是个啥玩意儿我暂时还没去搞明白。反正除此以外的那几个文件里面的东西已经够我用了。

一些提醒:

计算机很聪明也很笨,你给什么它都帮你算,所以你准备的文件一定要想清楚。比如,是不是所有字词都放心去,那些a, the, of啊,那些华丽丽的形容词啊,是拿掉还是放心去。或者是不是只放名词进去。这事儿只能自己决定,计算机帮不了你。

你选多少个主题,每个主题要多少字,迭代多少步。这玩意儿没有一定的规定。你就试吧。撞大运吧。虽然GibbsLDA靠谱,可终究还是跟因子分析一样,充满了arbitrary!

Reflections on the Wyer’s Course

(狗屁不通,慎入)

课程内容

Wyer所讲授的这门课教Consumer Psychology。诚如Wyer自己所说,他对消费者行为及市场营销的研究大部分基于来自心理学的理论。本学期的课程主要覆盖了四个部分:

1. Accessibility of knowledge in memory

2. Social influences on comprehension and communication

3. Learning and Memory: Information acquisition

4. Inference and evaluation processes

第一个部分讲人们大脑中的知识是如何被激活的,印象最深的是讲priming,各种验证priming的实验案例。

第二部分讲人们怎样理解信息,这部分涉及的the role of conversational norms in the comprehension of product information十分像传播学里面所涉及的内容,比如信源的可信度对信息解读的影响。这部分还有一个令我印象比较深刻的,是讲visual和verbal的信息是如何(不同地)影响人们对产品信息的理解和判断的。

第三部分讲人们是如何处理记忆中的信息的,印象最深的是讲mental representation。人们做决策、判断、评估的时候,不仅仅是激活了大脑中的知识而已,人们还对这些知识进行了加工。Mental representations就是这一系列的认知活动的产物。“Implicational molecules”是对这个现象进行的研究中出现的buzzword。比如“一分钱一分货”就是最简单也常见的一个molecule,我们一旦得到了某物品的“价格贵”这一信息,我们会同时认为该物品“质量好”,哪怕我们没有得到关于该物品质量的任何具体信息。

第四部分讲人们对信息的评估。印象深刻的是讲Probabilistic inference—likelihood that statement is true;Evaluation—judgment of liking, favorableness和Preference—comparative judgment (A is better than B) 。这部分内容容易与第二部分混淆,第二部分重点讲effects of social context in which information is received on how it is interpreted, responses made to it,而第四部分重点讲对信息的评估本身。

下学期,Wyer还将继续在中大讲这门课,预计会讲下面四个部分的内容:

1. Motivational Factors underlying responses to information

2. Role of Affect and Subjective Experience on Judgment

3. Attitude Formation and change; Impact of Attitudes on Behavior

4. Cultural Influences on Judgment

讲课特点

Wyer虽然年纪已经比较大(70左右?),但仍然精力旺盛。但讲课不用麦克风,不做PPT。只是在每次讲课前会讲讲课的大纲发给我们。大纲十分简要,也不像很多老师讲课的内容一样,分门别类,一二三。讲课内容基本上是在一个主题下,一个实验接着一个实验。讲述在相关主题下的各个经典实验案例。其中有很大一部分,是他本人做的studies。

这种讲课形式,比较难让人抓住points,很容易lost。好在有大堆的readings,如果课后苦读,还是能自己提炼出个一二三来。

Wyer本人还是挺有个人魅力的,典型的(至少是我想象中典型的)美国教授。著述颇丰,真的难以想象老人家怎么那么能写!在各个subfield都有十分具有分量的论文。有一批“标准引文”。比如提到knowledge accessibility时候就会引用他和Srull提出的“memory bin”模型。

课程作业

这个部分比较让人抓狂。可以说,这个课程结束了,我还是不敢说我很精确地领会了Wyer的意图。课程讲了四个部分,有四次作业。每次作业就是在所讲授的subfield里面,自己设计一个实验。分四个部分写:一、研究假设;二、假设之所以能够成立背后的理论依据、机制;三、能够建议该假设的实验设计;四、预计的结果(以表格形式呈现)。四部分加起来,双倍行距,不超过4页半纸。

这个作业要求的“四部曲”,大概可以称得上是我这学期最大的收获。开门见山提出假设,为什么提出这个假设,怎么测验这个假设,预计得到什么结果,环环相扣。不需要写什么introduction,literature review等等。连引文都只需要作者,年份,如(Wyer & Srull, 1989),不需要在最后列出引文具体出处。Wyer对文献的熟悉程度,让我实在是佩服。

作业最初的挑战,是写不清楚。常常很多问题,或者实验设计,我觉得我写清楚了,Wyer觉得not clear,或者干脆就没看到。令人十分崩溃。仔细想想,确实是自己的问题。到了第三、四次作业,基本上算是能写清楚,能让Wyer明白我想说的是什么。前两次的作业,大概需要他很费心地去猜我的意思。我后来发现,大概只要把作业写清楚了(包括达到假设、理论机制、实验设计和预计结果的internal consistency),基本就能拿7分以上(满分10分)。

随后面临的问题,是没有innovative的idea。Wyer明确说,不要把人家的study简单的apply到我们自己所在的领域,要提出新假设,要innovative,creative。难!自己的提出的假设,往往就“从文献中来,到文献中去”了。所谓从文献中来,是指提出的假设基本上都是模仿既有的study,照猫画虎。所谓到文献中去,是指自己提出的假设实在是没什么innovative的,基本上是一个改进版(有时候甚至连这个都做不到)的重复而已。如果真的能有innovative的idea,基本上就能发paper。我作业最高的一次,改到了9.5分。我问Wyer,是否有希望发SSCI。Wyer说,你把下面这些那些问题都有效地改正了,做完pilot study证明可行了,还是“high risk”。唉。。。

我前面之所以说这个作业要求的“四部曲”可能是我这学期最大的收获,是因为我觉得这四步看似简单,但实际上已经是一个完整的研究的核心。我作为一个初学者,不仅仅在这门课程里,在其他的研究中也一样,常常会舍本逐末,先从introduction想起。把大量的精力及literature review放在what’s new上面,而对问题本身的检讨不够严谨。最常犯的错误就是,对为什么我要研究这个问题说了很多,但是对为什么我提出的假设在理论上是应该成立的说的不够。通常就是某某某的研究说明,A会影响B,于是我也假设A会影响B。但是某某某又说,C会影响B,于是我也假设C是个moderator,之类。现在反思来看,有点舍本逐末,不分轻重了。

阅读材料

很惭愧,Wyer给我们的Readings,我到现在也没有全部看完。重点看了各个部分review的文章和几个经典的studies。因为我没有完整地看完所有的Reading,更没有系统地接触过consumer psychology,只能是相信Wyer这个人,进而相信Wyer给出的reading list应该是adequate and useful。就我有限的阅读经验来看,Wyer本人写的那些,看起来“共鸣”最强。一则因为Wyer上课讲的关键词跟他写的文章的关键词比较match,看起来不费劲;二则因为Wyer写文章不跩文,不乱用概念,基本上属于“言简意赅”。跟其他人的文章比起来,算是易读。(reading里的有些文章,真的算是难读,全怪罪于我的英文水平也不见得,因为课后交流发现许多同学读那文章也是云山雾罩。)

检讨收获

一,毋庸置疑的,比较大的收获是熟悉了consumer psychology这个领域的相关词汇。这些词汇的习得是非常有用的。至少我比以前知道,哪些现象对应哪些专业词汇,该用什么关键词去搜索。

二,知道了这个领域的big names。除了Wyer以外,比如Srull,Schwarz,Bargh,Higgins,Adaval,McGuire以及大名鼎鼎的Kahneman和Tversky。通过读一个领域的大人物的文章去了解一个领域的发展,应当算是一条捷径。

三,对实验研究有了一点体会。Wyer的课程,基本上只讲消费者研究中基于实验的研究,不涉及其他定性、定量的研究。这是我之前很少接触到的。相比较调查及regression analysis,实验基本上很难handle四维及以上的研究。也就是说,如果一个实验里,涉及四个变量,那几乎就是非常tough的任务了(至少是一个2×2×2×2的矩阵)。而四个变量在regression里面,只能算是一个小case。关于这一点,我还有一些其他的思考。比如,我们做的regression类的研究,用谢宇的话说,主要还是在研究grouping及其呈现的variances。研究这些variances,是帮助我们认识一个已经存在的社会现象。而实验则不然,它关心的是造成这种variances的processes。实验的manipulation比调查强得多。我个人觉得最关键的区别是,调查和实验背后的研究哲学不同。前者侧重认识variances本身,而后者侧重对造成variances的机制的判定。比如,我们或许通过调查发现,不同教育程度的人,对国家身份认同的程度有差别。这(往往)可以被解释为是教育程度造成了这种variance。但,实际上,只是不同教育程度的人在这方面存在了variance,至于是否是教育程度造成了这种variance,调查及回归分析是很难真的去证明的。而实验则不同,实验的manipulation强,对于是否A造成了B,实验的结果要比调查确定的多。当然,实验也有说不清却不得不说的地方。比如Wyer & Srull那个著名的Memory Bin,意思是说,人们的知识存在记忆中,像存在一个罐子里,一层一层的。当某个信息被激活的时候,他就会被放在罐子的最顶层,也就最accessible。这个memory bin被成功的用来解释了很多实验的结果,尤其是关于priming的。但是,这个memory bin其实有点儿“想象”的味道,实验本身并没有证明了这个memory bin的存在,只是这个memory bin用来解释一系列实验结果是reasonable的。这就有点儿研究的“想象力”的味道了。Wyer在上课时常常问我们关于一个实验结果,有什么理论可以用来解释,有什么competing的解释,有什么办法可以来检验这两种或多种competing theories中,究竟是哪一种起作用。这种训练对于我来说是非常有用的,尽管对于我来说,这也是challenging tasks。

四,最后一点能想到的,是聪明反被聪明误。上这个课,再次证明,耍小聪明是没有用的。学点东西,非下苦功不可。Innovative,creative,不读大量的readings是出不来的。

要听他连续说多少次“我爱你”才能相信

要听他连续说多少次“我爱你”才能相信

——怎样判断一枚硬币是不是公平的?

(有些公式神马的看不到,见PDF版本)

PDF Version Here: 要听他连续说多少次我爱你

抛硬币是生活中最常被拿来举例子的Bernoulli(贝努力)试验。这也是一个最简单的概率事件,只有两个选项,正面或者反面(假设不存在立着的情况)。这个例子也可以推广到很多二分变量(binary variables)的取值概率问题。支持或者反对,使用或者不用等等。

一枚硬币如果是公平的话,每次抛硬币得到正反面的机会各等于二分之一。现在我们假定说抛硬币得到正面的概率是p,得到反面的概率是q=(1-p)。

现在我们有一枚硬币,抛了100次,得到了55次正面。那么,我们知道,在这100次里面,我们得到正面的概率是55/100=.55。但我们都抛了100次了,知道了p=.55,又怎么样呢?我们想知道的是,下次以及每次抛这个硬币,得到正面的概率p的估计值p-hat是多少。

这么想的话,上面所说的p=.55是指我们抛了的100次我们知道的抛硬币得到正面的概率是.55,也就是我们的样本(sample)里的p=.55。我们想知道的是通过我们的样本推测到总体(population)的抛这枚硬币得正面的估计值p-hat是多少呢?

从样本统计量p推算总体估计值p-hat就要考虑置信区间(Confidence Interval)。下面这枚公式就能推算,从我们这个抛了100次的样本,估计抛这枚硬币得正面的概率是:

(公式一)

这里的n就是我们抛的次数,也就是样本量(sample size)。这里的是一个统计量,根据不同的置信度(Confidence Level, 如90%,95%,99%等)有不同的固定的取值。这个是另外一个故事了。有兴趣的同学可以去维基百科看“Confidence Interval(置信区间)”这个词条http://en.wikipedia.org/wiki/Confidence_interval。当然了,这个取值还隐藏了另外一个关于正态分布的假设,那也是另一个故事了。

如果我们采用95%的置信度,对应的就等于1.96。我们这100次硬币来估算这枚硬币被抛得正面的概率就是一个区间(.452, .648)。也就是说,如果我们再抛100次硬币,我们有95%的机会得到正面的次数在45次到65次之间。

好吧好吧。我承认我有些罗嗦了。上面这些其实不是我想说的重点。我想说的重点是,我们要连续抛多少次正面,在95%的置信度上,才有根据不否定硬币是不公平的(有点绕,嘿嘿)?

下面就是一个假设检验的问题了。假设检验的一般就得提出一个零假设(Null Hypothesis, H0)和一个备择假设(Alternative Hypothesis,H1)。

我们这里的零假设就是硬币是公平的,也就是每次抛硬币得到正面的概率是1/2。

H0:p-hat=.5

我们这里的备择假设就是硬币是不公平的,也就是每次抛硬币得到正面的概率不是1/2。

H1:p-hat<>.5

我们说的每次抛多少次正面才够的意思是,我们已经确定了p1=1,我们想知道的是n的最小值。我们的问题可以等价地转换成我们估算的p-hat1和假定硬币公平的p-hat2之间的差,怎么就等于0。

这里,H0可以等价地转换为p-hat1-p-hat2=0。

H1可以等价地转换为p-hat1-p-hat2<>0。

怎么算两个比例之差p1-p2的区间估计呢?我们要用到下面这个公式:

(公式二)

这里,我们的p1=1,p2=.5是知道的,在95%的置信度条件下=1.96,代入公式二,就可以得到区间是:

我们的零假设也就转换成:

0必须落在这个区间内。也就是:

通过计算,也就说是n<=3.92的时候,零假设才可能成立。只要n>3.92的时候,我们就可以拒绝零假设,然后在置信度95%的条件下,认为这枚倒霉的硬币是不公平的。

哈哈哈哈。

最后,再让我来说一下so what的问题。如果我们假定你的男人跟你说“我爱你”和说“我不爱你”是等概率事件,机会各一半一半。那么,如果你的男人连续四次跟你说“我爱你”。你选择相信他这句话。你应该有95%的把握。哈哈。可是,你会觉得你男人说“我爱你”和说“我不爱你”不是等概率事件。好吧。那你觉得概率多大你才满意?p=.999999999? 好吧,你还说,置信度95%不够,要99%才差不多。我告诉你,在99%的置信度条件下=2.56。这样的话,你能算出,你男人要连续说多少次“我爱你”,你才能相信他(说“我爱你”不是偶然的)了吧???

Biography

I am Heng Lu (陆亨).

I grew up in a small town named ‘Southern Fountain’ which was located at the Wuxi City, Jiangsu Province, China. Life is so peaceful there.


I left that small town to Beijing where I began my university life.  I got both my BA and MA degree at Department of Journalism in Renmin University of China from 2002 to 2008. I learned a lot about how to be a good journalist and TV producer there. I gained some experiences on news making during my internship in newspapers and TV stations (i.e., CCTV, Phoenix Satellite TV) when I was undergraduate. Later, when I was pursuing my master’s degree, I did some historical and/or empirical studies in the field of media and communication. I got several of them published on Chinese academic journals and International conferences.

I found it is so interesting to do research on the mass media, communication and society when I was pursuing my master’s degree in Beijing. City University of Hong Kong gave me the great opportunity to be well trained on academic research. Now, I am a second-year Ph.D student at Department of Media and Communication, City University of Hong Kong.