【統計学】帰無仮説と有意水準とは!?

toukei
「統計学が最強の学問である」
こんなタイトルの本がベストセラーになっているようです。

統計学を最初に教えてもらったのは
大学1年生の頃だったと記憶していますが、
ま~~ややこしい!って思った記憶があります。

今回は統計学をちょっと復習する機会
があったので、そのさわりの部分を
まとめておこうと思います。

僕は、学問にしてもスポーツにしても、
大まかなイメージをもっていることが
すごく大切なことだと思っています。

今回のお話は、ややこしい統計学を
勉強する前に知っておくと
役立つ内容になると思います!

◆統計ってなに?

これは僕オリジナルの解釈なので、
違うかもしれませんのでご了承を!

統計ってそもそもなぜ必要になるか?
って考えてみると、みんなが納得できるように
物事を比較するためだと思います。

薬学でいうと、
薬を使う場合と使わない場合
どっちの方が病気が治る確率が高いのか?

また、喫煙をしている場合、
喫煙しない人と比べて肺がんになる
確率は本当に高くなるのか?

こんなような問題に対して、
もし統計学がなかったら、
何の判断基準も与えられないのです。

「たぶん薬を使ったほうが治るっぽい。」
「たばこは体に悪いから、肺がんになりやすくなると思う」
なんていう表現しかできません。

そんな状況で、何とかして
より科学的にそれらの比較ができないだろうか?
っていう発想になったのです。

最初に考えついたのは、
まずできるだけたくさんの人を観察しよう!
ということでした。

観察していくと、当然ですが
たくさんのデータが集まってきます。
その膨大なデータをみて、う~んっと唸るのです。

データ集めたはいいけど、
これをどうやって評価するの??
という次の壁が現れます。

ここから次の段階に突入です。
統計処理法の研究です。
データからいかに意味のある事実を見出すか?
という取り組みでした。

長い間の試行錯誤の結果、
一般的な方法論や基準の認識が
共有され、統計は世界共通のツールとなったのです。

ここまでが、大まかな統計の流れ
かなあと個人的に思っています。

◆統計の「型」を学ぶ

では本題の帰無仮説の考え方に入っていきましょう。
統計の基本ともいえる方法なので、
ここはしっかりと理解しておきたいところです。

数学でも背理法っていう
ちょっとひねくれた証明方法があったと思いますが
統計学の考え方もまさにそれと似ています。

まずはじめに、あなたが統計学を使って
何かを証明したいと考える場合、
「こうであってほしい!」と思う仮説があるはずです。

例えば、あるA薬の研究者であれば、
「既存の薬よりもA薬効果が高い!」
ということを証明したいはずです。

で、最終的にはこの
「A薬が既存薬よりも効果が高い」
という話の流れにもっていきたいのです。

逆に、A薬と既存薬の効果に差がない
ということは、研究者としては無に帰す結果なわけです。
なので、これを帰無仮説っていいます。

帰無仮説~「A薬と既存薬の効果に差がない」
=研究の成果は台無し!
これに反対の仮説(採用したい仮説)は
対立仮説~「A薬が既存薬よりも効果が高い」
=晴れて効果が証明され、新薬として発売!
となるわけです。

ここで、統計では何をやるかというと、
「帰無仮説の否定」という手法を使います。
ちょっと具体的に説明しましょう。

仮説を使って、統計的意義を
証明していくことを「検定」といいます。
t検定とかχ二乗検定とかいろいろあります。

で、この検定をはじめるときには、
帰無仮説からスタートします。
帰無仮説が正しいという前提で話を始めます。
(最終的にはその否定をしたいのです!)

もうひとつ、どのくらいの正確さで
結果を導き出したいか?
というのを設定します。

ちなみに、よく使われる確率が
95%や99%といったものです。

もちろん確率をさげていくと、
正確さを欠く分だけ差はでやすくなります。
しかし、逆にデータの信頼度は落ちてしまいます。

このバランスが大切で、
一般的に95%や99%という数字が
用いられているわけですね。

ここでは95%という確率を使ってみます。
この場合、有意水準が0.05(100-95=5%)
といいます。α(アルファ)と表記します。

有意水準(α)って何かっていうと、
ミスって評価してしまう確率(基準)のことです。
同じ試験と統計処理をしたときに、
100回に5回程度は真実とは異なる結果を導きだすということです。
(イメージしやすい表現ではこんな感じ)

ゆえに、
有意水準を低く(=厳しく)設定すれば
それだけ信頼性も増すということなのです。

で、有意水準を設定したら、
いよいよ計算です。
※ここでは詳細は省きます。
あくまで統計のイメージをつけてもらうため。

結論をいうと、評価したいデータを使って
統計検定量といわれる数字を算出します。
最終的にp値という数字が計算できます。

このp値とさっきの有意水準(α)を比べます。
もしp値がαよりも小さければ(p値<α)、
帰無仮説が否定されるのです。
これを帰無仮説の棄却といいます。

どういうことなの?
と混乱してきているかもしれませんね^^;
ちょっと詳しく説明していきます!

そもそもスタートの前提条件は、
「A薬と既存薬の効果は変わらない」
という仮説でしたね。

その前提のもと、
実際に得られたデータから
p値というものを計算したのです。

で、p値というのは何かというと、
その仮説(=A薬と既存薬の効果が変わらない)
が実際に起こりうる確率はどのくらいか?を表わすものです。

つまり、p値が0.03という数字になったとして、
α:0.05と比較すると、p値はαより低い値になっています。

つまり、偶然にしちゃあ、
レアすぎるケースじゃない?
と、考えることができるのです。

そうなると、「A薬と既存薬の効果は変わらない」
という設定自体が間違っていたよね、と解釈できるのです。
そう、帰無仮説を棄却するんでしたね。

では、もう一方の対立仮説である
「A薬が既存薬よりも効果が高い」
の方を採用することにしましょう。
めでたし、めでたしとなるのです。

一応、流れとしてはこんな感じですが、
ちょっとは分かりやすく説明できている
でしょうか?

実際に、計算してみるとみえてくる
ものもあると思うので、まずはやってみる
ということが大切かもしれません!

あと統計って最強だ!
って、実は全然そんなことなくて、
いろんな問題もでてくる方法論ではあるのです。

それを「過誤」って呼んでいるのですが、
誤って評価してしまうリスクというのが
常に付きまとってきます。

また、実際に研究していると分かるんですが、
サンプル(データ)が多ければ、
差はでやすくなるっていうマジックもあります。

なので、統計を使って評価している
=信頼できるとは考えないほうがいいです。
やらないよりは全然ましですが笑!

以上、最後までお読みいただき
ありがとうございました。
ではまた!

スポンサーリンク

シェアする

  • このエントリーをはてなブックマークに追加

フォローする

スポンサーリンク