2008-12-27

伏せられた社名

マック行列、バイト千人 新商品発売日、やらせ否定
asahi.com (2008年12月26日8時12分)

日本マクドナルド(東京都)が今月23日に、関西で初めて新商品「クォーターパウンダー」を大阪市中央区の御堂筋周防町店で発売した際、マーケティング会社を通じてアルバイトを集め、客として購入させていたことがわかった。約1千人が雇われたという。マクドナルド側は「モニター調査だった」と説明し、「やらせ」であることは否定している。

同社によると、今冬、マーケティング会社に対し「商品の品質やサービス内容のモニター調査をしたい」と依頼。マーケティング会社が、大手人材派遣会社「フルキャスト」と別の人材派遣業者を通じて計約1千人のアルバイト契約を結んだ。

マクドナルド側がマーケティング会社側に支払ったモニター調査費には、バイト代やマクドナルドの商品購入代金が含まれていたという。


(中略)


マクドナルドは朝日新聞の取材に対し「商品の味や店のサービスを調べるのが目的で、行列を作るためや売り上げのためではない。1千人はマーケティング会社が有効なモニター数を得るのに必要と判断した数字で、こちらが頼んだ数字ではない」と説明。徹夜組の20人については「マーケティング会社側に発売を盛り上げるために依頼した。(自己演出との)誤解を生んだとすれば、今後は誤解がないようにやり方を検討したい」としている


(省略)

まあ、調子に乗ってやりすぎたってところでしょうか大口叩いてナンボ的なプロモーションの雰囲気と、今回の不祥事の内容が、ここまでマッチすることも珍しい気がします。しかし、調査するためにモニターを並ばせましたって、、、、こんな下手な言い訳なら、言わない方がマシって気がしますね。調査もバカにされたもんだ。

あと、ずるいなあ~と、漠然と思うのは、この記事では、行列を仕込んだマーケティング会社の社名だけを伏せてるとこ。なんか、意図をビンビン感じるねえ。でも、朝日新聞に強い影響力を及ぼせる会社といえばさ、、、、、しかも、マーケティング会社ってことを考えるとさ、、、、もはや広告代理店しかないよね、状況を考えるとさ。電通か博報堂、あるいはADKだよね、どう考えたってさ。

ま、新聞社は、相変わらず節操ないってことさ。
あと、最近、web魚拓ってのがあるんですね。フルキャストがアルバイトを募ったという求人広告が保存されていました。

楽チン!新商品を並んで買って、食べるだけのお仕事!

ま、いずれにせよ、バカみたいな話でなのでしたあ。

2008-12-23

富津岬

今日は、富津岬へ行きました。

この写真は、岬の展望台から撮った第一海保。対岸に見えているはずの景色は、川崎~羽田あたりのはず。空気が澄んでいれば、富士山も見えるはずだけど、今日は残念ながらもやの中。


富津岬で、しばらくブラブラした後に、恒例の穴子天丼を食べるべく、地元の観光?食堂へ。テレビの取材が多いらしく、沢山の色紙があったけど、サインを書いた人が誰なのかは、全く分からずじまい

で、これがでてきた穴子天丼。穴子が、すごくおおきい!やはり、こうでなくてはねえ。そして、お味噌汁はアサリの味噌汁。アサリが沢山入っていて、いいダシ出ていました。

どちらも、とても美味しかったです。

2008-12-21

何を知りたいのか?

あなたが知りたいのは誰ですか?(代表性の話)
(マーケティング・リサーチの寺子屋・2008/12/21)

http://link-kobo.no-blog.jp/research/2008/12/post_1a8b.htmll

まずは、つぎのニュースリリースと、詳細データをごらんください。

高齢者におけるパソコン・ネットの利用動向に関する調査
(株式会社NTTデータ経営研究所:20081216ニュースリリース)


みなさんは、このデータとそこからのコメント(リリースの内容)を読んで、どのような感想をもたれましたか?

「なるほど、高齢者でもコンピュータのリテラシーは高いんだな」でしょうか。
あるいは、「ちょっと、待てよ・・・」でしょうか。

(中略)

今回知りたかったのは、(中略)「60歳以上のPCユーザー」です。
そして、今回の調査で得られたデータは、上手の濃い青である「60歳以上のPCユーザー、かつ、インターネットユーザー、かつ、インターネットリサーチ登録者」です。
ここで考えないといけないのが、「インターネットリサーチ登録者」の回答が、「60歳以上のPCユーザー」の実態を正しく反映すると考えていいのか?、ということです


初歩的な誤りですよね。初等統計学やリサーチに対する知識がなくても、突っ込めそうな内容です。まあ、ちょっと、脇が甘すぎでしょうか。ただ、このリクツで行くと、PC関係の調査は、郵送とか電話だけしかつかえないはず。でも、そんなに自分を律することができる調査会社ってあるのかなあ?富士通やNECからの注文を拒否する、ネットリサーチ会社ってあるのか興味あるね。

個人的には、いまさら代表性の話をガタガタ言うことに違和感を感じます。だいたい、殆どのリサーチャーは、代表性や誤差のことなど考えて、リサーチなどしないはず。
統計量なんてことば、普段使ったことないよ。

もっと問題だと思うのは、このレポートは、一体何を明らかにしたかったのかってこと高齢PCユーザーの利用実態?会社にいるオジさんたちを見てれば、この程度の結果は、想像つくんじゃない?

常識が確認されましたって?あっそ、そりゃ、よかったね
まあ、調べれば何か結果は出てくるよね。でも、安売りマクロミルでも数十万のコストが必要な調査結果は、結局、常識の上塗りだったんだよね。

簡単に言えば、街頭インタビューをもっともらしく定量的にまとめた内容なんだよね。
だから、消費者の行動に対する何の洞察もないんだよね。
その結果、戦略的マーケティング理論や、消費者行動理論を全く無視したようなレポートなのさ。
ほんと、何とかならんもんかねえ

2008-12-20

マーケティング改革

日産自動車のマーケティング改革
(経済産業ジャーナル・2007年2月号)

星野朝子(日産自動車)

http://www.rieti.go.jp/jp/papers/journal/0702/bs01.html


~スペシャリスト化により市場調査の質を向上~

では、本当に異なる立場の部門(調査部以外の部門)から(調査部が)信頼されるような情報の解釈や分析に基づく提案を行うにはどうすればよいかということ ですが、もちろん第1は情報の質を上げるということです。かつての日産では、多くの人が「顧客志向=顧客に聞くこと」だと思っていました。したがって、カスタマー調査といえば、「AとBとでは、どちらが好きですか?買いたいですか?」などという安易な調査が横行し、この調査結果によってAかBかを決めれば、顧客志向であると信じていた人も多く存在しました現在では、市場情報室が関与する多くのカスタマー調査で、このような安易な質問による判断はご法度となっています。本当の顧客志向というのは、顧客に成り代われるくらいに顧客を理解し、顧客の立場でものごとを発想することであって、カスタマー調査とは我々自身がそうなる ために存在するべきなのです。AかBかを聞くような調査をいくら重ねても、我々が本当の意味で顧客を理解するのは不可能です。


しかし、先ほども述べたように、データの解釈というのは、立場によって異なります。また、数が増えれば矛盾が生じるものです。さらに極端に言えば、調査で ある結果を出そうと思えば、それなりの結果を出すことも、不可能ではありません。このような状況では、調査と言うのは所詮、上司への説得材料であって、顧 客の立場でものごとを発想するために行うなどという発想は望めません。したがって、本当に会社全体を顧客志向にするためには、調査を担当する部署は、カン パニー志向でデータを解釈する立場を保証されていなくてはならず、かつ顧客志向を阻害するような調査をことごとく廃止できる権限を持っていなくてはなりません。

AかBかを聞くような調査をいくら重ねても、我々が本当の意味で顧客を理解するのは不可能」

だと思う。けど、現状で、この手のことを打ち合わせで言うと、周りはドン引きしちゃいますね

自分の担当から、すこしづつ取り組んでいきたいな

2008-12-18

記憶の美酒

今日は、かつての同僚との忘年会だった
ただし、この人達は、今の会社でも同僚なのだ
とういうことで、地下組織の様相を呈しているようないないような、、、、、ビミョーな感じなのです

いい感じで酔っ払いだすと、オジさんたちが愚痴りだした
というより、今の勤務先を批判しつつ、前の勤務先を賞賛しはじめた

まあ、転職して1年目
みんな、いま、踏ん張り時だよね
人は、辛い思い出を忘れる一方で、楽しい思い出だけが記憶に残る
だから、つらい人生、楽しく生きられる

数年後たてば、かつての勤務先と同じように、今の勤務先でも、楽しい記憶だけが残るのだろう
その時ようやく、今の勤務先に感情的な一体感を得られるのかもしれな

そんな感じがした年末の夜

2008-12-16

フットサル練習

会社の所属部署で、どういう経緯かフットサルチームが結成されたのが数週間前
で、今日、早めに上がって、みんなで第一回目の練習しました。

ぼく自身、フットサルをやること自体、すごく久しぶり
さらに、最近全く運動していない、、、、、

とういうことで、やっぱり全く動けませんでした

また年明けに練習するらしい、、、、

それまでに、もう少し運動しておくか

2008-12-14

富士山と五浦

先週の月~火曜に行った研修でみた富士山
(2008/12/8~9)

研修は午前中で終了。でも、富士山を見ただけで、何の観光もせずに、そのまま会社に帰りましたとさ。



で、これが、今日ふらりと行った五浦海岸の写真。
五浦観光ホテルの日帰り温泉につかって来ました。
まだ、午後も浅い時間だったので、露天風呂は貸し切り状態。ラッキーでした

トップガン

中学生の頃、この映画を見て、えらく感動した覚えがあります。トムクルーズが乗って操縦した

①戦闘機(F-14)
②バイク(たしか、カワサキのニンジャ)
③女教官(ケリー・マクギリス)、、、

すべて、かっこよかったなあ~。そして、みんな乗ってみたかった。

ところで、映画の最後の方で、領空侵犯してきたミグを撃墜するシーンがありますよね。中学生だった僕は、何千億もする戦闘機を、映画の撮影のために撃墜して大丈夫なのだろうかと、本気で心配しちゃいました。

まあ、それくらいよく出来た映像だったってことで、、、、

さてさて、この映画のオチは、領空侵犯してきたミグを、トムクルーズが撃墜する所です。でも、ミグを撃墜することが映画のオチになるのは、上映が、ベルリンの壁崩壊前の東西冷戦時代だからこそって気がしますね。

まあ、いまなら、さしづめ北朝鮮当たりのミグを撃墜するってことになるんですかねぇ~

いじめ―教室の病い


いじめ―教室の病い (単行本)
森田 洋司 (著), 清永 賢二 (著)
出版社: 金子書房; 新訂版版 (1994/06)


かつて卒論を書いたときに、この本について批判的に議論をしました。

多くいじめ本は、自分勝手な印象論に基づいた、いい加減な分析をします。そんな中で、森田さんの議論は、客観的な計量分析に基づいており、いじめ本の中では、出色のデキといえるでしょう。

議論の中心は、いじめの4層構造(加害者-被害者-観衆-傍観者)を明らかにし、いじめの発生数と傍観者の数との間に相関関係を見出したことにあ ります。そして、その分析に基づき、彼が主張するいじめ解決法では、この相関関係を根拠に、傍観者にいじめを抑止する役割を与えています。

しかし、実は、この点が、まさに問題点なのです。

まず、第一に、相関関係と因果関係とは異なります。したがって、いじめ防止策を、この相関関係に求め、傍観者にいじめ防止役割を与えることは、論理的に成立しません。

第二に、アクセルロッドのNormゲームが示すように、この手のサンクションは、崩壊する運命にあります。結論だけを言えば、違反者を罰すること自体が、ジレンマになるからです。

つまり、傍観者にいじめ抑止役割を与えることには、以上のような難点があるのです。

ただし、このような批判が成り立つとしても、やはり、いじめ本の中では、飛びぬけて完成度が高いと思います。この手の、きちんとした分析をする人が増えればいいのになあと、よく思うのですが

Kind of Blue

Jazzの水墨画

はたまた

Jazzの幾何学

シンプルなのに、単純じゃない

そんな感じです

書き込み式SQLのドリル―ドンドン身に付く、スラスラ書ける

書き込み式SQLのドリル―ドンドン身に付く、スラスラ書ける (単行本)
山田 祥寛
ソシム (2006/03)

ホントに、どんどん身につきますよ!!

やっぱり、ぼんやり参考書を見ているよりも、色々書いてみた方が、身につきますね。まあ、もっと複雑な問い合わせってあるのでしょう。しかし、ひとまず、このレベルをマスターすることが、大切なのだと思います。

SQLって、普通のプログラム言語よりも単純そうだけど、なんだかとっつきにくいよなあ、なんて思っている人に、最適だと思います。

戦略的思考とは何か―エール大学式「ゲーム理論」の発想法


戦略的思考とは何か―エール大学式「ゲーム理論」の発想法 (単行本)
アビナッシュ ディキシット (著), バリー ネイルバフ (著)
ティビーエス・ブリタニカ (1991/09)

一般向けのゲーム理論啓蒙書です
ゲーム理論を利用した意思決定方法について、たくさんの具体例を用いて説明しています。でも、さすがに啓蒙書だけあって、ややこしい数式は、一切出てきません。
といいつつも、エール大MBAコースの授業テキストだけあって、説明は、かなり論理的、かつ丁寧です

おそらく、ゲーム理論の一番のポイントは、相手の意思決定という条件下で、自分の意思決定を行う所でしょう。つまり、相手の行う(経済学的な)合理的選択を先読み推量して、自分の利得が最大になる意思決定を行うわけです

世の中、戦略を題したオヤジ本ってたくさんありますよね。おそらく、相手の合理的選択を元に意思決定を行うところが、そこいらのオヤジ本と、この 本との一番の違いではないでしょうか。オヤジ本で言う戦略とは、自分の目的が達するプランを立てることを意味することが多い気がしますので。

ところで、この本、ゲーム理論といいながら、ミクロ経済学の最近の潮流についても、結構、触れられています。聞くところによると、近年のミクロ経済学の発展は、ゲーム理論なしには成し得なかったって事ですから、当然なのかもしれませんけどね。

話題は、ミニマックス定理や、古くて新しい囚人のジレンマ、シェリングの瀬戸際戦略・交渉、アローの社会的選択論、アカロフの情報の経済学まで広がります。こんなに広範囲の話題を、楽しく、かつ分かりやすく書ける著者たちの筆力は、すばらしいの一言です!!


この本を読めば、わざわざエール大学に留学せずとも、MBA並みの戦略的思考を身につけられるかもしれませんよ

水俣病の科学

水俣病の科学 (単行本) 西村 肇 (著), 岡本 達明 (著)
日本評論社; 増補版版 (2006/07)

水俣病の原因であるチッソの排水の生成プロセスと、水俣病発生の因果関係を、化学的プロセスによって解明した本。

水俣病の原因がチッソの排水(有機水銀)であることは、周知の事実。しかし、それは、裁判と疫学調査によって証明されたに過ぎない。チッソが排出 した排水(=有機水銀)の化学的な生成プロセスと、水俣病の因果関係を解明したのは、この本が最初なのだ。そして、この本の価値は、まさにここにある。環 境問題に少しでも興味がある人に、科学的なプロセスに基づいて環境問題の理解することの重要さを教えてくれる一冊だ。

著者の視点でCriticalな所は、環境問題とは、単なる思想ではなく、科学的な問題であるという所だ。また、環境問題とは、所詮、人命や生態 のリスク管理だという点だ。その意味で、加害企業であるチッソに強い批判を与えながらも、水俣病患者を神聖視しない、西村さんの姿勢は潔い。

実は、現在の自動車排出ガス規制の化学的な根拠を与えたのも、この西村さん。ただし、その本は、日本の自動車産業によって、絶版に追い込まれ、西村さんご自身は、もう少しで東大から追い出されそうになった。

裁かれる自動車 (新書)
西村 肇 (著)
中央公論新社 (1976/01)

もっと、評価されてしかるべき人物だと思う。
そして、歴史に名を残すのは間違いない。

「心理テスト」はウソでした。 受けたみんなが馬鹿を見た

「心理テスト」はウソでした。 受けたみんなが馬鹿を見た (単行本)
村上 宣寛 (著)
日経BP社 (2005/3/30)

血液型性格診断から、あの有名なロールシャッハテストや内田クレペリンテストまで、小泉首相よろしく、心理テストをぶっ壊した本。

心理テストって、ちょっと疎かった。もちろん、テスト理論とか、実験計画の初歩は、一応、知っている。質問項目の信頼性とか、テストの妥当性とか も、概念としては知っている。だけど、個々のテスト、例えばロールシャッハテストの内容は、全然、知らなかった。そもそも、心理テスト自体、なんか怪しい 雰囲気があると思っていた。だって、本屋に並んでる一般向けの心理テスト本、ありゃ、かなりやばいでしょう。で、この本を読んでみた。やっぱり怪しかっ た。というより、臨床心理系のテストに、怪しいのがある(ってか、みなあやしい?)って言う事だった。

心理臨床の人たちが、この本に、どういう反応するか分らない。そもそも、著者の批判が、どの位当たってるのか、イマイ見当つかない。でも、ロール シャッハ研究者が行ったBlindテストの内容(p.94)や、尺度自体の妥当性や信頼性が低い(p.118)と言う主張を見ると、著者の批判が、あなが ち的外れとも思えない。その後、エクスナによって、色々と改良された尺度も作られたらしい。けど、それも、学会で、コンセンサスが得られるとも、言い難い ようだ。尺度の信頼性や妥当性が確定していない時点で、診断される患者さんは、たまったもんじゃないよな~

ただ、注意すべきなのは、「心理テストが悪い」でなくて、「当たらない心理テスト」が悪いってことだ。インクのシミを見ても、抑うつや分裂病が上 手く予測できれば、それでよい。「インクのシミで、自分の精神を判断されたらたまらない!」って言うのは、的外れだろう。(とはいっても、たまったもん じゃないんだろうけどさ)ぜひ、心理臨床家に、反論本を書いて欲しい。黙殺なんて、せこい事をせずに、堂々と批判しあえば、もっと面白い展開になるはず。 臨床心理士自ら、「経験」「現場」に引きこもってる場合じゃあないはず。

あと、心理テストですら怪しいなら、市場調査のアンケートなんて、単なるゴミを集めてるだけかもしれない。最近、そんな気がしてる。関係者、すまん。

マンガ嫌韓流―マンガ嫌韓流

マンガ嫌韓流 (ムック)
山野 車輪 (著)
晋遊舎 (2005/07)

日本が朝鮮半島を支配する大義名分を真に受けて、植民地政策をまとめなおしたマンガ本。

このマンガは、日本が朝鮮半島を支配する時に使った大義名分を鵜呑みにした、ストーリを展開します。例えば、日本が韓国の近代化を推進した、ハングルの識字率を高めた、などなど。

まあ、それ自体は事実かもしれない。だけど、それは、日本が朝鮮半島を植民地支配する時の施策の一つ。そのことがよく分かるのが、朝鮮半島出身の知事の割合の例。

このマンガによると、当時(ただし、どの当時かは不明)、知事の40%が朝鮮半島出身の人だったそうだ。この事実から、日本の植民地支配は、民主的だったと、著者は主張する(p.227)。

しかし、この話にはからくりがある。実は、朝鮮半島における日本人の人口比率は、たった3%。結局、人口の3%しかいない日本人が、知事の60%をしめていたことになる。これを支配といわずに何と言うのだろうか?

ストーリーは、この手の曲解だらけ。だから、内容は評価できない。でも、所詮マンガ。娯楽だと思えば、、、、許せるのかなあ???

まあ、いずれにしても、まったく評価に値しない。

このマンガに価値があるとするなら、次の点かなあ

「日本人から見た『韓国の反日教育』」を「日本人による『反韓思想』」として、まとめた事

かもしれない。
韓国に何の思い入れもないぼくでさえ、韓国の反日の様子を見ると、辟易することがある。まあ、著者に、そんな深い洞察があるとは思えんが。

石油で読み解く「完敗の太平洋戦争」(朝日新書 57) (朝日新書 57)

石油で読み解く「完敗の太平洋戦争」 (朝日新書 57) (朝日新書 57) (朝日新書) (新書)
岩間 敏
朝日新聞社 (2007/7/13)

石油の生産技術や備蓄・採掘マネージメントという視点から太平洋戦争を見つめなおした本。

石油に代表される戦略物資の不足が、敗戦の原因の一つだ!と言うのは、よく聞く話。でも、太平洋戦争で、石油が不足していた量を具体的に論じた話って、聞いた事なかった。

この本では、日本国が戦前に備蓄していた石油から始まり、戦中の民生向け国内石油使用量、はたまた、軍部や政府における石油の供給量・需用量の見通し、そして、敗戦間際の石油備蓄量までも、詳細に論じている。

この本で初めて知った事は、当時の満州に、太平洋戦争を遂行するために十分な産出量を有する油田が存在していたってこと。しかし残念?ながら、当 時の日本の探査技術では、その油田を発見することができなかった。結局、南方油田に頼った日本は、戦局の悪化に伴って、石油の補給ルートが寸断され、ニッ チもサッチも行かなくなってしまった。その後の展開は、周知の通り。

末期の日本は、松の根から代替石油を抽出しようと試みていたそうだ(松根油)。今ならエコな発想かな。だけど、当時はそれくらい追い込まれていた。情けないというやら、必死と言うやら、、、、。

この本の難点を一つ言えば、文章が下手ってこと(他人のことは言えないが)。読み手の能力も低いのだろうけど、いかんせん、文章が読みにくい。軍人の役職名だから仕方ないのかもしれないけど、

「第十三航空艦隊司令長官兼第一南遣艦隊司令長官兼第一〇方面艦隊司令長官」

のような、34個も漢字が連なる役職名を平然と書き連ねていたのには、辟易。あと、固有名詞の表現が一貫していない箇所も、ちらほらあった。実務 家って、この手の下手な文章書きがち。ちゃんと見直して、コンパクトな表現で主張すれば、もっと良い本になるはず。だぁーかぁーらぁー、

ホシ、みっつですぅ~

じゃんじゃん。

複雑さに挑む社会心理学―適応エージェントとしての人間

複雑さに挑む社会心理学―適応エージェントとしての人間 (有斐閣アルマ) (単行本(ソフトカバー)) 亀田 達也 (著), 村田 光二 (著)
有斐閣 (1999/12)

進化をメタ理論に採用した社会心理学の入門書。

著者たち自身は、この本を

「主張が強い青臭い本」

と評しています。確かに、一般の入門書に比べれば、格段に青臭い。しかし、とても爽快な青臭さです。

社会心理学は、当初、個人と社会との関係解明を目的とした学問でした。同調実験などは、人間が、他の人間の行動に埋め込まれていることを示すよい例です。

しかし、認知革命以来、社会心理学の研究対象は、社会的な場面における認知研究に移りました。しかし、人間が社会で生きているのであれば、認知が 社会的であるというのは、当然な話。その意味で、社会的認知という言葉は、屋上に屋根を重ねる冗長さがあってしかるべき表現だったはず。

この本で著者たちは、社会心理学は当初の問題設定にもどるべきだ、と主張します。そして、人間と社会の関係解明に「適応(進化)」というモデルを 活用することを主張します。「適応(進化)」をメタ理論に採用すると、今までバラバラに存在した社会心理学の個別理論を、一貫してうまく説明できる可能性 を、著者たちが感じているからです。そして、個別理論を一貫した理論体系でまとめることこそが、個人と社会との関係を解明することへ近づく第一歩なので す。

進化が、今後の社会心理学の主流になるかはまだ分かりません。がしかし、有望な分野であることは間違いないと思います。その足がかりとなる一冊だと思います。

オデッセウスの鎖―適応プログラムとしての感情

オデッセウスの鎖―適応プログラムとしての感情 (単行本)
R.H.フランク (著), 大坪 庸介
サイエンス社 (1995/01)

経済学的な合理的選択論の可能性を、さらに広げた本。

経験と現場(とカン)を重視する社会学(者)が、経済学(者)を馬鹿にするときに使う決まり文句がある。

「人間は、経済学が想定するみたいに、合理的な行動をしない」

たしかに、人間の行動は合理的でないかもしれない。経済学の中でも、この手の批判は昔からある。しかし、だからといって、合理的選択論の代わりに なる理論もない。そして、重要なことは、人間の行動が非合理的だからといって、合理的選択論が使えないわけでもない、ということだろう。その意味で、人間 の非合理性に対して、合理的選択論から、ひとつの見解を与えたのがこの本だ。

具体例でしめそう。

感情は、人間の行動の中でも、非合理的な部類に入ると考えられている。ことわざの「短気は損気」は、よい例だ。では、感情は本当に非合理的なのか?

実は、合理的という概念は、条件つき合理性なのだ。その意味で、合理的という概念は、最適化と近い。よって、最適化する条件が異なれば、合理的の意味は自然と変わってくるのは、当然の話だ。

著者は、合理性の条件を変えることによって、感情に対して、合理的な機能を与えてみせる。その論理展開は、鮮やかだ。

また、著者は、経済学者なのにもかかわらず、行動分析派の心理学者による実験例も引用し、自身の主張を展開する。すぐれた研究者である著者だからこそ、分野を超えて理論を展開することができるに違いない。

心理学と、ミクロ経済学は、いずれひとつの学問分野になるかもしれない。そんな予感を感じさせる一冊

恋人たちの予感〈特別編〉

とっても面白いラブコメです!!

メグ・ライアンとビリー・クリスタルの掛け合い漫才がサイコー。友人役のキャリー・フィシャーとブルーノ・カービーも、まあ、なんともいい味を出していますよね

途中でインサートされる、老夫婦の馴れ初め話もホノボノしています。

どうでもいいのですが、この映画って、アメリカ版の男女七人夏物語と、アメリカ実写版・めぞん一刻って感じがするんですよね

新・涙なしの統計学

新・涙なしの統計学 (単行本)
D. ロウントリー (著), Derek Rowntree (原著), 加納 悟 (翻訳)
新世社; 新版版 (2001/12)

数式を使わずに、統計学の基礎概念が理解できる本。

数学を勉強するときに重要な事は、数式の背後に隠れている概念や思想・構造を理解することだと思う。数学者は、数式が表す概念を、数学の本質と言ったりする。そして、まさに、この意味において、初等統計学の本質を、平易な言葉で解説したのが、この本です

ごくたまに、数式も出てきます。しかし、出てきたところで、中学生レベルの数式。でも、だからといって、本の内容が簡単ってワケでもありませんが。

ここに書かれてることは、全てではない。だけど、この本を理解しない事には、なにも始まらない、、、そんな感じですね。

見方を変えれば、著者の統計学に対する深い理解をうかがわせる、そんな一冊です。

不道徳教育

不道徳教育 (単行本)
ブロック.W (著), 橘 玲 (翻訳)
講談社 (2006/2/3)

リバタリアンの考え方を、一般向けに解説した本

著者の主張を一言でまとめると、こういうことだと思う

「社会に存在する歪みを、国家権力は解消するどころか、より酷くしている。むしろ、歪みの解消には、国家権力よりも、市場による調整の方が有力である」

社会に歪みが存在するのは、国家権力による不合理な介入があるからだ、と著者は主張する。だから、国家による介入を止め、経済的な交換に任せれば、社会に存在する歪みを消滅させることができるはず。

そのよい例が、麻薬の自由化。
国家権力による麻薬の違法化は、麻薬価格の高騰と、非合法組織(ヤクザ・ギャング)の蔓延を招いている、だからこそ、麻薬を自由化すれば、非合法 組織や、麻薬をめぐる犯罪は消滅することになる、と著者は主張する。そして、この主張は、多くの著名な経済学者によって、支持されている。

著者は、この調子で、次々と擁護できないものを擁護していく。
(Defenfing the undefendable)

見事な論理展開、と言うしかない
しかし、、、だ。

素人考えでは、交換による調整が優れている根拠は、実は、最初に、そのように定義したからではないのか、という疑問が残る。

そもそも交換が成立するには、自分が必要としている財と、他人は必要としない財とを交換することが必要。すると、交換が成り立つとき、自分の財 は、交換前よりも価値が大きくなる。よって、交換が成り立つ社会は、交換が成り立つ前よりも、社会全体の価値も大きくなるのは当然。そして、その結果を指 して、市場が効率的というのではないのか。

だとするならば、市場が効率的なのは、交換を許したことによる必然的な結果といえないか。

もし、この理屈が、それなりに正しいのであれば、国家による介入よりも、市場における自由な交換が効率的だということをあえて言うことに、ほとんど意味はない。そもそも、そのように定義しただけだから。

他にも突っ込みたいところはたくさんある
でも、まあ、あまり言うのも野暮な気もする。

とはいえ、面白い本であることは、間違いない。

ところで、国家権力の介入を執拗に批判する著者の姿勢に、マルクス主義(的フェミニスト)の幻影を見たのは、僕だけだろうか。もちろん、両者が目指すありうべき社会の形は、あまりにもかけ離れたものであるのだが。

Mary - Mary J Bridge

正しいR&Bを体現したアルバム

おそらく、コンセプトとしては、70年代後半のR&B。しかし、まったく古臭さを感じさせない。そして、非常にソウルフル。

共演者もこれ以上ないほど豪華。
日本で言えば、紅白歌合戦のトリを飾るような大御所とのコラボは、まさに圧巻!!

何度聴いても、まだ聴き足らない、そんな感じ。

つきあい方の科学―バクテリアから国際関係まで

つきあい方の科学―バクテリアから国際関係まで (Minerva21世紀ライブラリー) (単行本)
R. アクセルロッド (著), Robert Axelrod (原著), 松田 裕之 (翻訳)
ミネルヴァ書房; 〔新装版〕版 (1998/05)

言わずと知れた、社会科学の名著です。たぶん、社会科学と生物学の橋渡しをした最初の本だと思います。

この本のキモは、「なぜ、人は協力行動をとるのか?・あるいは、なぜ社会はかくあるのか?」って所でしょう。

ところで、互恵性利他主義(Reciprocal Altruism)を所与とする社会科学は、とても多いですよね。しかし、互恵性利他主義は、これを所与とするには、あまりにも強力な概念です。というわ けで、この性質自体の成立を問う必要がありるはずです。そして、この互恵性利他主義こそが、社会の本質の一つと言っても良いと思います。

で、そんな、互恵性利他主義の戦略的根拠を解明したのが、この本です。著書は、互恵性利他主義の成立基盤を、囚人のジレンマと言うモデルを用いて 解き明かそうとします。話は変わりますけど、僕にとって、彼が行った囚人のジレンマ選手権は、とられる戦略の合理性を解き明かしたというよりも、戦略を考 えた学者の心理を解き明かしたという方が、しっくりくるんですよね~。

ビジネス書にありそうな表題によらず、素晴らしく科学的な本です。でも、素晴らしく科学的な内容なのにも関わらず、表現自体は、結構、俗人的で親しみやすかったりします。人間の心理に興味がある人は、この手のアプローチを知っていて損ではないと思いますよ。

仕事のなかの曖昧な不安―揺れる若年の現在

若者の雇用問題を、世代間の利益配分という視点から問題提起した本

貧困とは無縁な社会で、「仕事における曖昧な不安」が若者に渦巻いている、そして、この「曖昧な不安」が、若者の就労意識や行動に、大きな影響を与えている、と著者は主張します。

原因は、バブル崩壊後の雇用調整が、中高年のリストラではなく、若者の就労環境の悪化として現れたことにあります。その結果、正社員への就職すら かなわない若者だけでなく、人員減で過酷な労働を担う、正社員として働く若者までもが、将来への希望が持てなくなっている。そして、将来に希望が持てない ことが、すなわち「曖昧な不安」なのだ、、

従来、若者の失業問題は、就労に対する意識(=やる気)の問題と考えらていました。しかし、著者は、データ分析を用いて、若者の失業問題を、世代間の資源配分の問題として捉えなおします。

ところで、僕は、1997年に初めて新卒として就職しました。そして、今の会社で、3社目です
その間、2回の事業撤退を目の当たりにし、その内1回は、解雇されました。

そんな、サラリーマン人生の多くが、不況の記憶しかない僕は、働くことに若者が希望を持てないという著者の主張は、頷けるものがあります。それと同時に、自分で自分のボスになる、つまり、会社には従属しないという考え方も、凄く共感できます。

高度成長期のように、会社が人生を面倒を見てくれるというのは、古きよき時代の記憶に留めるしかないのでしょう。

実践力を鍛える戦略ノート マーケティング編

実践力を鍛える戦略ノート マーケティング編 (単行本)
原田 勉 (著)
東洋経済新報社 (2006/04)

マーケティング概念の使い方を教えてくれる、とっても貴重な本

この本を読むまでは、マーティング理論の価値が、全く分からなかった。実は、今までも、何冊かマーケティング本って読んだことあった。でも、マーケティング本って、分かりきったことを、エラソーに書いてあるようにしか思えなかった。

でも、この本を読んで、マーティング理論に対する見方が変わった。他の本とこの本の違いは、マーティング概念間の有機的な関係が、分かり易く書か れているところにある。だから、この本を読むと、マーケティング概念の使い方が、とてもよく分かる。さらに、集めるべきデータ形式と、その分析方法を例示 した上で、演習問題にすすむ構成は、まさに実践力を鍛えるという題名にウソ偽りはない。

初学者が最初に読むべき本として、最適だと思う
それは、自分自身が初学者だからこそ、身にしみている

物理学者、ウォール街を往く。―クオンツへの転進

物理学者、ウォール街を往く。―クオンツへの転進 (単行本)
エマニュエル ダーマン (著),
東洋経済新報社 (2005/12)

物理学でポスドクをやっていた著者が、研究者への道をあきらめて、ウォール街へと転進した話。

正直な話、物理学やデリバティブの内容を、
僕程度の頭では、よく理解できませんでした

が、自然科学から社会科学へ身を翻した著者が持つ
モデル観には、もの凄く共感しました

社会科学では、(物理学のような)自然科学が構築する高い予測力を持つモデルは作れない、と著者は言います。

なぜか?

物理学は、神が創造したルールを解くことこそがモデルを作ること。神が創造したルールは、難解かもしれない。が、ルールが一貫していることは確信できる。
だから、ルールを解ければ、高い予測力を持つモデルが作ることができる。高い予測力こそが、正しいモデルの証明だ。

一方、社会科学は、どうか?

社会科学では、人間の行動をモデル化する。しかし、行動の一貫性など、全く期待できない。つまり、ルールなど存在しない。だから、自然科学のような、予測力の高いモデルは構築できない。近似ができれば、御の字だ。

さらに、社会科学におけるモデルの正しさは、専門家集団によるコンセンサスの問題に帰着している、、、

では、社会科学におけるモデルは、無意味なのか?

そうではないだろう。

限界と有効性を念頭に置きながらモデルを使うことこそ、科学的なアプローチなのだ。その意味で、モデルの有効性を、盲目的に信じるのも、信じないのも、本質的には大差ない。

そして最も重要なことは、モデルが使えないからと言って、カンや文学に戻ってはいけない、ということだ。

ビジネスで、ある種の社会科学に携わる人は、この本を読んで、絶対に損でないはず、と強く思いました。

地球温暖化論のウソとワナ

地球温暖化論のウソとワナ (単行本(ソフトカバー))
渡辺 正 (著), 伊藤 公紀 (著)
ベストセラーズ (2008/4/26)

地球温暖化論とは、何なのかを考えさせる本。

著者たちは、二酸化炭素が増加しているという事実を認めた上で、次の3点を主張します

(1)現在の温暖化論は、二酸化炭素の温室効果を
過大に見積もっている。温室効果の点で言えば
もっと注目すべきガスは、他にもある

(2)温暖化論の火付け役となった数値シュミレーション(温暖化モデル)の結果は、皆が信じるほどアテになるものではない。そもそも、計算に用いた観測データ(気温)の妥当性自体がアヤシイ。

(3)現在の温暖化は、気候変動の一部。過去にも、現在と同程度の気候変動は何度もあった。
じつは、二酸化炭素が増加している真っ只中の1970年代の科学者は、地球が氷河期に向かっていることを心配したことがあった。

どうも、この本を読む限り、温暖化が人為由来なのか、さらに、そもそも地球温暖化自体が事実なのか、と言うことについて、科学者の間で強い合意があるわけではないようだ。

むしろ、現在の温暖化論は、温暖化を主張して得する人達(政治家・マスコミ・温暖化論を主張する科学者)が、自分の名誉や利益を得るための道具となっている、、、

なかなか刺激的な主張です。
その意味で、地球温暖化論は、常温核融合のような
科学スキャンダルになりうる、という著者たちの主張も頷けます。

ただし、「利益が付随する主張は間違っている」という主張は、ヘンだと思いました。
というのも、「利益が付随する主張」でも、社会がよりよい方向へ向かえばよいからです。むしろ、「利益が付随する主張」から利益を得ることで、より良い社会を実現することが重要なのだろうと思います。

疑問だったのは、本当に、このまま二酸化炭素の増加を、完全にムシしてよいのか?と言うこと
気候変動には関係ないとしても、二酸化炭素増加自体の
アセスメントは必要な気がしました

あと、内容が立派なだけに、ゴア本の批判は、
かえって主張を貶めている気がしました

企業を高めるブランド戦略

企業を高めるブランド戦略 (講談社現代新書) (新書)
田中 洋 (著)
講談社 (2002/09)

ブランド戦略に対する著者の経験を、それっぽくまとめた本。

近年、マーケティングの世界では、ブランドこそが、商品を売る上で重要な要因だとよく言われます。

なぜか?

僕の考えでは、従来の(コトラー流の)マーケティングとは、いわゆる流通戦略と商品戦略のこと。実際、コトラー流のマーケティングテキストを読むと、4PとSTPが話の中心だ。

ところが近年、この論理構造に抜けている視点があると言われだした。それが、

「生活者の情緒と便益」

と言う視点だ。
コトラー流のマーケティングは、ある意味で論理的。
STPや4Pに、情緒が入り込む余地は、あまりない。
しかし、商品を使う生活者は、情緒のカタマリ。
情緒のカタマリの生活者は、情緒を伴った便益で商品の良し悪しを判断する。だったら、商品の起点を、生活者の情緒による便益に求めればよい。、生活者の便益をブランド思想の中で代弁する、これこそが、ブランド論の根拠だろう。

この本では、著者の企業人としての豊富な経験から、
成功するブランドの条件を簡潔にまとめている。
なるほど、と思わせる事例も多いし、話は具体的だ

がしかし、、、

ブランド論こそが、本当に商品が成功するための条件なのかは、この本からは全く分からない。
確かに、成功したブランドの事例も多くあげられていた。
しかし、ブランドの成功と商品の成功を、こんなにも
単純に結び付けられるのか、大きな疑問が残った
その意味で、この本を読んで明らかになったのは、著者はブランド論を信じている、ということだけだった。

まあ、こんなもんかもしれない。

蟻の兵隊―日本兵2600人山西省残留の真相

蟻の兵隊―日本兵2600人山西省残留の真相 (単行本)
池谷 薫 (著)
新潮社 (2007/07)

日中戦争後に、国民党へ引き渡されて共産党と戦った日本兵の話。

話は、ポツダム宣言受諾後から始まる。敗戦直後、中国大陸へ侵攻していた日本兵の帰還が始まった。しかし、山西省に侵攻していた日本兵の一部は、 なぜか現地逃亡という名の残留を命じられる。残留日本兵は、山西省の国民党軍閥である閻錫山へと引き渡され、中国共産党との戦いに巻き込まれてしまっ た、、、、。なんとか、生き残り日本に帰って来た日本兵も、日本政府から、現地逃亡兵の扱いを受けている。

この本では、なぜ、残留日本兵は、敵である中国国民党軍として、同じく敵の中国共産党と戦ったのか?、そして、彼ら自信の強い意思で、現地逃亡を決断したのか?、という疑問に迫っていく。

じつは、この不可思議な事実の背景には、中国国内での国民党と共産党との対立と、両者のアンバランスな軍事力にある。日中戦争のとき、国民党と共 産党は、協力して日本軍と戦った。しかし、日本が降伏した直後から、両者の覇権争いが再燃。その覇権争いに日本軍を利用したのが、共産党軍より軍事的に劣 る国民党だった。

驚くべきことに、日本制圧地域の獲得を狙った蒋介石は、ポツダム宣言受託後の日本軍に、中国共産党軍による武装解除を拒否することを命じる。さら に、武装解除の拒否により中国共産党軍から攻撃を受けた場合は、攻撃の撃退をも命じた。また、山西省にいた日本兵を現地逃亡の名で獲得したのが山西省の国 民党軍閥の閻錫山である。彼は、戦犯容疑の恐れがある日本軍の高級士官を、自信の軍隊へ日本軍を取り込むために、次々と懐柔していった。

「事実は小説より奇なり」という言葉がある
この言葉が似合う本は、これをおいて他におもいつかない。蒋介石、毛沢東、閻錫山、日本軍高級士官、河本大作など、、、戦前の超大物軍人が、それぞれの思惑で謀略をめぐらす様子は、複雑怪奇としか言いようがない。
そして、これほど複雑怪奇な話を、僕は今まで聞いたことがない。

これもまた、戦争が生み出す悲劇なんだろう。
そうとしか言いようがない。

株式投資入門

株式投資入門 (ビジネス・ゼミナール) (単行本)
井手 正介 (著)
日本経済新聞出版社 (2008/03)


ファンダメンタルズ分析の入門書

世の中には、「株に投資して一儲け」をうたった本って、たーーーくさんある。
でも、どれも、これも、物凄くウソ臭い。
そもそも、儲かる方法を、わざわざ他人に教える理由自体が疑問。大体、お手軽な金儲けを教える著者が、他人を利するようなマネするワケないじゃんかあ~。

が、この本はさにあらず
株式投資を行うための分析方法を、じっくりと解説しています。投資対象である株式と株式配当が、企業活動から、どうやって生み出されるのか?、そして、株式リターンを、投資金額と企業価値に基づくて、どうやって評価するのか?をやさしく解説しています

といっても、お手軽な読み物ではありません
むしろ教科書的な内容
進んだり戻ったりしながら、じっくり読み進むべき本
でも、それだけの価値はある

投資初心者が最初に読む本、とアマゾンに書いてありました。

マーケティング・ベーシックス

マーケティング・ベーシックス―基礎理論からその応用実践へ向けて (単行本)
日本マーケティング協会 (編集)
同文舘出版; 第二版版 (2001/03)

マーケティング協会でおこなう基礎コース用のテキスト

会社でマーケティング部門に初めて配属された人が、マーケティングの概要を掴むために書かれた本。だから、戦略的マーケティング理論の紹介から始まり、STP、4P、消費者行動理論、さらに、サービスマーケティングまで、基礎理論が網羅されています。

内容は、本当に教科書的。でも、この本の価値を本当に理解できるのは、理論を戦略構築のために使いこなせるようになった時なのかもしれない、そんな感想を抱かせる一冊。

エクセルオブジェクトを変数に取り込む方法

エクセルシートを、Worksheetオブジェクトに代入して、連続的に取得する技
いちいち
Applcation.Workbooks(1).Worksheets(1).delete
と書くのって面倒

Dim mysht as worksheet

とオブジェクト変数を宣言しておいて

Set mysht = Application.Workbooks(1).Worksheets(i)

と、オブジェクト変数に、Worksheetオブジェクトをゲットしておけば

mysht.delete

とコードの作成が簡単
しかも、Worksheetオブジェクトに代入しているから、コードの補完機能も利用できる。まあ、With文でも書けるけど。
でも、なんとなく、こっちの方がスキ。

====================================================

Sub Get_worksheet()

Dim i As Integer
Dim j As Integer

'worksheetsではなく、worksheetをオブジェクトに指定する
Dim mysht As Worksheet

'WorkbooksにあるWoeksheetsの数をカウント
(Worksheetsコレクションのメソッド)
j = Application.Workbooks(1).Worksheets.Count

For i = 1 To j - 1
'worksheetオブジェクトに、Worksheetsオブジェクトの番号を指定して代入。
Set mysht = Application.Workbooks(1).Worksheets(i)

'警告を非表示
Application.DisplayAlerts = False

'例えば、シートを削除してみる
mysht.Delete

'一応、オブジェクトを開放
Set mysht = Nothing

Next i

MsgBox ("終了")

End Sub

====================================================

こんな感じデス。

Access VBAでExcelシートを操作するTips

アクセスのクエリーで抽出したデータを、エクセルシートに貼り付けることって結構ある。でも、データの種類が沢山あると、作業が怖ろしく大変。

しかも、悪いことに、この手の作業って簡単だから、誰でも出来ちゃう。その結果、一生懸命やったところで、出来て当たり前って顔されて、アホみたい。

そこで、クエリーからのデータの抽出を、SQLをループで生成して、そのつど、アクセスのモジュールで生成したエクセルのインスタンスを通じて、 エクセルシートにクエリーの結果を出力できれば、超簡単。しかも、正確。その上、早い。クエリーの結果を、エクセルシートに出力するのが、テクニックのポ イント。マクロで、クエリーの結果をエクセルシートに出せるけど、あれだと、クエリーの条件を連続的に変えられないし、シート名も指定できないから、不 便。

(事前準備) 
事前バインディングを設定する
(モジュール→ツール→参照設定→Microsoft Excel 11.0 Object Libraryにチェック)

(注意)
実行時バインディングだと、コードの補完機能が効かないので、不便。事前バインディングの方がよい。


---------------------------------------------------

Public Sub OutPut_to_xls()

'エクセルへのインスタンス
Dim xlapp As Excel.Application
Dim mysht As Worksheet

'制御変数
Dim i, j As Integer

'レコードセット関係
Dim rst As ADODB.Recordset
Dim cn As ADODB.Connection


'========================================
'プログラムの開始
'========================================


'各種インスタンスを確立
Set rst = New ADODB.Recordset
Set cn = CurrentProject.Connection
Set xlapp = New Excel.Application


'========================================
'エクセルの操作
'========================================


'フルパスを指定してエクセルを開く。その後、新シートを追加
With xlapp
.Workbooks.Open ("J:\My_files\CreateObject\test.xls")
.Worksheets.Add
End With

'(注!!)Activeworkbook.Activesheetをつかうと、エクセルのインスタンスを閉じることが出来ないから、つかっちゃ だめ。コレがわからなくて、エクセルインスタンスが閉じず苦労した!!これって、MSのバグだよね。つめり、Activesheetを
'Set mysht = ActiveWorkbook.ActiveSheet
'って設定するとダメデスYo!


'インデックスを指定して、シートオブヘクトへ代入しよっと
Set mysht = xlapp.Workbooks(1).Worksheets(1)
'シート名を指定(重複するとエラーだよ)
mysht.name = "test5"

'レコードセットを開く
rst.Open "crs1", cn, adOpenKeyset, adLockOptimistic


'表頭をコピー(Cellプロパティーを使うと、エラーを出す噂も・・・・)
For i = 0 To rst.Fields.Count - 1
mysht.Cells(1, i + 1).Value = rst.Fields(i).name
Next i

'レコードセットの内容をコピー
mysht.Range("A2").CopyFromRecordset rst

'CopyFromRecordsetを使わない方法
'まずクエリーの最終列まで、Fieldプロパティーのインデックスを使ってアクセス。その後、次の行へカーソルを動かす。これを、最終行まで繰り返す。EOFがTrueになったら、ループ脱出。
'j = 2
'rst.MoveFirst
'Do Until rst.EOF
' For i = 0 To rst.Fields.Count - 1
' mysht.Cells(j, i + 1) = rst.Fields(i)
' Next i
' rst.MoveNext
' j = j + 1
'Loop


'==================================
'ここから先は、終了処理
'==================================


'レコードセットと、接続を閉じる
rst.Close
cn.Close

'エクセルシート関係も保存して閉じる
'保存する時は、インデックスをちゃんと指定しましょう
xlapp.Workbooks(1).Save
xlapp.Workbooks.Close
'エクセルインスタンスを閉じる
xlapp.Quit

'各種インスタンスを開放
'(ちゃんと開放しないと、メモリーにゴミが残っちゃうよ)
Set rst = Nothing
Set cn = Nothing
Set mysht = Nothing
Set xlapp = Nothing

End Sub

---------------------------------------------------

(備考)
エラーが出現したら、エラートラップで、エクセルのインスタンスを終了しないとダメ。じゃなきゃ、エクセルの

ロジスティック回帰4

さて、今回は、多重ロジスティック回帰を勉強します
多重とつくと、オドロオドロしいのですが、まあ、重回帰分析みたいなものです。つまり、複数の独立変数それぞれの、目的変数に対する効果を、計算するというだけのことです。

こういうと、何だか単純な話ですね。まあ、単純な話なのですが
ただし、理論まで単純かどうかは、僕の力では分かりません。

そんなわけで、早速、分析してみましょう
今まで、カブトガニのメスにツガイのオスがいるかどうかを、カブトガニのメスの甲羅の幅から推測してきました。その結果、甲羅の幅が大きいほど、ペアとなるオス、つまり、彼氏がいる確率が高そうだ、と言うことが分かりました。

さて、ツガイのオスがいる確率は、メスの甲羅の幅だけに影響されているのでしょうか。
一般に、カブトガニのメスは、甲羅の色が明るいほど、若いそうです。
そこで、甲羅の色が、ツガイとなるオスがいる確率に依拠するかを確認してみます。人間の女の子は、若いほど価値があるような気がしますが、カブトガニでもそうなのか、確認してみましょう。

==========================================================

もう一度、データ行列を確認します

No. color spine width satell weight
1 3 3 28.3 8 3050
2 4 3 22.5 0 1550
3 2 1 26 9 2300

そうこんな感じでした。
さて、今回は、colorを、説明変数に取り込みます
ただし、colorを質的変数として扱うので、colorからダミー行列を
作成します

ダミー行列としては、こんな感じになります

No. bright mid mid.dark
1 0 1 0
2 0 0 1
3 1 0 0
4 0 0 1
5 0 0 1

colorは、2-5の値をとる変数でした
また、2が一番明るくて、数が大きくなるほど、色が暗くなります
そこで、この4つの水準を、bright,mid,mid.darkの4つの変数として再表現します。つまり、あるレコード、つまり、カブトガニの個体のcolorが、2ならは、brightが1になると言う感じで、質的変数に変換します

なお、colorの5番目の水準がないと思うかもしれません
がしかし、それは、質的変数が全てゼロの場合に相当しますので
大丈夫です

ちなみに、colorを質的変数に変換するのは、こんな感じで、処理しました。まず、ダミー行列xを使って

for (i in 1 : 4){
for(j in 1 : 173){
if(crab.data$color[j]== ( i + 1 ) ){
x[j,i] <- 1
}

else{
x[j,i] <- 0
}
}
}


color変数を質的変数に変換しておきます
その上で、ダミー行列xをこんな感じで、もとのデータ行列に足しておきましょう

crab.data <- data.frame(crab.data,x)

さて、これで準備は整いましたね
さっそく、多重ロジスティック回帰を行います

glm(formula = satell.flag ~ width + bright + mid + mid.dark,
family = binomial)

とすれば、計算できます
いつものように、結果を確認します

> summary(m.glm.result)

Call:
glm(formula = satell.flag ~ width + bright + mid + mid.dark,
family = binomial)

Deviance Residuals:
Min 1Q Median 3Q Max
-2.1124 -0.9848 0.5243 0.8513 2.1413

Coefficients:
Estimate Std. Error z value Pr(>|z|)
(Intercept) -12.7151 2.7617 -4.604 4.14e-06 ***
width 0.4680 0.1055 4.434 9.26e-06 ***
bright 1.3299 0.8525 1.560 0.1188
mid 1.4023 0.5484 2.557 0.0106 *
mid.dark 1.1061 0.5921 1.868 0.0617 .
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

(Dispersion parameter for binomial family taken to be 1)

Null deviance: 225.76 on 172 degrees of freedom
Residual deviance: 187.46 on 168 degrees of freedom
AIC: 197.46

Number of Fisher Scoring iterations: 4

なるほどって感じです
式で書けば、

logit(π) =-12.7151+ 0.4680*width+1.3299*bright+mid*1.4023+mid.dark*1.1061

です。
ちなみに

logit(π)=ln[π/(1-π)]

のように、定義されています。

要するに、甲羅の色が明るくなると、それなりに、ツガイのオスが増えるようです。ただし、明るい色の間だけでは、甲羅の色の効果は、それ程強くないようです

続いて、尤度比検定の結果を確認します

> anova(m.glm.result,test="Chisq")
Analysis of Deviance Table

Model: binomial, link: logit

Response: satell.flag

Terms added sequentially (first to last)


Df Deviance Resid. Df Resid. Dev P(>|Chi|)
NULL 172 225.759
width 1 31.306 171 194.453 2.204e-08
bright 1 0.084 170 194.368 0.771
mid 1 3.259 169 191.109 0.071
mid.dark 1 3.652 168 187.457 0.056


たしかに、甲羅の幅は、よく効いています
また、甲羅の色が明るいということ自体、つまり、bright+mid+mid.darkは、widthだけに比べても、少ないながらにも効果が ありそうです(6.995 P<0.07)。しかし、明るい色の間で効果があるかといわれれば、何だかビミョーってのが、正直な所でしょう

では、この結果を、グラフで確認します
前と同じように、予測確率を、プロットします
ただし、今回は、甲羅の色ごとに予測確率をプロットします

まず、予測確率を、こんな感じで計算しておきます

>exp(-12.715+0.4680*crab.data$width+1.3299*crab.data$bright)/(1+exp(-12.715+0.4680*crab.data$width+1.3299*crab.data$bright))

この結果を、元のCrab.dataあたりにでも、記憶させましょう
もちろん、この計算を、甲羅の色ごとにおこないますよ

さて、計算が終わったら、グラフ化します

> plot(width[width.order],fit.bright[width.order],xlim=c(21,34),ylim=c(0,1),xlab="",ylab="",type="l")

> par(new=T)

> plot(width[width.order],fit.mid[width.order],xlim=c(21,34),ylim=c(0,1),xlab="",ylab="",type="l",col="red")

> par(new=T)

> plot(width[width.order],fit.mid.dark[width.order],xlim=c(21,34),ylim=c(0,1),xlab="",ylab="",type="l",col="skyblue")

> par(new=T)
> plot(width[width.order],fit.dark[width.order],xlim=c(21,34),ylim=c(0,1),xlab="Crab.Width",ylab="Probability",type="l",col="navy")

たぶんこんな感じです
で、その結果が、上のグラフです。
たしかに、甲羅の色が明るいと、区別が付かないように見えますね

====================================================
カテゴリカルデータ解析入門
Alan Agresti
サイエンティスト社

p.171あたりに挑戦

次回は、モデル選択に挑戦します

=====================================================

さて、今回は、上に加えて、回帰木にも挑戦しました
回帰木とは、SPSSで言う所のAnswer Treeってヤツです
一般的には、決定木(Desicion Tree)と言うほうが解り易いかもしれません

その結果が、上の画像です
crab.cateとありますが、これは、甲羅の幅を、小さい方からカテゴリー変数にしたものです

あんまり、よく理解していないのですが、

>par(xpd=T)
> plot( rpart(satell.flag~width.cate+color,crab.data),unifor=T,branch=0.7,margin=0.05)
> text( rpart(satell.flag~width.cate+color,crab.data),use.n=T,all.leaves=F)
>

な感じで計算しました
画像に出ている、a,b,c,d,e,f,g,hは、甲羅の幅のカテゴリーで、

"23.24""23.25-24.25" "24.25-25.25" "25.25-26.25" "26.25-27.25" "27.25-28.25" "28.25-29.25" "29.25"

と言う風に分類されています
まあ、何となくうまくいった感じですね

結果をざっくり解釈すると、
ツガイとなるオスがいる確率が高いのは、甲羅の色が明るい=若いメスで、かつ、甲羅の幅が広い個体。甲羅の幅が広くても、甲羅の色が暗い=年寄りのメスは、ツガイとなるオスが少なくなる
年寄りのメスにオスがいる確率は、甲羅の幅が非常に小さいメスと同程度

こういうと怒られそうですが、
なんだか、カブトガニの世界も、人間の世界と同じですね
女の子は、若い方が価値があるのは、進化の結果なのかも知れません


===========================================
Rでまなぶデータマイニング
熊谷悦生ら
九天社(2007)

P.106あたりを挑戦

この本は、Rに慣れるにはいいけど、
計算方法学ぶには、不適切
計算原理とか、計算の応用方法は、完全無視
その意味で、計算原理を知ってる人向けだね

他の本を読め、ってことか

あと、さっそく、某データを使って、分析してたら
スゲーーー当たり前の結果が出てしまった、しらけてしまった
まあ、使い手の技量不足を露呈しましたってことですね

また、そのうち、がんばります


===========================================

ロジスティック回帰3

前回は、残差分析を行うといいつつ、予測値の信頼区間をもとめてしまいました。さて、今回は、前回の課題であった、残差分析を行います

まず、モデルの全体的な当てはまりは、次の式を用いて確認することが出来ます

(1) X^2 = Σ(観測度数 - 当てはめ値)^2 / 当てはめ値

(2) G^2 = 2Σ(観測度数)ln(観測度数 / 当てはめ値)

(1)は、普通のカイ二乗分析と同じです。式を見れば分かるとおり、(1)であらわされるカイ二乗統計量が小さければ小さい程、モデルがデータに良く当てはまってることが分かります。このときの自由度は、

カテゴリー数 - モデルのパラメータ数

で与えられます

(2)は、パラメータを計算する尤度比に基づく方法です。こちらも、カイ二乗分布に従います
ここで重要なことは、(1)も(2)も大標本下で、カイ二乗分布に従うということです。よって、前回計算したように、独立変数が、ほぼ連続変数の場合、この適合度検定は、不適切です。

と言うことで、今回は、独立変数を、カテゴリカルな変数に変換した上で、 モデルを再度当てはめます。その上で、個々のカテゴリーに対して、ピアソン残差を計算し、その結果が、(1)と一致することを確認します。

============================================================
まず最初に、忘却の彼方にあるデータ形式の確認

head(crab.data)
color spine width satell weight satell.flag width.cate
1 3 3 28.3 8 3050 1 28.25-29.25
2 4 3 22.5 0 1550 0 23.24
3 2 1 26.0 9 2300 1 25.25-26.25

そう、こんな感じでしたね。
さて、一番右端の変数ごとに、widthの平均値を取る

> aggregate(crab.data$width,list(y=crab.data$width.cate),mean)
y x
1 23.24 22.69286
2 23.25-24.25 23.84286
3 24.25-25.25 24.77500
4 25.25-26.25 25.83846
5 26.25-27.25 26.79091
6 27.25-28.25 27.73750
7 28.25-29.25 28.66667
8 29.25 30.40714

xが、カテゴリーの平均値です。これを、独立変数にします

NofRec NofSatell SampleRatio width.cate width.mean
23.24 14 5 0.3571429 23.24 22.69286
23.25-24.25 14 4 0.2857143 24.00 23.84286
24.25-25.25 28 17 0.6071429 25.00 24.77500
25.25-26.25 39 21 0.5384615 26.00 25.83846
26.25-27.25 22 15 0.6818182 27.00 26.79091
27.25-28.25 24 20 0.8333333 28.00 27.73750
28.25-29.25 18 15 0.8333333 29.00 28.66667
29.25 14 14 1.0000000 29.25 30.40714

最初のデータから、こんな感じのデータを再作成しておいて、
widht.meanを独立変数、SamplRatioを目的変数とするモデルを当てはめます。ただし、今回は、目的変数に確率を与えるので、ウ エイトにレコード数(=サンプル数)を、当てておきます。でないと、計算してくれません。変数をアタッチしておけば、後が楽ですね

> attach(crab.category)
> glm(SampleRatio~width.mean,weights=NofRec,binomial)

結果は、こんな感じ

Call: glm(formula = SampleRatio ~ width.mean, family = binomial, weights = NofRec)

Coefficients:
(Intercept) width.mean
-11.5330 0.4654

Degrees of Freedom: 7 Total (i.e. Null); 6 Residual
Null Deviance: 34.03
Residual Deviance: 5.956 AIC: 33.14

パラメーターも、前回と殆ど変わりません
良かったですね

さて、ここで、尤度比検定を確認しましょう
ここでは、β=0としたとき尤度比と、そうでない時の尤度比との差を計算することで、当てはまりのよさ、つまり逸脱度(deviance)が検討できます
まず、β=0としたとき尤度比が

Null Deviance: 34.03

です。ちゃんとNullと書いてあります
またβ≠0の時の逸脱度が

Residual Deviance: 5.956

です
つまり2つの差

Null Deviance - Residual Devian

こそが、βの効果と言うわけです
で、この差は、

34.03 - 5.956 = 28.074

は、2つのモデルの自由度の差(7-6=1)のカイ二乗分布に従います
とうぜん、婚だけ大きな数であれば、1%未満で、βは有意です
glmの計算結果を変数に入れておいて、anovaを実行すれば、
引き算するまでもなく、同じ結果を返してくれます

> anova(crab.category.result, test="Chisq")
Analysis of Deviance Table

Model: binomial, link: logit

Response: SampleRatio

Terms added sequentially (first to last)


Df Deviance Resid. Df Resid. Dev P(>|Chi|)
NULL 7 34.034
width.mean 1 28.078 6 5.956 1.165e-07


devianceが28.078で、ちゃんとあってますね
p値もとっても小さいのでOKです
さて、尤度比による全体の当てはまりが確認できました。
当てはまりの確認は、ピアソン残差でも計算できます
ピアソン残差とは、個別のデータに対して計算します

ei = (yi - niπi) / sqrt(ni*πi(1-πi))

そして、

x^2 = Σei^2

となります。
なんだか、わけの分からない式ですね
でも、しょうがないです。あきらめましょう
glmを当てはめたデータの右端に、予測確率のfittedを付けておきました

NofRec NofSatell fitted
23.24 14 5 0.2745370
23.25-24.25 14 4 0.3925719
24.25-25.25 28 17 0.4993264
25.25-26.25 39 21 0.6206342
26.25-27.25 22 15 0.7181918
27.25-28.25 24 20 0.7983565
28.25-29.25 18 15 0.8591791
29.25 14 14 0.9320432


このデータから、ピアソン残差を計算してみます
それが、こんな感じです

peason.resid <- (NofSatell-NofRec*fitted)/sqrt(NofRec*fitted*(1-fitted))

[1] 0.6925753 -0.8187713 1.1410233 -1.0575784 -0.3792288 0.4270668 -0.3152460 1.0103285

つづいて、二乗和を計算します

sum(peason.resid^2)
[1] 5.016797

この値が、式(1)と同じになるはずです
ということで、この値は、カイ二乗分布に従います
今回は、P=0.4位になって、当てはまりはオッケーです

長くなりましたが、こんな感じです。
なお、ピアソン残差に、てこ比を当てた値を標準化残差といいますが、テキストに式が載ってませんでした。なお、標準化残差は、正規分布に従うそうです。でも、今回は、無視ですわ。
AICは、そのうちって感じですかね。

次回は、多重ロジスティック回帰モデルにチャレンジします

=========================================================
カテゴリカルデータ解析入門
Alan Agresti
サイエンティスト社

のp.153~p.163あたりを挑戦

(感想)
(1) X^2 = Σ(観測度数 - 当てはめ値)^2 / 当てはめ値

式の値が合わなくて苦労した
結局、あわずじまい
でも、テキストが間違ってる気がする

というのも、(1)のX^2は、ピアソン残差の2乗和と一致する
実際、ピアソン残差は、x^2と一致した。
で、ピアソン残差の分母は、標本数に、2項分布の標準偏差をかけたものなのに、(1)式の分母は、単なる当てはめ値としか書いてない
だから、計算が合わなかった。

たぶん、(1)の分母は、ピアソン残差の平方根のことだと思う

ロジスティック回帰2

前回は、ロジスティック回帰モデルの概念を説明した上で、カブトガニの甲羅の幅を説明変数とする、単項ロジスティック回帰モデルを当てはめました。で、当てはめた上で、予測値を計算して、グラフにプロットしました。

とりあえず、前回で、データにモデルを当てはめることは出来ました。
でも、データを使って計算できる事と、計算に用いたモデルが、データに当てはまってる事とは、全く別問題です。
言い換えれば、数字とデータ形式さえ合えば、計算することなんて簡単です。なんせ、計算するのは、人でなくてコンピューターですもん。
と言うわけで、当てはめた統計モデルが、データと整合性があるかを、今回はチェックしてみます

長々と書きましたが、簡単に言えば、回帰分析でいう回帰診断とか、残差分析と同じことです。

まず、前回の計算結果は、こんな感じでした
ただし、今回は、corパラメータを指定して、coefficient内の相関係数も出力しています

===============================================================
>summary(crab.result, cor=T)


Call:
glm(formula = crab.data$satell.flag ~ crab.data$width, family = binomial)

Deviance Residuals:
Min 1Q Median 3Q Max
-2.0281 -1.0458 0.5480 0.9066 1.6941

Coefficients:
Estimate Std. Error z value Pr(>|z|)
(Intercept) -12.3508 2.6287 -4.698 2.62e-06 ***
crab.data$width 0.4972 0.1017 4.887 1.02e-06 ***
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

(Dispersion parameter for binomial family taken to be 1)

Null deviance: 225.76 on 172 degrees of freedom
Residual deviance: 194.45 on 171 degrees of freedom
AIC: 198.45

Number of Fisher Scoring iterations: 4

Correlation of Coefficients:
(Intercept)
crab.data$width -1.00

===============================================================

Deviance Residuals:
Null deviance

が逸脱度を表します
また、

crab.result%reiduals

ここで、crab.resultは、関数glm()の結果が入っているオブジェクト(変数です)
コマンドを入力すれば、個別データの残差についてデータを得ることが出来ます。が、今回は、まだ不勉強のため、パスです

と言うわけで、今回計算するのは、予測値の95%信頼区間です
つまり、前回計算した予測値が、95%の確率で、どの範囲でばらつくかを、グラフ化しようと言うわけです。予測値の区間推定を考えるのは、Coefficientsたちが、推計値だったことを考えれば、当然ですよね。

まず、大標本下での線型予測子の標準誤差(ASE)は、下式になります

Var(hat(α)+hat(β))=Var(hat(α)+x^2Var(β)+2x*Cov(hat(α),hat(β))

*1 hat()は推計値 
*2 x 独立変数 を表します
*3 Cov(α,β)= r * sqrt(Var(α))*sqrt(Var(β))
ただし、rは相関係数

早速、線型予測子、つまり、オッズの95%信頼区間を計算しましょう。
まず、coefficientの分散を変数に叩き込んでおきます

> var.a <- 2.6287*2.6287
> var.b <- 0.1017*0.1017

続いて、Coefficient間の相関係数も変数に入れておきます

> r.coef <- -1

準備が整いましたので、先ほど示した線型予測子の標準誤差(ASE)を計算しましょう

> ASE.linear.predictor <- var.a+(crab.data$width^2)*var.b+(c*crab.data$width*sqrt(var.a*var.b))

ごちゃごちゃしてますが、掛け算と足し算しかありません
小学生でも、計算できます
さて、つづきまして、線型予測子の標準誤差を用いて、線型予測子の95%信頼区間を計算しましょう

ASE(Asymptotic Standard Error)は、大標本下で正規分布に従うので、95%信頼区間の信頼係数は、1.96です。そんなわけで、上限と下限の信頼区間は

> upper95.logit.ci <- crab.result$linear.predictor+(1.96*sqrt(ASE.linear.predictor))

> lower95.logit.ci <- crab.result$linear.predictor-(1.96*sqrt(ASE.linear.predictor))

で計算できます
ちなみに、crab.result$linear.predictorと指定するれば、ワザワザ計算せずとも、Rが、独立変数に対する線型予測子を返してくれます。

さて、線型予測子の信頼区間が求まりました
でも、線型予測子は、オッズの信頼区間です
オッズに対して、線型モデルを当てはめたのが、ロジスティック回帰でしたから。
でも、オッズのままでは、モデルの解釈が難しいですよね
だから、ここから、前使った式で、オッズから、確率に計算しなおします。計算式は、確率を独立変数の関数として考えた、こんな感じの式でしたね

π(x)=exp(α+βx)/(1+exp(α+βx))

さて、α+βxは、いままでに計算済みです
そこで、上の式に、さっき計算した2つの変数

upper95.logit.ci
lower95.logit.ci

を叩き込んで、確率の信頼区間を計算しましょう
それが、こんな感じです

> upper95.ci <- exp(upper95.logit.ci)/(1+exp(upper95.logit.ci))
> lower95.ci <- exp(lower95.logit.ci)/(1+exp(lower95.logit.ci))

言うまでもなく、この二つが、上限と下限の信頼区間のベクトルです


さて、つまんねえ計算が終わったので、上の結果を、予測確率と共に、グラフにしてみましょう。もちろん、x軸は、カブトガニの甲羅の幅ですよ

最初に、下限の信頼区間

> plot(crab.data$width[width.order],lower95.ci[width.order],xlim=c(21,34),ylim=c(0,1),xlab="",ylab="",col="blue",type="l")

上書きを許可
> par(new =T)

次に、上限の信頼区間

> plot(crab.data$width[width.order],upper95.ci[width.order],xlim=c(21,34),ylim=c(0,1),xlab="",ylab="",col="red",type="l")

上書きを許可

> par(new =T)

つづいて、予測確率をプロット

> plot(crab.data$width[width.order],crab.result$fitted.values
[width.order],xlim=c(21,34),ylim=c(0,1),xlab="Crab.Width",ylab="Probability",type="l",
+ main ="Ex. of Logistic Regression/ 95% of C.I.")

上書きを許可しておいて
> par(new =T)

最後に、カテゴリー化したデータから計算したサンプル確率をプロット
>plot(crab.category$width.cate,crab.category$SampleRatio,xlim=c(21,34),ylim=c(0,1),xlab="",ylab="",col="red")

で、出てきたのが、上のグラフです

赤:上限の95%信頼区間
青:下限の95%信頼区間
黒:予測確率
赤の点:カテゴリー化したデータから計算したサンプル確率

なんだか、えらい手間をかけたワリには、簡単なグラフですね
すでに、計算してあればいいのに、なんて思ってしまいますね

次回は、Devianceとかresidualsあたりを説明する予定です


=======================================================
なんだか、えらく長くなった

(参考文献)
カテゴリカルデータ解析入門
Alan Agresti
サイエンティスト社

のp.151あたりを計算

(感想)
データハンドリングが大変
アクセスとかエクセルなら、簡単なのになんて思ったりします
あと、Coefficient間の相関係数が、どうすれば出せるのかが
中々分からなかった。
やったことは大したことないのに、コマンドを調べたりするのは
みょーーーーに、大変だったのでした

なんか、先に、重回帰分析とかを、試してみればよかったかも
そんな気がしている

いずれにしても、まだまだ勉強中の身ですね
=======================================================
前回は、ロジスティック回帰モデルの概念を説明した上で、カブトガニの甲羅の幅を説明変数とする、単項ロジスティック回帰モデルを当てはめました。で、当てはめた上で、予測値を計算して、グラフにプロットしました。

とりあえず、前回で、データにモデルを当てはめることは出来ました。
でも、データを使って計算できる事と、計算に用いたモデルが、データに当てはまってる事とは、全く別問題です。
言い換えれば、数字とデータ形式さえ合えば、計算することなんて簡単です。なんせ、計算するのは、人でなくてコンピューターですもん。
と言うわけで、当てはめた統計モデルが、データと整合性があるかを、今回はチェックしてみます

長々と書きましたが、簡単に言えば、回帰分析でいう回帰診断とか、残差分析と同じことです。

まず、前回の計算結果は、こんな感じでした
ただし、今回は、corパラメータを指定して、coefficient内の相関係数も出力しています

===============================================================
>summary(crab.result, cor=T)


Call:
glm(formula = crab.data$satell.flag ~ crab.data$width, family = binomial)

Deviance Residuals:
Min 1Q Median 3Q Max
-2.0281 -1.0458 0.5480 0.9066 1.6941

Coefficients:
Estimate Std. Error z value Pr(>|z|)
(Intercept) -12.3508 2.6287 -4.698 2.62e-06 ***
crab.data$width 0.4972 0.1017 4.887 1.02e-06 ***
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

(Dispersion parameter for binomial family taken to be 1)

Null deviance: 225.76 on 172 degrees of freedom
Residual deviance: 194.45 on 171 degrees of freedom
AIC: 198.45

Number of Fisher Scoring iterations: 4

Correlation of Coefficients:
(Intercept)
crab.data$width -1.00

===============================================================

Deviance Residuals:
Null deviance

が逸脱度を表します
また、

crab.result%reiduals

ここで、crab.resultは、関数glm()の結果が入っているオブジェクト(変数です)
コマンドを入力すれば、個別データの残差についてデータを得ることが出来ます。が、今回は、まだ不勉強のため、パスです

と言うわけで、今回計算するのは、予測値の95%信頼区間です
つまり、前回計算した予測値が、95%の確率で、どの範囲でばらつくかを、グラフ化しようと言うわけです。予測値の区間推定を考えるのは、Coefficientsたちが、推計値だったことを考えれば、当然ですよね。

まず、大標本下での線型予測子の標準誤差(ASE)は、下式になります

Var(hat(α)+hat(β))=Var(hat(α)+x^2Var(β)+2x*Cov(hat(α),hat(β))

*1 hat()は推計値 
*2 x 独立変数 を表します
*3 Cov(α,β)= r * sqrt(Var(α))*sqrt(Var(β))
ただし、rは相関係数

早速、線型予測子、つまり、オッズの95%信頼区間を計算しましょう。
まず、coefficientの分散を変数に叩き込んでおきます

> var.a <- 2.6287*2.6287
> var.b <- 0.1017*0.1017

続いて、Coefficient間の相関係数も変数に入れておきます

> r.coef <- -1

準備が整いましたので、先ほど示した線型予測子の標準誤差(ASE)を計算しましょう

> ASE.linear.predictor <- var.a+(crab.data$width^2)*var.b+(c*crab.data$width*sqrt(var.a*var.b))

ごちゃごちゃしてますが、掛け算と足し算しかありません
小学生でも、計算できます
さて、つづきまして、線型予測子の標準誤差を用いて、線型予測子の95%信頼区間を計算しましょう

ASE(Asymptotic Standard Error)は、大標本下で正規分布に従うので、95%信頼区間の信頼係数は、1.96です。そんなわけで、上限と下限の信頼区間は

> upper95.logit.ci <- crab.result$linear.predictor+(1.96*sqrt(ASE.linear.predictor))

> lower95.logit.ci <- crab.result$linear.predictor-(1.96*sqrt(ASE.linear.predictor))

で計算できます
ちなみに、crab.result$linear.predictorと指定するれば、ワザワザ計算せずとも、Rが、独立変数に対する線型予測子を返してくれます。

さて、線型予測子の信頼区間が求まりました
でも、線型予測子は、オッズの信頼区間です
オッズに対して、線型モデルを当てはめたのが、ロジスティック回帰でしたから。
でも、オッズのままでは、モデルの解釈が難しいですよね
だから、ここから、前使った式で、オッズから、確率に計算しなおします。計算式は、確率を独立変数の関数として考えた、こんな感じの式でしたね

π(x)=exp(α+βx)/(1+exp(α+βx))

さて、α+βxは、いままでに計算済みです
そこで、上の式に、さっき計算した2つの変数

upper95.logit.ci
lower95.logit.ci

を叩き込んで、確率の信頼区間を計算しましょう
それが、こんな感じです

> upper95.ci <- exp(upper95.logit.ci)/(1+exp(upper95.logit.ci))
> lower95.ci <- exp(lower95.logit.ci)/(1+exp(lower95.logit.ci))

言うまでもなく、この二つが、上限と下限の信頼区間のベクトルです


さて、つまんねえ計算が終わったので、上の結果を、予測確率と共に、グラフにしてみましょう。もちろん、x軸は、カブトガニの甲羅の幅ですよ

最初に、下限の信頼区間

> plot(crab.data$width[width.order],lower95.ci[width.order],xlim=c(21,34),ylim=c(0,1),xlab="",ylab="",col="blue",type="l")

上書きを許可
> par(new =T)

次に、上限の信頼区間

> plot(crab.data$width[width.order],upper95.ci[width.order],xlim=c(21,34),ylim=c(0,1),xlab="",ylab="",col="red",type="l")

上書きを許可

> par(new =T)

つづいて、予測確率をプロット

> plot(crab.data$width[width.order],crab.result$fitted.values
[width.order],xlim=c(21,34),ylim=c(0,1),xlab="Crab.Width",ylab="Probability",type="l",
+ main ="Ex. of Logistic Regression/ 95% of C.I.")

上書きを許可しておいて
> par(new =T)

最後に、カテゴリー化したデータから計算したサンプル確率をプロット
>plot(crab.category$width.cate,crab.category$SampleRatio,xlim=c(21,34),ylim=c(0,1),xlab="",ylab="",col="red")

で、出てきたのが、上のグラフです

赤:上限の95%信頼区間
青:下限の95%信頼区間
黒:予測確率
赤の点:カテゴリー化したデータから計算したサンプル確率

なんだか、えらい手間をかけたワリには、簡単なグラフですね
すでに、計算してあればいいのに、なんて思ってしまいますね

次回は、Devianceとかresidualsあたりを説明する予定です


=======================================================
なんだか、えらく長くなった

(参考文献)
カテゴリカルデータ解析入門
Alan Agresti
サイエンティスト社

のp.151あたりを計算

(感想)
データハンドリングが大変
アクセスとかエクセルなら、簡単なのになんて思ったりします
あと、Coefficient間の相関係数が、どうすれば出せるのかが
中々分からなかった。
やったことは大したことないのに、コマンドを調べたりするのは
みょーーーーに、大変だったのでした

なんか、先に、重回帰分析とかを、試してみればよかったかも
そんな気がしている

いずれにしても、まだまだ勉強中の身ですね
=======================================================

ロジスティック回帰1

ロジスティック回帰(Logistic Regression)とは、各レコードが「成功」・「失敗」のような二値応答変数に対して、そのオッズ(Odds)の対数を独立変数から最尤法を使って パラメータを計算するモデルです。オッズの対数のことを、ロジット(Logit)と呼ぶので、Logisticとよびます、たぶん。

Rのような統計計算ソフトに、よい形をしたデータを放り込むと、回帰係数と定数にあたるパラメータが出力されます。そして、そのパラメータを用い て、成功確率を逆算することで、独立変数が二値応答変数に与える効果を、定量的に調べることができます。成功確率は、Logitを、独立変数の関数に変形 することで求められます。

(具体例)
メスのカブトガニが、パートナーとなるオスがいる確率を、メスのカブトガニの甲羅の幅から推定してみる。

(データ)
No. color spine width satell weight satell.flag
1 3 3 28.3 8 3050 1
2 4 3 22.5 0 1550 0
3 2 1 26.0 9 2300 1
4 4 3 24.8 0 2100 0
5 4 3 26.0 4 2600 1
6 3 3 23.8 0 2100 0


No. :レコード番号
color :甲羅の色(2-5) 2;明るい
spine :縁棘の状態(1-5) 1;正常
width :甲羅の幅(cm)
weight:kg
Satell:サテライト数(あるメスにくっついているオスの数)
Satell.flg:サテライトの有無 1;あり

(手順)

(1)まず、Rにcsvファイルを読み込む
crab.data <- read.csv("ファイルの場所") (2)どんな感じで取り込んだかを見る head(crab.data) (3)早速ロジスティック回帰 crab.result <- glm(crab.data$satell.flag~crab.data$width,family = binomial) glm(二値応答~独立変数,family=binomial) (メモ) glmは、一般化線型モデルの関数を表す familyを指定すれば、ポアソン回帰とかも出来たはず、よく分からんが (4)結果 Summary(crab.result) ==================================================== Call: glm(formula = crab.data$satell.flag ~ crab.data$width, family = binomial) Deviance Residuals: Min 1Q Median 3Q Max -2.0281 -1.0458 0.5480 0.9066 1.6941 Coefficients: Estimate Std. Error z value Pr(>|z|)
(Intercept) -12.3508 2.6287 -4.698 2.62e-06 ***
crab.data$width 0.4972 0.1017 4.887 1.02e-06 ***
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

(Dispersion parameter for binomial family taken to be 1)

Null deviance: 225.76 on 172 degrees of freedom
Residual deviance: 194.45 on 171 degrees of freedom
AIC: 198.45

Number of Fisher Scoring iterations: 4

====================================================

Coefficients:
Estimate Std. Error z value Pr(>|z|)
(Intercept) -12.3508 2.6287 -4.698 2.62e-06 ***
crab.data$width 0.4972 0.1017 4.887 1.02e-06 ***

Interceptsとcrab.data$widthのEstimeteが定数項(α)と関数の傾き(β)ですね


(5)当てはめ値の計算

このαとβを用いて、当てはめ値(甲羅の幅ごとの、連れ合いのオスがいる確率の理論値)を計算する。変数satel.fittedvalに代入しておく


satel.fittedval <- exp(a + b*crab.data$width)/(1 + exp(a + b*crab.data$width))

計算結果を、最初のデータと合体

crab.data <- cbind(crab.data,satel.fittedval)

(6)列crab.data$widthとcrab.data$satel.fittedvalで散布図を描く

plot(crab.data$width,crab.data$satel.fittedval)

すると、画像のグラフを得る

ちゃんとS字型になっている
当てはめ値だから、当たり前だけど

とりあえず、初歩的なところは、処理できました
ばんざーーい

(参考文献)
カテゴリカルデータ解析入門
(An Introduction to Categorical Data Analysis)
Alan Agresti
サイエンティスト社(2003)

のp.143あたりを挑戦

(感想)
Agrestiて、カテゴリカルデータ分析業界では、凄いえらい先生らしい
あと、Rも、色々できるみたいだけど、まだよく分からん
特にグラフ
よい本を探そうかな