The Midnight Seminar

読書感想や雑記です。近い内容の記事を他のWeb媒体や雑誌で書いてる場合があります。このブログは単なるメモなので内容に責任は持ちません。

ナシーム・ニコラス・タレブ『ブラック・スワン』(ダイヤモンド社)

ブラック・スワン[上]―不確実性とリスクの本質

ブラック・スワン[上]―不確実性とリスクの本質

ブラック・スワン[下]―不確実性とリスクの本質

ブラック・スワン[下]―不確実性とリスクの本質


 去年の今頃だったか、会社の同期から薦められてこの本を読んだのだが、震災が起きて「これはブラックスワンだ」とか言う人もいたので改めてパラパラと読みなおしたけど、まじで面白い。
 数理ファイナンスを研究し、投資銀行でトレーダーもやっていたレバノン人の著者・タレブが「不確実性」について書いた本で、たしか世界的にもそれなりのベストセラーになっていたはず。ここでいう「ブラックスワン(黒い白鳥)」とは、存在する可能性が物凄く低いものの例えで、映画の『ブラックスワン』とは関係ない*1


 ブラックスワン
 本書は「不確実性」について書かれた本だが、同時に、我々人間が現実の物事を「予測」したり「解釈」したりするときに陥りやすい心理的なバイアス(我々人間には、不確実性から目を逸らしてしまう傾向がある)がテーマでもある。特に学者やジャーナリストたちの「自信」を疑うよう注意を促すものだ。
 「ブラックスワン」とは、著者・タレブの定義によれば、「次の三つの特徴を備えた事象を指す。第一に、異常であること。(中略)第二に、とても大きな衝撃があること。そして第三に、異常であるにもかかわらず、私たち人間は、生れついての性質で、それが起こってから適当な説明をでっち上げて筋道をつけたり、予測が可能だったことにしてしまったりすること」(上・4頁)である。
 黒い白鳥なんて、計算するのも馬鹿らしいぐらい低い確率でしか出現しないだろうけど、1羽でも出現してしまえば「白鳥は白い」というパラダイムを破壊して歴史を変えてしまうということだ。そして我々はいつの間にか、「黒い白鳥もいる」という後づけ理論にすみやかになじんでしまうのである。


 ランダム性と後づけの講釈
 タレブに言わせれば、歴史の経路を左右するような大きな出来事は、ほとんどランダムとしかいいようのないぐらい予測が困難なものばかりであった。また、彼が身をおいていた金融取引の世界でも、「予測」が意味を持つ範囲はたいていの人が考えているよりも非常に狭いものである。学者たちがどんなに洗練された理論モデルを組み立てようとも、トレーディングの実践家の立場からすれば、重要な変化はほとんどすべてが「予測」の範囲外で起きているのであると。そしてそれが現実なんだから、予測できるなんて無駄に思い込むのはやめましょうというわけだ。
 なのに、人は(過去について)講釈をたれたがるし、(未来について)予測を披露したがるものである。

 「人はある種の仕事に就くと、自分はもののわかった専門家だなんて思いこむことになる。でも、実際にはまったくわかっていない。彼らの専門分野での実績を見ると、普通の人たちからなる母集団とまったく変わらない。彼らはただ、講釈をたれるのがうまいだけだし、もっと悪くすると、こんがらがった数学モデルで人を煙に巻くのがうまいだけだったりする。」(上・9頁)
 人は、大きな出来事(たとえば株価の暴落でも何でも)が起きると、後づけで解釈をしたがるものだ。解釈をすること自体は構わない、というかそれは人間が生れ持った性なので仕方がないのだが、人は往々にして、それが予測可能だったとか、あたかも想定の範囲内だったかのように思い込み、一見論理的な筋道の通った後付けの「講釈」をたれて、しまいには今後の予測まで立ててしまう。実際には過去の予測が当たったわけでも、今回の予測が当たるわけでもないのにである。


 専門家の自信を疑え
 上巻の終わりのほうに、いわゆる「専門家」の予測がどれだけ間違っているかを検証した研究者の話が出てきて面白い。
 証券アナリストが立てた予測2000件の結果を検証すると、各企業の前期の決算をそのまま次期の予想に使った場合と当たり外れの成績は変わらなかったらしい。しかも、アナリストたちの予測の誤差よりも、アナリスト間の予測の差のほうがずっと小さかった。つまり、みんな間違っていたばかりか、アナリストは群れたがるのである。
 また、べつの例では300人ぐらいの専門家による2万7000件の予測(政治・経済に関するもの)を検証したところ、予測の誤差率は彼ら自身が思っているよりも何倍も大きく、成績は博士も学部卒も、学者もマスコミも同じレベルであった。ただし一つ傾向が分かったのは、評判の高い人ほど成績が悪いということだったらしい。
 ここでタレブはべつに、専門家がアホすぎると非難したくて言っているわけではない。彼の立場は、そもそも重要な物事は誰だって予測不可能なのだということだ。「専門家のやり方を疑う必要はない。疑うのは専門家の自信だ」(上・261頁)。これは言ってみれば古典的な「無知の知」の問題で、自分が「知らない」「分からない」ことに対して心を開いた態度をとり続けることがいかに大事で、かついかに難しいかという話である。*2


 素人ももちろん自惚れる
 また、ある研究者が行った面白い実験が紹介されている。たとえば、どこかの都市の人口や、本の売り上げや、ビジネス本の編集者の平均知能指数など、さまざまな数値を被験者に推測させる。このとき、被験者は数値をドンピシャで言い当てるのではなく、取り得る範囲を自由に選んで良い。しかし信頼区間*3みたいなイメージで、自分が「98%」の確率で正答すると思う範囲を設定しなければならない。つまり、「私は98%の確率で、つくば市の人口は20万人〜25万人の間だと思う」というふうに推測するのである。
 この実験を多数の被験者、多数の質問について重ねていけば、間違える割合は2%に近づいていくはずである。しかし現実には45%も外れてしまったらしい。ちなみにその時の被験者はハーバードビジネススクールの学生だとか。同じ実験を別の被験者グループでも繰り返すと、だいたい誤差が15%〜30%ぐらいになったそうだ。
 これは、被験者が無知だということではなく、「自信過剰」であるということを意味している(自分が知らないことについては、値の範囲を広くして手堅く回答すれば良いだけの話なのだが、たいていの人は実力以上に絞り込んだ回答をしてしまう)。
 さらに絶望的なことに、与えられる情報が多ければ多いほど人間は勘違いをする。消火栓の画像を、かなりピンぼけして何が写っているのか分からないものから順番に、少しずつ鮮明なものを被験者に見せて、何の画像であるかを当てさせる実験をすると、5段階で飛び飛びに変化させた場合よりも、10段階できめ細かく変化させた場合のほうが、正解にたどりつくのが遅いらしい。つまり情報が豊富にあればあるほど、被験者が立てる仮説が多くなり、判断がブレるのだ。


 4つのバイアス
 こうした実例に基づいてタレブは、人間が持っている哀しい心理的傾向を4つ指摘する。
 第1に、人は、自分にはたくさんの「知らないこと」があるのを忘れて、自分の知っていることを追認してくれるような事実ばかり探してしまう傾向がある。これは「追認バイアス」と呼ばれる。科学的に確実な知識をもたらしてくれるのは「反証」であり(本書ではポパーの「反証主義」が何度も紹介される)、ポジティブな証拠を挙げて理論を追認しても論理的には意味がないということを人は理解したがらない。
 第2に、人は、後づけのもっともらしい説明や逸話で講釈を作りあげて、ほんとうは予想もできなかった事でも自分をごまかして納得してしまう。事態を要約(単純化)することで情報コストを上げたがるのが人間の性なので、理論を作らずにいることは理論を作ることよりも難しい
 第3に、人は推論を行う際に、本人が思っているよりもカンタンに情緒に流されてしまう。
 第4に、人は「モノ言わぬ証拠」を見ようとはしない。たとえば災害を生き延びた人が神に祈っていたのをみて、「祈ったから救われたのだ」と解釈する。本当は祈って死んでいった人たちがいたとしても、彼らはもはやモノを言うことはないから無視されるのである。


 不確実性が支配する「果ての国」
 タレブはこうした心理的バイアスを取り上げて、ある種の人々の思い上がり・自惚れ・自信過剰を諌めようとしているわけだが、これは裏を返せば、我々の生きている現象の世界は我々が普段考えているよりも遥かに不確実で、予測なんてできないものであると覚悟を決めろということに他ならない。
 タレブは現象の世界を「月並みの国」と「果ての国」に分けて、両者の見分けが大事だという。「月並みの国」というのはあまり異常なことが起きない領域のことで、たとえば人間の身長には大きな「はずれ値」は存在しない。こういう数値の世界(分野)を相手にしている限りは、予測だっていくらでもすればいい。けっこう当たるからだ。
 しかしたとえば人間を「財産」の額の順に並べると、上下の格差が非常に激しくて、1つのデータが全体に及ぼす影響がとても大きい。これが「果ての国」の数値である。こういう世界では平均値が安定しないので、物事を「予測」するのがとても難しくなるし、統計がもつ意味も薄れてくる。
 「果ての国で生まれた数量を相手にしているなら、サンプルから平均を知るのは難しい。データ一つに全体が大きく依存しているからだ。これほど考えるのが難しいことはない。果ての国では、一つのことがすぐに全体に圧倒的な影響を及ぼしてしまう。この世界では、データからわかったことはいつも疑ってかからないといけない。」(79頁)
 統計的予測というのは基本的に、モデルを作る段階で何らかの確率分布が仮定されている。その仮定が大きく外れていたら、既存のデータからモデルを作って予測してもあまり意味がないことになる。そして現実の世界では、どんなパターンの確率分布を仮定したらいいかがそもそも分からない現象、つまり「果ての国」の現象がたくさんあるので、そういう場面でテキトーに置いた仮定から厳密な推論を行ったって間違いがひどくなるだけである。そして、こうした予測の通用しない「果ての国」からこそ、歴史を変えるような大きな変化が生れてくる。


 予測は難しい
 下巻の冒頭でタレブは、「私たちにとって予測は複雑すぎる。それだけではなく、私たちの手に入る道具を全部使っても複雑すぎる。黒い白鳥は捉えどころがない。予測したって無駄だ」(下・3頁)とひどいことを言っていて、たとえば企業が立てる長期計画も、将来登場する技術の影響を考慮に入れられないから非常に無駄であると言う。
 「5ヵ年計画だと?真ん中に居座って計画を立てるなんていう連中がまるっきり信じられない私からすると、そんなものは考えるだけでバカバカしかった。企業の内部で起こる成長は有機的で予測不能なものだ。草の根レベルから立ちのぼるものであって、上からばら撒くものではない。」(下・4頁)
 一般に「予測」が難しいのは、計算ステップが複雑だからというよりは、仮定を網羅するのが難しいからである。ほんとかどうか知らないが、本書で紹介されている学者の議論では、ビリヤードの玉の動きを予測するのも絶望的に難しい。1回目に跳ね返った後にどうなるかは玉の重量やテーブルの摩擦力や打撃の強さなど基本的な変数から予測が可能なのだが、9回目に跳ね返った後の動きはテーブルの横に立っている人の引力まで計算に入れる必要があって、さらに56回目の跳ね返りになると宇宙に存在するすべての素粒子について仮定が必要になるらしい。何億光年という宇宙の果てに存在する陽子や電子が、結果に有意な影響を及ぼすというわけだ(笑)


 ではどうすればいいのか?
 タレブはもともと実践家だから、べつに不可知論を述べ立てて人々の努力を冷笑するわけでもなく、実践的な行動指針をいくつか示している。
 たとえば、予測についてタレブが言いたいのはこういうことだ。「私は理論よりも仮定のほうを重視する。理論にできるだけ頼らずに、いつも身構えていて、できるだけ不意をつかれて驚くことがないようにしたい。間違ったことを几帳面にやるよりも、正しいことおおざっぱにやるほうがいい。華麗な理論は往々にしてプラトン化しているし、だから華麗さはむしろ弱点だ。そういうのを追い求めていると、華麗であるための華麗さに陥ってしまう」(下・200頁)。
 つまり、抽象的理論からの演繹で考えるよりも、実地の経験や生の情報を大事にして、確実な「仮定」をより多くインプットしていくことに力を使おうということである。けっして、予測するなとか、計画を立てるなということではない。「私たちは本当に計画が立てられない。未来の性質がわかっていないからだ。でも、これは必ずしも悪いことではない。自分のそういう限界を頭に入れつつ、計画を立てることはできるからだ。ただ、それにはガッツがいるのである」(282頁)。
 また、「私たちは稀な事象の起こる確率なんてわからなくてもいい(稀な事象の起こる確率なんて、私たちには根本的に把握しきれない)。そんなものはわからなくても、事象が起こった場合のペイオフは恩恵に焦点を絞ればいい。(略)意思決定をするときは、確率(これはわからない)よりも影響(これはわかるかもしれない)のほうに焦点を当てるべきなのだ」(下・78頁)とも言っている。
 これは、けっこう有名になっているのだが、個人的には、どこまで役立つのが疑問な面もある。タレブは投資のポートフォリオを組む時に、リスクのめちゃくちゃ大きいものとめちゃくちゃ小さいものを組み合わせるんだとか言っているのだが、その他の場面でこの原則をどう役立てればいいのかはさっぱり分からん。確率だけでなく、影響の大きさだってよく分からないことが多いからだ。


 「気をつけろ」という精神論
 以上まとめると、本書のメッセージは、
 (1)我々は自分で思っているよりも遥かにアホで、分かりもしないことをついつい理論化してしまうもんだから気をつけろ。
 (2)世の中は我々が思っているよりも遥かに不確実で、ほとんど予測なんかできないから気をつけろ。
 という2点に集約されるので、非常に分かりやすい本だ。哲学者と数学者の名前がやたらと登場するので、科学哲学や認識論を好んで読むマニアックな人向けという気もするけれど*4、テーマは非常にカンタン。


 ところでこの本をたとえば原発問題なんかの具体的なソリューションを求めるための指針に使おうとするのは、個人的にはあまり意味がないように思う(参考:この記事この記事)。タレブは、「非常に稀でかつ影響力のでかい現象」=ブラックスワンを扱うことの難しさを語ってはいるが、具体的にどう扱うべきかというノウハウを語っているわけではないのだ。「ものごとが起こる確率ではなく、最大でどのぐらいの影響があるかに焦点を当てる」なんていうのも、投資家としての彼の個人的な指針に過ぎない(本の中では一般論として書かれているが、どう考えてもあまり広い場面で妥当するノウハウではない*5)。
 結局のところタレブの主張は、「気をつけろ」という一種の精神論であり、知的誠実さの話がしたいのであり、孔子やソクラテス以来の「無知の知」の哲学なのであり、科学的思考の限界に関するポパーの「反証主義」の確認であり、ナイトやケインズやミンスキーの「不確実性」の再論である
 原発の議論を進めるなかで人が“勘違い”に陥っているのを指摘する上では役に立つかもしれないが、具体的に何をどうすべきかというのは、また別の問題なのだ。


 以下、その他の箇所の引用集。

知識を「理論化」するより、地面に足をつけて一歩一歩進むのが大事だ。(上・10頁)


治療より予防のほうがいいのは誰でも知っている。でも、予防のために何かをして高く評価されることはあまりない。本に書かれることもない貢献をした人たちの犠牲のうえに、歴史の本に名を残した人たちを、私たちは崇め奉る。(上・14頁)


歴史や社会は流れてはいかない。ジャンプする。断層から断層へと移り、その間に小さなゆらぎがある、そんな動きをする。それなのに私たち(や歴史家)は、少しずつ変わっていくと信じ込んでいる。だから簡単に予測ができるものだと思っているのだ。(上・42頁)


過去のデータを研究すると、時間は先へ進むもので、後戻りすることはないのが実感できる。歴史は、講釈師の語りよりもずっと散らかっているのがわかるのだ。(上・55頁)


反例を積み重ねることで、私たちは真理に近づける。裏づけを積み重ねてもダメだ!(上・115頁)


もちろん「反証」、つまり何かが確実に間違っていると示すのは簡単ではない。(略)でも、正しいとわかっていることより、間違っているとわかっていることのほうにずっと自信が持てるという点はそのままだ。情報の重みが違うのである。(上・117頁)


ひとたび一つの世界観を持ってしまったら、私たちはその世界観が正しいと示す例ばかり見るようになる。逆説的に、情報があればあるほど自分の考えが正しいと信じるようになるのだ。(上・123頁)


私たちは講釈が好きだ。私たちは要約するのが好きで、単純化するのが好きだ。ものごとの次元を落とすのが好きなのである。(上・126頁)


講釈の誤りは、連なった事実を見ると、何かの説明を織り込まずにはいられない私たちの修正に呼び名をつけたものだ。一連の事実に論理的なつながり、あるいは関係を示す矢印を無理やり当てはめることと言ってもいい。(上・127頁)


事実を見て(さらに覚えて)、判断を控え説明をつけずにいるのには大変な努力が要る。そして、この理論化という病気を抑えるのは困難だ。この病気は私たちの身体にとり憑いていて、生理の一部になっている。だから、この病気と闘うことは自分自身と闘うということだ。(上・128頁)


私たちは目に見えるもので満足してしまうのかもしれない。サクセス・ストーリーを真に受けるのは止めた方が良い。全体像が見えていないからだ。(上・191頁)


純粋に、内省的に、誠実な頭でランダム性を扱えるのは軍関係の人だけだとつくづく思った。(上・230頁)


モデルの外側から食らったり、食らう可能性があったりする損失の大きさは、モデルが扱うリスクの1000倍近くにもなる。(上・237頁)


いつも判断を差し控えようなんてしなくていい。意見を持ってしまうのも日々の暮らしのうちなのだ。予測を避けようともしなくていい――そうなのだ。予測する連中をこれだけ叩いておいて、私はバカはやめろなんて言わない。ただ、正しいときにバカになれと言う。やめたほうがいいのは、大掛かりで害の多い予測を不必要にあてにすることだ。(下・66頁)


統計的に有意という言葉を見たら、確実だという幻想に陥らないよう注意しよう。この言葉が出るということは、たぶん誰かがデータを見て、誤差はガウス分布に従うと仮定した可能性が高い。(下・126頁)


理論理論、クソ理論! 認識論的にそういうのは納得できない。現実を見るのに不自由な連中が売り歩く理想化したモデルに現実のほうを合わせられないからといって、なんで弁解しないといけないのだ。(下・145頁)


どんなモデルが世界を動かしていると仮定しようが、私たちにはパラメータがよくわからないという問題はついてまわる。(下・172頁)


喉がかれるまで何度でも言おう。社会科学で仮説の命運を握るのは伝染するかどうかだ。正しいかどうかじゃない。(下・188頁)


実践の人である私の考えは、問題から本へはたどり着けても、逆に本から問題へはたどり着けないという信念に根ざしている。そういうやり方をしていると、業界でのし上がれるようなことは書けない。(下・209頁)

*1:たぶん。映画観てないけど

*2:説明すると、ここで「知らない」「分からない」というのは具体的な意味におけるものではない点に注意が必要だ。たとえば、「私は国際金融理論を学んでいないから為替相場の予測ができない」なんていうのは大した無知ではない。それは自分が何を知らないかがあらかじめ限定されている。不確実性というのは、もっと本格的に想定外のことを指している。飛行機がビルに突っ込むというのもその一例だ。飛行機が突っ込む確率なんて、分からないというよりも、普通はそもそも考慮の外にある。カンタンに言い換えると、「答えの出ていないこと」ことよりも「気付いていない」ことによって未来が左右されるということに、敏感になろうということだ。分かりたくて分からないことではなく、そもそも分かったほうが良いということに気付いてすらいないようなこと。

*3:統計学者には「それはどちらかといえば頻度主義の『信頼区間』より、ベイズ統計学の『信用区間』に近い」とか言われそうだが。

*4:ナイトって誰とか、反証主義って何とかいう人でも読めるように書いてあるけど、少し「哲学」に関心を持たないとつまらないかもしれない。

*5:何であれ、最大の影響に備えるためにはそれなりのコストがかかるから、どの最大に備え、どの最大を無視するかという選択が必要になり、結局たいていの「最大の影響」には備えられない。