最善説明にいたる推論

Pythonで動かして学ぶ! あたらしい機械学習の教科書

少し前から機械学習の入門書・参考書をいくつか眺めているのだが(たとえばこちらなど →伊藤真『Pythonで動かして学ぶ! あたらしい機械学習の教科書』(翔泳社、2018))、その基礎となるのは、ばらつきのあるデータからある程度の予測を可能にするモデルということになる。いわゆる回帰分析というやつだが、一番単純な形式としては直線モデルがあり、たとえば平均二乗誤差(直線とデータ天の差の二乗を平均したもの)が用いられるが、その場合のモデルとなる方程式の係数がどんな数値なら平均二乗誤差が最小になるかを算出するために、勾配法などの計算が必要になる。ごくごく基本的な考え方だ。平均二乗誤差は決してゼロにはならないが、ある程度までその最小値を予測することはできる、と。

「蓋然性」の探求――古代の推論術から確率論の誕生まで

さて、こうした考え方にも当然長い歴史があるだろう、というわけで、先に挙げたフランクリン『「蓋然性」の探求――古代の推論術から確率論の誕生まででは紀元前150年ごろのヒッパルコスをそうした「最善説明にいたる推理」の嚆矢として挙げている(第6章)。ヒッパルコスは当時の天文データをもとに、それにフィットするよう離心円と周転円から成るモデルを作り上げ(直線ではなく、円をモデルとしているというが、それはそちらのほうが天文学の常識だったからだという)、後にプトレマイオスがそれを改良することになる。また、そのはるか後代の14世紀、ニコル・オレームは、そうしたデータと理論との対応の問題を再び取り上げてみせる。ある物理系が構造的に安定しているのならば、データをもとに理論が予測をはじき出す場合、たとえ必ずしも正確な予測にはならなくとも、その誤差がさほど大きくないのであれば、それは近似的予測として許容可能と見なしてよい、とオレームは肯定する。反対に構造安定でhなあい物理系(カオスの系)では、もとより予測ができない。フランス語にカオスという単語を導入したのはオレームだったという話もあるようだ。

いずれにしても、このように回帰分析ひとつ取ってみても、そこには過去からの連綿たる知的な営みの歴史があることがわかる。そのあたりが、フランクリンの著書の面白さでもあるし、もしかすると目前のどこか味気ない数式などに取り組むような場合でも、別様の楽しみを招き入れることができるかもしれない。その来し方に思いを馳せるというささやかな楽しみを。