文字による整理

en外在化

外在化させるツール

理解度のモデル化

f:id:kourikei:20210525035418j:image

縦軸(目的変数)に理解度、横軸(説明変数)に要素数をとったとき、ある要素数kを境にして、理解の仕方が変わっているように思える。kより小さいときはできるだけ丸ごと理解しようとする(ミクロ的な視点で要素還元的に理解する)が、大きいときは全体の中で重要そうな部分を理解しようとする(マクロ的に、質的に要点を抑える)のではないか。

素数を変数x(1以上)とし、前者における理解関数をf(x)、後者のそれをg(x)とした。全体の理解関数はh(x)。

全体を理解するのは要素数が多くなればなるほど難しい(多次元的になるため)ので、f(x)の微分係数はxが大きくなればなるほど小さくなり、f(x)全体としては単調に減少する。

質的な理解は人間の思考リソースの幅に依存するので、理解できる絶対的な要素数はある意味固定されるが、全体から見た相対的な理解度はどんどん小さくなっていくため、x→∞、g(x)=0。

f:id:kourikei:20210525044334j:image

なぜこんなことを考えたかというと、自分の理解度が他人とずれていると感じる場面が多く、それをモデル化したいと考えたためだ。いま、自分の理解関数をh*(x)、一般的な人の理解関数をh¬(x)とする(f、gについても同様)。f(ミクロ的理解)g(マクロ的理解)それぞれ得意不得意あるだろうが、少なくとも自分はどちらも(一般的な人よりは)上手だと感じる(f*(x)>f¬(x)、g*(x)>g¬(x))。しかしなぜか、とくに要素数が多すぎず少なすぎないとき、一般的な人よりも理解度が劣ることがある。これを説明したかったのだ。

そこでfとgが切り替わる点が、要素数において普通の人より小さいのではないかと考えた(自分のをk*、一般的な人のをk¬として、k*<k¬)これによって、x<k*、k¬<xのときh*>h¬だが、k*<x<k¬のときh*<h¬となり、先程のパラドキシカルな状況を上手く説明できた。