会計学と情報理論の融合、そして「会計学の基本定理」

  • このエントリーをはてなブックマークに追加
  • Pocket
  • LINEで送る

「会計学の基本定理」という定理をご存じでしょうか。

「基本定理」とは数学のある分野で、極めて重要な意味を持つ中心的な命題につけられる名称です。代数学の基本定理や微積分学の基本定理などが有名です。

しかし、会計学にもそうした定理があることを知っている方は少ないでしょう。

今回はそんな「会計学の基本定理」について簡単にまとめます。

シャノンの情報理論

会計とは、企業の経済活動を一定のルールに基づき報告する手続きのようなものです。

経済活動という混沌とした状況を会計のルールにあてはめて、誰にでもわかる情報にするプロセスと考えてもいいでしょう。

会計を学問として研究するにあたり、情報という観点からアプローチする方法があります。それが「情報理論」的なアプローチです。

情報理論とは1948年のクロード・シャノンの論文を創始とした、情報・通信を数学的に扱う学問分野です(Wikipedia参照)。

情報理論はランダムな変数が持つ「情報量」やその不確かさである「エントロピー」を定義するところから始まります。

情報理論では確率変数の持つ情報の不確かさなどを定量的に扱うことで、計算機や通信技術や暗号技術などに応用されており、比較的新しい学問分野でありながら、大きな社会的意義を持っています。

 

会計学と情報理論の融合

この情報理論が、会計情報を分析するための有効なツールになりうることが、オハイオ州立大学のJohn Fellingham教授らによって示されました。

Fellingham教授のページには、「会計:情報科学(原題Accounting: An Information Science)」と題するモノグラフが公開されています。

ここでは複式簿記という「構造」を持った会計情報が、情報理論と密接に関連していることを論じています。

そのなかで特に重要な定理が「会計学の基本定理」です。

このモノグラフによると、会計学の基本定理とはいくつかの仮定のもとで成り立つ、会計情報と相互情報量の関係のこと指しています。

この定理の主張は、会計情報によって増加するリターン\(\Delta W\)が、会計情報\(X\)と確率変数としての\(Y\)の相互情報量\(I(X:Y)\)に等しいという定理(相互情報量定理)を具体的な勘定科目に対応付けたものです。

具体的には、会計情報としての資産の額\( a\)と利益の額\( i\)が、無リスク金利\(r_f \)とペイオフを表す確率変数\( Y\)とそのシグナル\( X\)によって、以下のように表せることを主張しています。

\begin{equation} \begin{split}
\ln\left( 1+\frac{ i}{ a}\right)=r_f+I(X;Y)
\end{split} \end{equation}

ここで\(I(X;Y) \)は\(X \)と\(Y \)の相互情報量であり、シャノンの情報理論の中で定義される概念です。定理の証明はFellingham教授のペーパーに書かれていますので、気になる方は目を通してみてください。

このように、会計学は他の数理的な分野との融合させ別の確度から捉えることで、その本質の深い部分を理解することが可能です。

会計学というと簿記による仕訳作成や財務諸表分析がイメージされますが、数学の文脈の中で捉えることによって、違った姿を見せます。

物事を多角的に見ることで、対象の本質がよく分かるようになりますが、会計学を理解する上でも、こうした別の視点からの観察を行ってみると、なにか発見があるかもしれません。

 

参考文献

会計学の基本定理が依拠するシャノンの情報理論について、例えばこちらの文庫本で解説されています。相互情報量の定義もこの本で学ぶことができます。

  • このエントリーをはてなブックマークに追加
  • Pocket
  • LINEで送る

SNSでもご購読できます。

コメントを残す

*