Skip to content

最適輸送の拡張 —— エントロピー正則化とギブスカーネル

前章までで、最適輸送問題とその双対問題を解くための基礎理論を学びました。しかし、純粋な最適輸送問題は解が「スパース(疎)」になりやすく、大規模なデータに対して計算コストが非常に高くなるという課題があります。 本章では、目的関数に「エントロピー正則化項」を加えることで、問題を劇的に解きやすく滑らかにする現代最適輸送のブレイクスルーの数理を解き明かします。

1. エントロピー正則化の導入

元の最適輸送問題は、輸送コスト を最小化する輸送プラン を求めるものでした。 ここに、プラン の「ばらつき具合」を表すエントロピー を用いた正則化項を加えます。

正則化パラメータを とすると、新しい目的関数は次のようになります。

マイナスをつけてエントロピーを「最大化」しようとする力が働くため、輸送プランは一箇所に集中せず、全体に「ぼやけた(滑らかな)」分布になろうとします。

2. 凸関数としての性質

なぜわざわざエントロピーを加えるのでしょうか。その理由は数学的な「解きやすさ」にあります。 関数 の2階微分を計算すると となり、これは厳密な「下に凸な関数」であることを意味します。

つまり、エントロピーのマイナス項を加えることで、元の目的関数が強凸関数に変化し、最適解が「ただ一つに一意に定まる」かつ「勾配法などで高速に計算できる」という強力な保証が得られるのです。

3. KL情報量とデフォルトモデルへの帰着

このエントロピー正則化は、情報理論の観点からも美しい解釈が可能です。 供給と需要が全く無関係にランダムに割り振られた「デフォルトモデル」を とします。 輸送プラン とこのデフォルトモデル の間の KL情報量(距離のようなもの)を計算してみます。

制約条件 などを用いると、後ろの項は定数となり、結果として以下の関係が導かれます。

すなわち、エントロピーを最大化する( を最小化する)ということは、**「供給と需要が完全に独立したデフォルトモデル(平均的な分布)にできるだけ近づける」**という最大エントロピー原理と完全に一致するのです。

4. ギブスカーネルとの出会い

さらに驚くべき数理的変形をお見せしましょう。 コスト行列 を用いて、次のような行列 を定義します。これを物理学の統計力学にちなんでギブスカーネルと呼びます。

(※ 距離が近いほど値が大きくなる、第7章で学んだ指数カーネルと同じ形をしています)

ここで、求める輸送プラン と、このギブスカーネル との間の KL情報量 を計算してみます。

なんと、両辺に を掛けると、私たちが解きたかった「エントロピー正則化付き最適輸送」の目的関数そのものが現れます!

複雑な制約を持つコスト最小化問題が、ただ単に**「ギブスカーネル という事前知識の行列に対して、KL情報量を最小にするように をフィッティングさせる問題」**へと鮮やかに姿を変えました。これにより、機械学習で用いる多様なアルゴリズムを最適輸送問題へ直接適用することが可能になったのです。

Released under the MIT License.