<?xml version="1.0" encoding="utf-8" ?>
<rss version="2.0"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xml:lang="ja">
	<channel>
		<title>週刊 spaghetti_source</title>
		<link>http://topcoder.g.hatena.ne.jp/spaghetti_source/</link>
		<description>週刊 spaghetti_source</description>
		<dc:creator>spaghetti_source</dc:creator>


		<item>
			<title>Rolling Hashing</title>
			<link>https://topcoder.g.hatena.ne.jp/spaghetti_source/20130209/1360403866</link>

			<description><![CDATA[
		<div class="section">
			<p>文字列系の問題に対するインチキ・データ構造を紹介します．</p>
			<p><strong>Rolling Hashing</strong></p>
			<p>文字列 s = s[0,n) に対してハッシュ値を次のように対応させます：</p>
			<p>　h(s) := (s[n-1] + p s[n-2] + ... + p^{n-1} s[0]) mod M</p>
			<p>つまり文字列を p 進数表示だと思って mod M で値をとったものです．Rolling Hashing とは，すべてのプレフィックス（もしくはサフィックス）に対してこの値を計算することをいいます：</p>
			<p>　phash[k] := h( s[0,k) )  for k = 0, ..., n</p>
			<p>ここで p と M は互いに素な数を選びます．以下では p = 10^9+7，M = 2^64 に選びます．</p>
			<p>Rolling Hashingで得られるテーブルを Rolling Hash Table ということがあります．また，Prefix Hash とか（これは同名があってヤヤコシイ），Sequence Hashと呼ばれることもあります．</p>			<br>

			<p><strong>部分文字列に対するハッシュ値計算</strong></p>
			<p>すべてのプレフィクスに対してハッシュ値を計算するのは普通に前から計算するだけです．そのテーブルがあれば，任意の部分文字列に対するハッシュも h(s[i,j)) = h(s[0,j)) - h(s[0,i)) * p^{j-i} として計算できます．p^{k} をすべての k について前計算しておけば h(s[i,j)) も O(1) です．</p>
<pre class="syntax-highlight">
  <span class="synType">static</span> <span class="synType">const</span> ULL p = <span class="synConstant">1000000007ULL</span>;
  string s;
  <span class="synType">int</span> n;
  vector&amp;#<span class="synConstant">60</span>;ULL&amp;#<span class="synConstant">62</span>; pow, phash;
  RollingHash(string s) : s(s), n(s.size()), pow(n+<span class="synConstant">1</span>), phash(n+<span class="synConstant">1</span>) {
    pow[<span class="synConstant">0</span>] = <span class="synConstant">1</span>; phash[<span class="synConstant">0</span>] = <span class="synConstant">0</span>;
    REP(i, n) {
      phash[i+<span class="synConstant">1</span>] = s[i] + phash[i] * p;
      pow[i+<span class="synConstant">1</span>] = pow[i] * p;
    }
  }
</pre>

			<p>...</p>
			<p><strong>で，何ができるの？</strong></p>
			<p>ハッシュ値の衝突を無視すると，部分文字列同士の一致比較が O(1) できます．</p>
			<p>いわゆるsuffix arrayが部分文字列の大小比較が O(1) でできる構造なので，rolling hash tableは劣化版suffix arrayだと思って良いかと思います．出来ることも基本的にニア・イコール．メリットは実装の簡素さにあります．</p>			<br>

			<p><strong>文字列検索（Rabin-Karp）</strong></p>
			<p>パターンの hash を計算して，テキストの前から順番に hash 値を比較するだけ（Rolling Hash で前計算しておく）．この手続きはRabin-Karpとして文字列検索では良く知られています．普通の文字列検索ではKnuth-Morris-PrattやBoyer-Mooreがあるのであまり使いませんが，基本事項です．</p>
<pre class="syntax-highlight">
  ULL hash(string t) {
    ULL h = <span class="synConstant">0</span>;
    REP(i, t.size()) h = t[i] + h * p;
    <span class="synStatement">return</span> h;
  }
  <span class="synType">int</span> find(string t) {
    <span class="synType">int</span> w = t.size(), count = <span class="synConstant">0</span>;
    ULL h = hash(t);
    REP(i, n-w+<span class="synConstant">1</span>) <span class="synStatement">if</span> (hash(i, i+w) == h) {
      ++count; <span class="synComment">/* found */</span> 
    }
    <span class="synStatement">return</span> count;
  }
</pre>
			<br>
			<br>

			<p><strong>最長共通接頭語：lcp(i,j) の計算</strong></p>
			<p>LCPの計算は，普通なら suffix array を作る際に O(n) で追加のテーブルを作っておいて RMQ を使って O(1) で計算するんだ！というところですが，rolling hashing を使っても O(log n) で計算できます．すなわち，lcp(i,j) は s[i,i+k) == s[j,j+k) を満たす最大の k なので，これを二分探索します．</p>
<pre class="syntax-highlight">
  <span class="synType">int</span> lcp(<span class="synType">int</span> i, <span class="synType">int</span> j) {
    <span class="synType">int</span> l = <span class="synConstant">0</span>, r = min(n-i, n-j)+<span class="synConstant">1</span>;
    <span class="synStatement">while</span> (l + <span class="synConstant">1</span> &amp;#<span class="synConstant">60</span>; r) {
      <span class="synType">int</span> m = (l + r) / <span class="synConstant">2</span>;
      <span class="synStatement">if</span> (hash(i,i+m) == hash(j,j+m)) l = m;
      <span class="synStatement">else</span>                            r = m;
    }
    <span class="synStatement">return</span> l;
  }
</pre>
			<br>

			<p><strong>Suffix Arrayの計算</strong></p>
			<p>k = lcp(i,j) とすると，s[i,n) と s[j,n) の大小関係は s[i+k] と s[j+k] の大小関係に一致します．なので，コレを operator &lt; に採用して sort するだけで suffix array が作れます．計算量は O(n (log n)^2)．定数が小さいのがポイント．</p>
<pre class="syntax-highlight">
<span class="synType">struct</span> RollingHash {
  <span class="synComment">// ...</span>
  <span class="synType">bool</span> <span class="synStatement">operator</span>()(<span class="synType">int</span> i, <span class="synType">int</span> j) { 
    <span class="synType">int</span> k = lcp(i, j);
    <span class="synStatement">return</span> i+k &amp;#<span class="synConstant">62</span>;= n ? <span class="synConstant">true</span> : j+k &amp;#<span class="synConstant">62</span>;= n ? <span class="synConstant">false</span> : s[i+k] &amp;#<span class="synConstant">60</span>;= s[j+k];
  }
  <span class="synComment">// ...</span>
};

  RollingHash R(s);
  <span class="synType">int</span> n = s.size();
  vector&amp;#<span class="synConstant">60</span>;<span class="synType">int</span>&amp;#<span class="synConstant">62</span>; sa(n);
  REP(i,n) sa[i] = i;
  sort(ALL(sa), R);
</pre>
			<br>

			<p><strong>最長回文</strong></p>
			<p>部分文字列 t のうち t == rev(t) が成り立つ最長のものを求める問題を考えます．</p>			<br>

			<p>簡単のため奇数長の回文に限ります．すると，長さ k の回文があれば長さ k-2 の回文もあるので，「最長回文の長さ」を二分探索できるようになります（偶数長への対応は間にダミーを挟むなどで可能）．</p>
			<p>長さ k の回文があるか，という質問は，O(n) で長さ k の部分列のハッシュを全部表に登録しておいて，reverse(s) の長さ k の部分列を O(n) で見てハッシュで一致するものがあるかを調べます．全体で O(n log n)．</p>			<br>

			<p><strong>最長k出現部分列</strong></p>
			<p>部分文字列の中で k 回以上出現するもののうち，最も長いものを求める問題を考えます．</p>			<br>

			<p>問題を反転して，長さ m の文字列のなかで最も出現回数が多いものの回数を f(m) とおくと，f(m) は m に関する単調減少関数なので，m に関する二分探索で f(m) &gt;= k なる最大の m を求めるのが全体的方針．</p>
			<p>f(m) の計算は長さ m の部分文字列のハッシュ値を全部テーブルに突っ込みつつ頻度の max をとるだけ．</p>			<br>

			<p>...</p>
			<p>このように，割と単純な手続きで色々と高効率なものが作れます．特に suffix array よりもだいたい実装が軽くなるのでオススメです．</p>
		</div>
]]></description>

			<dc:creator>spaghetti_source</dc:creator>

			<pubDate>Sat, 09 Feb 2013 09:57:46 GMT</pubDate>



		</item>

		<item>
			<title>Euclidean algorithm (Blankinship algorithm)</title>
			<link>https://topcoder.g.hatena.ne.jp/spaghetti_source/20130126/1359171466</link>

			<description><![CDATA[
		<div class="section">
			<p>a, b を互いに素な整数としたとき，方程式 a x + b y = 1 の整数解を求める手続きは拡張ユークリッド互除法（extended Euclidean algorithm）として知られています．今回はこれに関連する話題を紹介します．</p>
			<p><strong>非再帰のユークリッド互除法</strong></p>
			<p><a href="http://topcoder.g.hatena.ne.jp/iwiwi/20130105/1357363348" target="_blank">http://topcoder.g.hatena.ne.jp/iwiwi/20130105/1357363348</a> で Mi_Sawa さんが紹介している非再帰版のユークリッド互除法（以下の手続き）を導出するところからはじめます．</p>
<pre class="syntax-highlight">
LL extGCD(LL a, LL b, LL &amp;#<span class="synConstant">38</span>;x, LL &amp;#<span class="synConstant">38</span>;y) {
  <span class="synStatement">for</span> (LL u = y = <span class="synConstant">1</span>, v = x = <span class="synConstant">0</span>; a; ) {
    LL q = b / a;
    swap(x -= q * u, u);
    swap(y -= q * v, v);
    swap(b -= q * a, a);
  }
  <span class="synStatement">return</span> b;
}
</pre>

			<p>まず次の行列を考えます．</p>
<p><pre>
A' = |a 1 0|
     |b 0 1|
</pre></p>
			<p>（プライムは後の都合による）．すると，x = [-1, a, b] に対して A' x = 0 が成立します．そこで，この等式を崩さないように A' を行基本変形していきます．整数行列に対する行基本変形は</p>
			<ul>
				<li> ある行に別の行の整数倍を加える</li>
				<li> ある行の符号をかえる</li>
				<li> ある行と別の行を入れ替える</li>
			</ul>
			<p>という操作の繰り返しでした．これらは全て行列の左から 2×2 行列 S をかけることで実現できます．A' x = 0 の左から S をかけると S A' x = 0 なので，行基本変形は「x を解とする」ことを保ちます．また，基本変形がすべて可逆なので S は正則であり，S A' x = 0 から A' x = 0 が導けることも注意しておきます．</p>
			<p>さて，行基本変形の目的地として，一番左の列が簡単な形になるようにしましょう．基本変形の操作でユークリッドの互除法がシミュレートできることに注意すると，基本変形で</p>
<p><pre>
S A' = |g x y|
       |0 u v|
</pre></p>
			<p>までいけることがわかります．ここで g = gcd(a,b) です．これが [-1,a,b] を解にもつ，ということを書くと</p>
<p><pre>
  a x + b y = g
  a u + b v = 0
</pre></p>
			<p>となって不定方程式の解がもとまっていることがわかります．以上の手続きをコードにすると冒頭のものになり，非再帰の拡張互除法が導出できました．</p>
			<p>...</p>
			<p><strong>Blankinship's algorithm</strong></p>
			<p>上の形でのユークリッドの互除法の理解は [Blankinship 1963] によります．一般に，不定方程式</p>
			<p>　a_1 x_1 + ... + a_n x_n = gcd(a_1, ..., a_n)</p>
			<p>を解くためには行列 A' = [A, I] （A は a が縦に並んだ行列，右は辻褄の合う単位行列）について基本変形を行えばよい，ということを Blankinship は指摘しました．この意味で冒頭の非再帰版の拡張互除法は Blankinship's algorithm とも呼ばれます．</p>
			<p>なお，この手続きによって実は不定方程式の一般解も求まっている，ということが [Morito-Salkin 1979] によって指摘されています．上の２変数の例でいえば，すべての解は [x,y] + k [u,v] で書ける，ということですね．</p>
<pre class="syntax-highlight">
<span class="synType">typedef</span> <span class="synType">long</span> <span class="synType">long</span> LL;
LL extGCD(LL a[], LL x[], <span class="synType">int</span> n) {
  LL A[n][n+<span class="synConstant">1</span>];
  memset(A, <span class="synConstant">0</span>, <span class="synStatement">sizeof</span>(A));
  <span class="synStatement">for</span> (<span class="synType">int</span> i = <span class="synConstant">0</span>; i &amp;#<span class="synConstant">60</span>; n; ++i) {
    A[i][n] = a[i];
    A[i][i] = <span class="synConstant">1</span>;
  }
  <span class="synStatement">while</span> (<span class="synConstant">1</span>) {
    <span class="synType">int</span> k = -<span class="synConstant">1</span>; <span class="synComment">// k = nonzero argmin A[*][n]</span>
    <span class="synStatement">for</span> (<span class="synType">int</span> i = <span class="synConstant">0</span>; i &amp;#<span class="synConstant">60</span>; n; ++i) 
      <span class="synStatement">if</span> (A[i][n]) 
        <span class="synStatement">if</span> (k == -<span class="synConstant">1</span> || abs(A[k][n]) &amp;#<span class="synConstant">62</span>; abs(A[i][n])) k = i;
    <span class="synType">bool</span> fin = <span class="synConstant">true</span>;
    <span class="synStatement">for</span> (<span class="synType">int</span> i = <span class="synConstant">0</span>; i &amp;#<span class="synConstant">60</span>; n; ++i) {
      <span class="synStatement">if</span> (i == k || A[i][n] == <span class="synConstant">0</span>) <span class="synStatement">continue</span>;
      fin = <span class="synConstant">false</span>;
      LL q = A[i][n] / A[k][n];
      <span class="synStatement">for</span> (<span class="synType">int</span> j = <span class="synConstant">0</span>; j &amp;#<span class="synConstant">60</span>;= n; ++j) 
        A[i][j] -= q * A[k][j];
    }
    <span class="synStatement">if</span> (fin) {
      <span class="synStatement">for</span> (<span class="synType">int</span> j = <span class="synConstant">0</span>; j &amp;#<span class="synConstant">60</span>; n; ++j)  <span class="synComment">// A[k] = x; a x = g (particular solution)</span>
        x[j] = A[k][j];           <span class="synComment">// A[!k] = u; a u = 0 (homegeneous solution)</span>
      <span class="synStatement">return</span> A[k][n];
    }
  }
}
<span class="synType">int</span> main() {
  <span class="synType">int</span> n = <span class="synConstant">3</span>;
  LL x[n], a[n] = {<span class="synConstant">12</span>,<span class="synConstant">15</span>,<span class="synConstant">10</span>};
  LL g = extGCD(a, x, n);
  <span class="synStatement">for</span> (<span class="synType">int</span> i = <span class="synConstant">0</span>; i &amp;#<span class="synConstant">60</span>; n; ++i)
    cout &amp;#<span class="synConstant">60</span>;&amp;#<span class="synConstant">60</span>; x[i] &amp;#<span class="synConstant">60</span>;&amp;#<span class="synConstant">60</span>; <span class="synConstant">&quot; &quot;</span>; <span class="synComment">// -2 1 1</span>
}
</pre>
			<br>

			<p><strong>線形方程式の求解として見る</strong></p>
			<p>※コードここまで</p>
			<p>上の手続きの別の見方として，線型方程式 [x,y] A = c を解く問題だと考えます．右辺は拡張互除法では g でしたが，一般的に c にしておきます．普通の線型代数で方程式 x A = c を解こうと思ったら，A を適当に基本変形してくことになるので，それに倣って基本変形していきます．ただし，今 A はサイズ的に左からの積しか意味が無いので，左から操作します．左からの積は行基本変形に対応していたことに注意すると</p>
<p><pre>
A = |a|
    |b|
</pre></p>
			<p>に適当に左から行列 S をかける，ということなので</p>
<p><pre>
S A = |g|
      |0|
</pre></p>
			<p>となって，x S^{-1} = [s,t] とおけば結局 x A = s g = c となって，c が g で割り切れるときのみ整数解をもち，「s = 1/g, t = 任意」がその解全てであることがわかります．[s,t] から x を求めるには [x,y] = S [s,t] なので S が求まれば十分です．これは学部の線形代数の講義を思い出すと，A を A' = [A I] と拡張しておいて A 側に基本変形を行なって I に伝播させればよい，ということでした．この手続きは Blankinship の手続きと一致しています．</p>
			<p>※学部の線型代数でやることは，行列 A の逆行列を求めるために [A I] を考えて基本変形で [I S] へと変形すると S = A^{-1} になる，というものだったはずです．今は A の逆行列まではいけないので「S A = 簡単な形」とする S をあらわに求める手続きになっています．</p>			<br>

			<p><strong>単因子標準形</strong></p>
			<p>さらに拡張します．A を整数係数の行列，b を整数ベクトルとして，線型方程式 x A = b を満たす x を求める問題を考えます．今度は A は行基本変形も列基本変形も意味があるので両方やります．どこまで A がいけるか，ということに答えるものが単因子標準形です．</p>
			<p><strong>定理．</strong> 整数を成分とする行列 A にたいし，あるユニモジュラ行列 S, T が存在して</p>
			<ul>
				<li> S A T = diag(g[1], ..., g[r])　（サイズのあわないところはゼロ）</li>
				<li> g[1] = gcd(A[*]), g[i] は g[i+1] を割り切る</li>
			</ul>
			<p>例で見ましょう．</p>
<p><pre>
 |2 6| → |2  6| → |2 2| → |2 0|
 |4 8|    |0 -4|    |0 4|    |0 4|
</pre></p>
			<p>つまり，上の A = [2,6;4,8] という行列は S A T = diag(2,4) となる，ということです．方程式 x A = b を解きたければ A を単因子標準系にして x S^{-1} = y とおいて y (S A T) = b T とし，y(i) = (B T)(i) / g(i) が解なのでこれを x = S y で戻せば良い，ということになります．これで一般の整数係数 A x = b が解けるようになりました．</p>
			<p>実装では，基本変形は絶対値最小の要素を探してそれで行と列を掃き出すこと有限回で終わります（max |a*| が単調減少する）．これは１列の場合は Blankinship の手続きと一致するので，結局 Blankinship の拡張互除法は単因子標準形を求める掃き出し法の特殊版であったと理解できます．</p>
			<p>一般に，ここまで述べたことはすべてユークリッド整域（ユークリッド互除法が定義できる領域）で成り立ちます．ユークリッド整域の例には他にも Z，Z[√-1], Z[√-2], Z[ω], K[x] などがあります．複素整数環 Z[√-1] や多項式環 K[x] の gcd は一度は書いておきたいかもしれません．</p>			<br>

			<p><strong>参考文献</strong></p>
			<ul>
				<li> W. A. Blankinship (1963): A new version of the Euclidean algorithm, American Math. Monthly, no.7, pp.742-745.</li>
				<li> S. Morito, and H. M. Salkin (1979), Finding the general solution of a linear diophantine equation, Acta Informatica, vol.13, pp.379-382.  </li>
				<li> 伊理 正夫 (2009): 線形代数汎論, 朝倉書店.</li>
			</ul>

		</div>
]]></description>

			<dc:creator>spaghetti_source</dc:creator>

			<pubDate>Sat, 26 Jan 2013 03:37:46 GMT</pubDate>



		</item>

		<item>
			<title>subgradient representation of matroid intersection theorem</title>
			<link>https://topcoder.g.hatena.ne.jp/spaghetti_source/20130112/1357992239</link>

			<description><![CDATA[
		<div class="section">
			<p>今回は劣微分によるマトロイド交差定理の表現を紹介します．この形でマトロイド交差定理を説明している文献を見たことがありませんが，従来表現から簡単に出るので特に新しくはありません．ただ，自分の肌には良くあう理解です．</p>
			<p>以下では，まず劣微分について簡単に復習し，その後，マトロイド交差定理を表現します．</p>			<br>

			<p><strong>劣微分</strong></p>
			<p>まずは連続の場合から復習します．関数 f: V→R の点xにおける劣微分とは，<em>点xでfを下から支持する超平面</em>のことです．式で書くと次のようになります：</p>
			<p>　∂f := { p \in V^* : (p,y-x) ≦f(y)-f(x) for all y }</p>
			<p>(・,・)はペアリング（内積）です．任意の点で劣微分がとれることと，凸であることはほとんど同値（端点だけ例外）となります．病的な境界の関数を考えると違いが出てくるのですが，実用上は「凸解析＝劣微分がとれる関数クラスの理論」と思ってほぼ正しいです．</p>
			<p>劣微分と最適化の繋がりで最も重要なのは次の命題です：</p>
			<p><strong>命題．</strong> 0∈∂f(x) であることと，x が f の大域最適解であることは同値．</p>
			<p>（∵ z軸に並行な接平面がとれる＝自分より下が居ない．//）</p>
			<p>このことは「0∈∂f(x)」が「x が最適である証拠」だということを主張しています．逆に，最適の証拠がとれない場合には，劣微分を用いて最適解方向へ x を更新することが可能です：</p>
			<p><strong>命題 [see: Boyd 2003]．</strong> 任意の 0≠p∈∂f(x) について，あるh &#62; 0が存在して，d(x*, x - h p) &#60; d(x*, x)．ここで x* はある大域最適解．</strong></p>
			<p>（∵ d(x*, x-hp) を計算する．やるだけなので省略．//）</p>
			<p>※微分可能の場合によく使う勾配方向への更新では必ず目的関数値が減少しますが，劣微分方向への更新では減少しない例が作れます．それでも，x 自体は最適解へと近づきます．これは「劣勾配法の強収束性」と呼ばれています．</p>
			<p>これらのことから，標語的に</p>
			<p>　凸関数 &#60;=&#62; 劣微分存在 &#60;=&#62; 大域最適が計算可</p>
			<p>という関係が成り立ちます．</p>
			<p><br></p>
			<p>さて，劣微分に関する重要な性質として，次の定理（劣微分の和公式）があります．</p>
			<p><strong>定理．[Moreau-Rockafeller; see: Winfried 2007] </strong> f, g を凸関数とする．弱い仮定のもとで ∂(f + g) = ∂f + ∂g．</p>
			<p>一般の f, g で ⊇ 側の包含関係は従いますが，逆側が従うのが凸関数の良いところです．証明は凸集合の分離定理（Hahn-Banach）を用います．</p>
			<p>※弱い仮定は「エピグラフに対して凸分離定理が成り立つ」程度の仮定で，通常は成立すると思ってよい．</p>
			<p><br></p>
			<p><br></p>
			<p><strong>マトロイド</strong></p>
			<p>さて，ここからが本題です．マトロイドに関して劣微分の議論を導入します．関数を考えるので，マトロイドよりもM凸関数を考えたほうが自然です．関数 f がM凸であるとは，任意の x, y と i ∈ supp(x-y) について，ある j ∈ supp(y-x) が存在して</p>
			<p>　f(x) + f(y) ≧ f(x-ei+ej) + f(y+ei-ej)</p>
			<p>が成り立つことをいいます．たとえばマトロイドに対して f を次のように定義するとM凸関数になります．</p>
			<ul>
				<li> f(x) = -|x| if x 独立, +∞ if x 従属</li>
			</ul>
			<p>※一般に，M凸関数の実行定義域（値が有限をとる点）全体はマトロイド（の拡張）となります．マトロイドはM凸関数の実行定義域のことだ，と思っておいて大丈夫です．</p>
			<p><br></p>
			<p>M凸関数 f の劣微分はどうなるでしょうか．結論から言うと，これは</p>
			<p>　∂f(x) = { p ∈ R^n | p(j) - p(i) ≦ f(x-i+j) - f(x) }</p>
			<p>となります．最適性条件 0 ∈ ∂f(x) を書き下すと，上の式で p = 0 とおいて</p>
			<p>　0 ≦ f(x-i+j) - f(x)  (for all i, j)</p>
			<p>となります．これはM凸関数についてよく知られている最適性条件です（実際は：最適性条件から劣微分を出すほうが易しい）．</p>
			<p>最適でない場合の更新ですが，連続関数と違い，劣微分方向に進むことはできません．そのかわり，劣微分方向で整数格子上の一番近い点へと丸めることで，いわゆる「マトロイド上の貪欲法」が出てきます（減り幅最大の方向に進む）．つまりマトロイド貪欲は劣勾配法の一種と言えます．</p>
			<p><br></p>
			<p>続いて，マトロイド交差問題は次のように表現できます：f, g M凸関数について</p>
			<p>　min f(x) + g(x)</p>
			<p>x が f, g どちらかの実行定義域（独立集合）を外れると全体が無限大に飛ぶので，共通実行定義域（＝共通独立集合）に入ることが x の条件です．このことから，確かにマトロイド交差問題を表していることがわかります．</p>
			<p>この問題の最適性条件を見るために ∂(f + g) について考えます．実は，マトロイド交差定理は，Moreau-Rockafellerの定理の離散版と言えます：</p>
			<p><strong>定理 [Matroid Intersection; see: Murota 2003]．</strong> f, g をM凸関数とする．∂(f + g) = ∂f + ∂g．</p>
			<p>（∵Frank's weight splittingを使う）</p>
			<p>※M凸でない関数和では成り立ちません．例えば</p>
			<p>　f(x,y) = |x + y - 1| (… M凸)</p>
			<p>　g(x,y) = |x - y| (… L凸)</p>
			<p>はどちらも連続の意味では凸関数ですが，離散に制限すると和公式が成立しません．実際 f + g は (0,0) で最小値 1 を達成するので 0 が(f + g)の劣微分に入るはずですが，f の (0,0) での劣微分は (-1,-1) の一点のみ，g の (0,0) での劣微分は { (t,-t) | -1 ≦ t ≦ 1 } なので，和でゼロは作れません．</p>			<br>

			<p>...</p>
			<p><strong>劣微分からアルゴリズムへ</strong></p>
			<p>和公式が成り立つことを信じると，マトロイド交差アルゴリズムが自然に導出できます．最適性条件 0 ∈ ∂(f + g) = ∂f + ∂g は，ある p が存在して p ∈ ∂f, -p ∈∂g となることと同値です．これをM凸の劣微分の式とあわせると</p>
			<p>　p(j) - p(i) ≦ f(x-i+j) - f(x)</p>
			<p>　p(i) - p(j) ≦ g(x-i+j) - g(x)</p>
			<p>となります．ポイントは，この不等式系は最短路問題の双対 [Cormen-Leiserson-Rivest-Stein 2009] となっていることです．すなわち，グラフ G を「辺 (i,j) のコストが f(x-i+j) - f(x)，(j,i) のコストが g(x-i+j) - g(x) となるグラフ（＝交換グラフ）」とすると，p が存在することはグラフが負サイクルをもたないことと同値となり，負サイクルがないときは p として最短路長がとれます（適当に p(s) = 0としてよい）．</p>
			<p>逆に，負サイクルがあった場合，そのサイクルから劣微分の元を構成することができます．すなわち，負サイクルキャンセルアルゴリズムは，適当な劣微分（負サイクル）による劣勾配法とみなせます．</p>
			<p>...</p>
			<p><strong>まとめ</strong></p>
			<ul>
				<li> マトロイド交差定理は ∂(f + g) = ∂f + ∂g と表現可能．<br>※連続凸なら常に成り立つが離散凸では成り立つとは限らない．</li>
				<li> f+g の最小値を求めるために ∂(f+g) = ∂f+∂g = 0 とすると，交差問題の最適性条件（交換グラフに負閉路なし）が出る．</li>
				<li> 負閉路がある場合にそれにそってキャンセルするのは，劣勾配法の一種．</li>
			</ul>
			<p><strong>参考文献</strong></p>
			<ul>
				<li> S. Boyd (2003): "Subgradient methods", Notes for EE392o, Stanford University, Autumn, 2003.</li>
				<li> S. Winfried (2007): "Nonsmooth Analysis", Springer Berlin Heidelberg.</li>
				<li> K. Murota (2003): "Discrete Convex Analysis", Society for Industrial and Applied Matheamtics.</li>
				<li> T. H. Cormen, C. E. Leiserson, R. L. Rivest, and C. Stein (2009): "Introduction to Algorithm", The MIT Press, 3rd ed.</li>
			</ul>
			<ul>
				<li> S. Boyd (2003): </li>
			</ul>

		</div>
]]></description>

			<dc:creator>spaghetti_source</dc:creator>

			<pubDate>Sat, 12 Jan 2013 12:03:59 GMT</pubDate>



		</item>

		<item>
			<title>multiplicative weights update method</title>
			<link>https://topcoder.g.hatena.ne.jp/spaghetti_source/20130105/1357369188</link>

			<description><![CDATA[
		<div class="section">
			<p>今回は乗算型重み更新（multiplicative weights update method）について説明します．いろんな問題に適用できる手法ではありますが，基本的には「連続最適化問題の近似解を得る手法」なので，離散最適化問題・厳密解を重視する競技プログラミング的にはあまり役に立たなそうなネタです．ただし，実装は超容易なので，覚えておくと得することはあるかもしれません．</p>
			<p>...</p>
			<p>乗算型重み更新は双対勾配法の一種 [Baes-Burgisser 2010] で，様々な分野で何度も再発明されているテクニックです．特に機械学習分野では標準的な技法だったようですが，最適化分野で注目が高まったのは [Arora-Hazan-Kale 2007] による「sparsest cutのSDP緩和を高速に解く」という話からでした．この結果以降，サーベイ論文 [Arora-Hazan-Kale 2012] （2010年にプレプリントとして公開）を参考にした Lecture Note が多くの最適化分野の人によって書かれており，現在では標準的手法の１つになった感があります（see: Google検索： multiplicative weights, lecture note）．</p>
			<p>なお，より詳しい歴史的背景は [Arota-Hazan-Kale 2012]を参照してください．今回の解説もこのサーベイ論文を参考にしています．</p>
			<p><br></p>
			<p>さて，以下では乗算型重み更新の説明を行いますが，これは「幅広い問題に対するアルゴリズムの設計方針」みたいなものなので，抽象化して説明するのが大変です．自分が思うに，乗算型重み更新を理解するには，いろんな例題に対して適用してみるのが良さそうなので，今回は典型的な２つの問題に対して適用してみます．照明のパターンが重要なので，興味のある方は是非紙とペンを持って計算をフォローしてみてください．</p>
			<p>...</p>			<br>

			<p><strong>問題１．オンライン意思決定問題</strong></p>
			<p>次の状況設定を考えましょう．</p>
			<ul>
				<li> n 個の判別機がある．</li>
				<li> 質問が繰り返し与えられる．各質問に対して
				<ul>
					<li> 判別機は独立に答え（Yes / No）を出力する．</li>
					<li> <em>自分も何かしらの答えを出力する．</em></li>
					<li> 質問の正答が教えられる．</li>
				</ul>
				</li>
			</ul>
			<p>この設定で，トータルの<em>自分の正答数</em>をできるだけ多くするのが目的となります．どのように各判別機の結果を参考にするかが戦略（意思決定）にあたります．乗算型重み更新では，この問題に対して次のアルゴリズムを設計します．</p>
			<ul>
				<li> 重み p := (1, ..., 1) ∈ R+^n と初期設定する．</li>
				<li> 各質問に対して以下を実行する：
				<ul>
					<li> 重みに比例する確率で各判別機の回答を採用し，出力する．</li>
					<li> 間違えた判別機の重みを exp(-h) 倍する（h は小さな正の数）．</li>
				</ul>
				</li>
			</ul>
			<p>イメージとしては「たくさん間違えるとどんどん重みが軽くなり，答えが採用されなくなる」という感じです．重みの変化のさせ方には様々なバリエーションがあると思いますが，上のように <em>exp 倍で重みを変化させるテクニックのことを乗算型重み更新といいます</em>．</p>
			<p>※exp(-h) 倍のかわりに (1 - h) 倍するものも乗算型重み更新と呼びますが，exp の展開を考えると本質的に同値なので区別しません．一応 exp(-h) 型更新を「Hedge algorithm」といい，(1 - h) 型更新を「multiplicative weights update」と呼んで区別することもあるようです．</p>
			<p>乗算型重み更新で重要なことは，結果の評価にあります．今回の場合次の結果を証明することができます：</p>
			<p><strong>定理．</strong> 自分が間違える回数は，判別機の中の最多間違い回数 + log n / h + O(h) 倍以下．</p>
			<p><strong>証明．</strong> k 番目の質問のときの重みを p(k) とし，k 番目の質問に対する各判別機の成果を u(k) とします（正答なら u(k)_j = 0，誤答なら u(k)_j = 1）．判別機 j の k 回目までの間違え回数が Σ[l=1:k] u(l)_j となることに注意してください．</p>
			<p>ポテンシャル関数 F(k) := p(k)_1 + ... + p(k)_n とおいて，質問に対してどのように変化するかを評価します．</p>
			<p>　F(k+1) = Σp(k)_j exp(-h u(k)_j) </p>
			<p>ですが，右辺を h が十分小さいとして展開すると</p>
			<p>　F(k+1) = Σp(k)_j ( 1 - h u(k)_j ) = F(k) - h (p(k), u(k))</p>
			<p>となります．ここで (p(k), u(k)) / F(k) は k 番目の質問に対して自分が間違える確率に等しいので，それを m(k) という記号であらわすことにすると</p>
			<p>　F(k+1) = F(k) - h F(k) m(k) = F(k) ( 1 - h m(k) ) = F(k) exp(-h m(k))</p>
			<p>となります．ただし最後の等号では再び exp の近似展開を使っています．この式を繰り返し代入すると</p>
			<p>　F(k+1) = F(1) exp(-h Σm(l)) = exp(log n - h Σm(l))</p>
			<p>となりますが，一方で，F の形から，任意の j について</p>
			<p>　F(k+1) ≧ p(k+1)_j = exp(-h Σ[l=1:k] u(l)_j )</p>
			<p>という評価も成立します．これらをあわせて</p>
			<p>　Σm(l) ≦ log n / h + Σ[l=1:k] u(l)_j</p>
			<p>となります．誤差のオーダを見積もると + O(h) であることもわかります．//</p>
			<p>...</p>
			<p>証明のポイントは２点ありました．</p>
			<ul>
				<li> F(k) と F(k+1) の差の評価で「自分の損失（間違え確率）」が出ること．</li>
				<li> p(k)_j の評価で「各判別機の損失」が出ること．</li>
			</ul>
			<p>特に各評価が exp の肩に乗っていることから，全体としてO(log n)の評価できることに強みがあります．全体としてO(n)の誤差でいいなら普通の -h 的更新でも可能です．</p>
			<p>※上のように確率的にせず，決定的に行なっても類似の評価ができますが，評価の質が劣化します．これは「完全ランダム戦略」で1/2正答率が保証されることと関係があります．</p>
			<p>---</p>
			<p><strong>問題２．二人ゼロ和ゲームの鞍点</strong></p>
			<p>行列 A に対し，min[x] max[p] p A x を満たす確率ベクトル x, p を求める問題を二人ゼロ和ゲームの鞍点問題といいます．ゲーム理論で有名なNash均衡の存在定理は min[x] max[p] = max[p] min[x] が成り立つ，というものでした．</p>
			<p>この問題は，普通は線型計画問題に帰着して解きますが，乗算型重み更新でも解くことができます．</p>
			<ul>
				<li> p = (1, ..., 1) と初期化する．</li>
				<li> c := p A について min[x] c x を満たす確率ベクトル x を求める．</li>
				<li> p_j = exp( h (A x)_j ) と更新する．</li>
			</ul>
			<p><strong>定理．</strong> p(k)/Σp(k)_j := q(k) とおく．このとき Σq(l) A x(l) / T は鞍点の値の log n / h T 近似である．</p>
			<p><strong>証明．</strong> 先程と同じく F(k) := p(k)_1 + ... + p(k)_m と置いて評価してみます．まず F(k) の漸化式は</p>
			<p>　F(k+1) = F(k) + h (p(k) A x(k)) = F(k) (1 + h q(k) A x(k)) = F(k) exp(h q(k) A x(k))</p>
			<p>となります．漸化式を繰り返し適用して</p>
			<p>　F(k+1) ≦ exp(log n + h Σq(k) A x(k))</p>
			<p>となりますが，一方で</p>
			<p>　F(k+1) ≧ p(k+1) = exp(h Σ(A x(l))_j) </p>
			<p>という評価も得られるので，x(l) の平均を単に x とおいて整理すると</p>
			<p>　(A x)_j ≦ log n / h T + 1/T Σq(l) A x(l) </p>
			<p>となります．これが任意の j について成り立つので，任意の確率ベクトルと内積して</p>
			<p>　q A x - log n / h T + ≦ 1/T Σq(l) A x(l) </p>
			<p>と整理しておきます．いま，左辺を q で最大化すると max[q] q A x ≧ min[x] max[q] q A x = OPT であり，右辺は x のとり方から q(k) A x(k) = max[x] q(k) A x ≦ min[q] max[x] q A x = OPT となるので</p>
			<p>　OPT - log n / h T + ≦ 1/T Σq(l) A x(l) ≦ OPT</p>
			<p>となって，1/T Σq(k) A x(k) が鞍点の log n / h T 近似になっていることが示されました．//</p>			<br>

			<p>ここからもう少し頑張ると Σx(l)/T と Σp(l)/T が鞍点の近似解になっていることがわかります．</p>			<br>
			<br>

			<p><strong>実装例</strong></p>
			<p>２つ目の例題：二人ゼロ和ゲームの鞍点，の実装を示します．実装が恐ろしくシンプルなことに注目してください．</p>
<pre class="syntax-highlight">
<span class="synStatement">def</span> <span class="synIdentifier">mult_weight</span>():
  epsilon = 0.1;
  x = [1.0 <span class="synStatement">for</span> i <span class="synStatement">in</span> range(n)];
  y = [0.0 <span class="synStatement">for</span> j <span class="synStatement">in</span> range(m)];
  T = int(n / (epsilon*epsilon) );
  <span class="synStatement">for</span> t <span class="synStatement">in</span> range(T):
    c = [sum(x[i] * a[i][j] <span class="synStatement">for</span> i <span class="synStatement">in</span> range(n)) <span class="synStatement">for</span> j <span class="synStatement">in</span> range(m)];
    j = max(zip(c, itertools.count()))[1];
    y[j] += 1.0;
    x = [x[i] * (1 - epsilon * a[i][j]) <span class="synStatement">for</span> i <span class="synStatement">in</span> range(n)];
  <span class="synStatement">return</span> (normalize(x), normalize(y));
<span class="synStatement">def</span> <span class="synIdentifier">normalize</span>(x):
  <span class="synStatement">return</span> map(<span class="synStatement">lambda</span> t: t / sum(x), x);
</pre>
			<br>

			<p><strong>参考文献</strong></p>
			<ul>
				<li> S. Arora, E. Hazan, and S. Kale (2007): A combinatorial, primal-dual approach to semidefinite programs, Proceedings of the 39 annual ACM symposium on Theory on computing, pp.227-236.</li>
				<li> M. Baes and M. Burgisser (2010): Hedge algorithm and subgradient methods, Optimization Online.</li>
				<li> S. Arora, E. Hazan, and S. Kale (2012): Multiplicative weights update method: a meta-algorithm and its applications (Reserarch Survey), Theory of Computing Journal, vol.8, no.6, pp.121-164.</li>
			</ul>

		</div>
]]></description>

			<dc:creator>spaghetti_source</dc:creator>

			<pubDate>Sat, 05 Jan 2013 06:59:48 GMT</pubDate>



		</item>

	</channel>
</rss>
