囲碁を打つ人工知能AlphaGoと韓国のイ・セドル九段の対決は、AlphaGoの4勝1敗となり、人工知能の強さが世間を驚かせました。
 
その対局の棋譜は、三村智保九段の解説つきのものがこちらで見られます。
 
三村囲碁jp
AlphaGO

 
実は私は囲碁がかなり強く、私の数少ない自慢のひとつです。大学時代は囲碁部に所属し、全国大会でベスト8に入ったこともあります。
 
私が見たところ(誰が見ても同じですが)AlphaGoのほうがイ・セドル九段よりはっきり強いです。4勝1敗というスコアがちょうど実力差を表しています。
そのAlphaGoの負けた一局も、AlphaGoが優勢な局面でイ・セドル九段が妙手を放ち、そのとたんにAlphaGoがまるで初心者みたいなおかしな手を連発して自滅するという負け方でした。つまりAlphaGoの欠陥が出たのです。ということは、その欠陥を修正してくると、もう人間は勝てなくなるかもしれません。
いや、AlphaGoは自己対戦を繰り返しながら学習するということですから、次は確実に今より強くなっているはずです。
 
第2局について三村九段はこんな感想を書いています。

 
2局も勝ったのはコンピューターだった。
 
黒番のAlphaGoは大胆な布石を見せた。明らかに損だと思える手がいくつもあった。
 
「それはダメでしょう?」と呆れさせるような。しかし進むに連れて評価を変えなくてはならなかった。
途中まではそう思えないのに、局面が進む程にAlphaGoの勝利が不動である事を思い知らされる。
 
これは、始めから最後までプログラムの打ち手が優れている為なのか、前半は下手だが後半があまりに上手いせいでそうなるのか、私の棋力では判断しかねる。
 
世界最強棋士達の研究と発表を待ちたい。
 
 
1局よりもこの敗戦のインパクトは大きい。AlphaGoが既に人間の棋力を凌駕している可能性を私は感じた。
 
1手ごとに見れば理解不能で良さが感じられないが、結果が優れている。これはつまりそういう事では無いか。
 
 
呉清源九段は囲碁界に革命を起こした天才棋士ですが、当時は不利とされていた定石を繰り返し打ちました。そして、その碁をことごとく勝ったので、やがてその定石は逆に相手が不利だと価値観が変わりました。AlphaGoは当時の呉清源九段を思わせます。
 
 
AlphaGoをつくったグーグルのスタッフの囲碁の腕前はどれくらいかというと、よく知りませんが、せいぜいアマチュアの強豪というところでしょう。つまり「出藍の誉れ」というか「トンビが鷹を生んだ」という格好です。
ということは、人工知能が人間以上の存在になって、人間を支配するとか滅ぼすということもあるかもしれません。ホーキング博士がその危険性を指摘しています。
 
人工知能が人間よりも優秀になっても、人間を支配したり滅ぼしたりしないようにプログラミングしておけばいいのですが、それをするには、人間が人間のことを正しく認識していなければなりません。
ところが、人間は人間のことをほとんど知らないのです。
 
「鉄腕アトム」でスカンク草井なる登場人物がこんなセリフを言います。
 
「アトムは完全ではないぜ。なぜなら悪い心を持たねぇからな」
 
人間と同じ心を持つロボットをつくろうとすれば、「悪」も組み込んでおかなければなりませんが、人間は「悪」を正しく認識していないので、それはできません。
しかし、人間がやらなくても、人工知能が勝手に「悪」を学習して、取り込んでしまうということがあるかもしれません。
 
AlphaGoにはディープラーニングという技術が採用されていますが、「NHKニュースWEB」によると、ディープラーニングとはこのようなものです。
 
ディープラーニングでは、あらかじめ「問題」と「正しい答え」をコンピューターに入力して学習を行います。しかし、その問題の「解き方」については入力しません。その部分はコンピューター自身に考えさせるのです。そうすることでコンピューターの内部にあるネットワークは、正しい答えにたどり着く経路が強化され、逆に間違った経路は弱まっていくことが分かったのです。
 これは人間の脳が学習していく仕組みに非常によく似ていると考えられています。これがディープラーニングと呼ばれている技術です。
 そして、学習量を増やせば増やすほど、コンピューターは、より難しい問題にも正解を出す能力が備わっていきます。より「賢い」人工知能ができあがるのです。もちろん、これはものすごく単純化した説明です。実際には、まだまだ解明されていない部分も多くあります。
 
人工知能が人間の行動を学習するうちに、当然「悪」についても学習するはずです。そうすると、人間の「悪」と人工知能の「悪」がぶつかり合うことになります。
人間は「悪」を正しく認識していないので、その事態を制御することができません。
ホーキング博士の心配はもっともです。
 
 
ところで、人間はなぜ「悪」を正しく認識することができないのでしょうか。
それは、自分の中に「悪」があることを認めないからです。
「相手が悪い。自分は正しい」というのが、ほとんどの人間の認識です。私はこれを「天動説的倫理学」と呼んでいます。
こういう認識ですから、戦争も夫婦喧嘩も止められません。
そこに人工知能も参入してくるわけです。
そうなる前に「天動説的倫理学」から「地動説的倫理学」へとコペルニクス的転回をしなければなりません。