share-knowledge’s diary

英語論文やニュース等で私が面白いと思ったものをアップしていきます。

DCGAN

DCGANとはDeep Convolutional Generative Adversarial Networksの頭文字をとったもので、Generator(贋作者)とDiscriminator(鑑定士)の二つのニューラルネットワークを持っています。この二つのニューラルネットワークが戦いあうことにより、本物のような画像が作成されます。

DiscriminatorCNNとして、本物か贋物を区別する役割をもっています。一方で、Generatorはランダムなデータを一つ画像に変換することで、贋作となる画像を生成します。Discriminatorは、本物の画像と贋作の画像を用いて、両者を鑑定します。Generatorが最初に作成する贋作の画像は、本物の画像とは似つかないものになるため、Discriminatorをだますことはできません。GeneratorDiscriminatorをだませるようになるまで、何度も訓練し贋作の画像の精度を上げていきます。最後には、Discriminatorは、本物の画像とGeneratorが作成した贋作の画像を見分けることができなくなります。この結果、贋作は本物の画像の特徴をうまくとらえたものになり、本物のような画像を作成できるわけです。

f:id:share-knowledge:20180121204411p:plain

(参考)https://www.oreilly.com/ideas/deep-convolutional-generative-adversarial-networks-with-tensorflow

畳み込みニューラルネットワーク

畳み込みニューラルネットワーク(Convolutional Neural Network)は生物の視覚野から発想を得たものでで、画像内の特徴を抽出して物体の認識を行います。例えば、私たちは犬の特徴、ネコの特徴等を無意識に認識して、犬の画像を見たときに、これが犬であることを認識します。単純な特徴としては、4本足で爪がある・・とかです。ただ、4本足で爪がある動物はたくさんいるため、より細かい特徴でもって、私たちはこれが犬だとか猫だとか認識するわけです。コンピュータも同様で、より細かい特徴(体の曲線等々)を見つけていくことで、画像を認識します。その仕組みを単純化すると、CNNでは、多くのフィルターを用いて、元の画像を3次元構造のデータに変換します。このデータにはフィルターにより抽象化された多様な特徴量が含まれています。このデータをニューラルネットワークに入力することにより、多数の特徴を踏まえて、この画像の物体が何であるかを確率として算出することができます。例えば、犬の画像をCNNで計算した結果、犬の確率95%、ネコの確率3%、ライオンの確率1%・・・・といった形で確率が算出され、犬と認識されるわけです。

ベゾスの“2枚のピザ”ルール

AmazonのCEOのジェフ・ベゾス(Jeff Bezos)は不要な会議を避けるために“2枚のピザ”ルール(two pizza rule)を持っています。これは会議にはピザを出すというわけではなく、2枚のビザが会議出席者に行き渡らないような人数が出席する会議はやらないということを意味しています。すなわち、会議は少人数で実施することが効率的だという考えがあるわけです。

Steven RogelbergとLarissa Barberの研究においても、多すぎる会議は会社の資本を浪費しており、より少ない会議は社員や組織の生産性を上げると結論付けています。Rogelbergは2011年に発表した論文“Wasted Time and Money in Meetings Increasing Return on Investment”にて、7~15%の会社の予算が会議に割かれていることを指摘しています。

 (参考)CNBC “How Jeff Bezos' 'two pizza rule' can help you hold more productive meetings”,“Fewer Meetings Can Boost Employee and Organization Productivity”

無人偵察機「ファイアスカウト」

MQ-8ファイアスカウトとは、ノースロップ・グラマン社製の警戒監視・偵察の任務を行う自律型ヘリコプターです。MQ-8Bという前モデルに比べて、新モデルのMQ-8Cはペイロードと滞空時間が大幅に改善されているようです。主要な特徴は以下のとおりです。

 

MQ-8B

MQ-8C

最大速度 

85kts

135kts

巡航速度

80kts

115kts

上昇限度

12,500ft

16,000ft

最大滞空時間

5.5時間

12時間

燃料&ペイロード

3,150lb

6,000lb

全長

31.5ft

34.7ft

(参考)航空情報(2017年4月号)

 

(読書メモ)トランプの黒幕

共和党保守派についてまとめた良書。興味深いと思った点は以下のとおり。

 ○共和党の大統領予備選挙は、民主党に比較的近いリベラルな傾向を持つ党内主流派と、小さな政府の原理原則を貫く保守派の二つの派閥が争って決まることが通例となっている。今回の予備選においては、主流派(マルコ・ルビオ、ジョン・ケーシック)、保守派(テッド・クルーズ)、イレギュラーな候補としてのトランプによる争いとなった。事前予測では、主流派のケーシックとルビオならば、ヒラリー・クリントンに勝利する予測が出ていた。一方で、クルーズとトランプは敗北との予測であった。予備選を勝ち抜き共和党の指名を得たトランプであったが、事前予測では敗北である。しかしながら、「ヒラリーよりはマシ」との妥協が共和党保守派に働き、トランプは保守派の支持獲得に成功することとなる。これにより、トランプはヒラリーと渡り合える基盤を獲得することとなる。他方、ヒラリー陣営は自らの支持層の投票棄権や、リバタリアン党や緑の党への党の流出を防ぐことができなかった。実際に、ヒラリーの得票は、接戦州においては前回の大統領選挙のオバマの得票よりも激減している。したがって、トランプの勝利は、共和党保守派の支持獲得とヒラリー陣営の自滅によってもたらされたと考えられる。

 ○メディアがヒラリーの勝利を全体とする報道をしていた件に関し、そもそも大手のリベラルなメディア(CNN、Washington Post、New York Times等)は民主党支持であり、共和党保守派を敵視している。大手メディアと主流派は相対的に良好な関係であるが、保守派とは敵対関係にあり、このため、保守派に支持されたトランプに対し批判的な論調で報道することとなる。日本の報道は大手のリベラルなメディアの後追い報道でしかないため、日本国内でもヒラリー勝利を前提とする報道がされたと考えられる。

 ○共和党保守派は自らの政策を実現させるために、シンクタンクを設立し政策の立案や人材の育成を図っており、代表的なシンクタンクにはヘリテージ財団がある。米国は政治任用制度があることから、シンクタンクより人材を政権に送り込まれる。今回のトランプ当選によりヘリテージ財団からトランプ政権に人材が送り込まれると考えられる。

 (参考)「トランプの黒幕」渡瀬雄哉(祥伝社)

ニューロンの構造

ニューロンは複数の入力を単一の出力に変換します。各ニューロンには固定された値であるバイアスがあります。また、入力とバイアスにはそれぞれ重み(Weight)があります。この重みの値はそれぞれ異なります。ニューロン内では、入力×重みの合計+バイアス×重みを出力に変換する関数があり、この計算の結果、出力が出されます。

ニューラルネットワーク

ニューラルネットワークとは人の脳の神経細胞(ニューロン)のネットワークを模倣したものです。人の脳には20億個のニューロンがあると言われており、個々のニューロンは軸索を通じて他のニューロンと情報のやりとり(入力+出力)を行っています。

人のニューロンは、コンピュータ上のシリコントランジスターにあたり、人のニューロンのサイズが6~10マイクロンですが、トランジスターは9~10マイクロンになります。下記の図を参考。

f:id:share-knowledge:20180121203230p:plain

ニューラルネットワークは入力された情報を、ニューロンが受取りそれをいくつかのニューロンを経由して、最後に出力されます。以下の図のように、ニューラルネットワークは入力層、隠れ層、出力層の層があり、以下の図では隠れ層は2層ですが、より多層の場合もあり、複数の層によって形成されています。これにより、複雑な判断をコンピュータにさせることができます。

f:id:share-knowledge:20180121203417p:plain

(参考)https://medium.com/@xenonstack/overview-of-artificial-neural-networks-and-its-applications-2525c1addff7