インターネットやコンピューターは日進月歩で進化していきます。ITビジネスもどんどん新しいものが出てきて、テクノロジーも新しい技術が次々と登場しています。でも、その中で変化しないものもちゃんとあります。
今回は、「ハードウェア」と「ソフトウェア」という分け方で、変化するものと変化しないものの見抜き方を紹介します。
ハードウェアは日進月歩
どんどん進化して変わっていってしまう印象が強い「テクノロジー」の世界ですが、確かに「ハードウェア」はその通り、どんどん進んでいってしまいます。
「ハードウェア」とは、機械そのもの、目に見える・形あるもののことです。
「ムーアの法則」
ハードウェアの進化スピードを表すときによく引用されるのが、「ムーアの法則」です。とても有名ですが、最近あまり取り上げられなくなりました。
ムーアの法則とは:
Wikipediaより引用
集積回路上のトランジスタ数は「18か月(=1.5年)ごとに倍になる」
とても乱暴に言うと、コンピューターの処理速度が、毎年毎年、2倍×2倍×2倍・・・と大きくなっていく、ということを意味します。
こういう伸び方を「指数関数的」と呼びます。
赤い線が指数関数を示すグラフです。
こんな感じで、毎年毎年倍になる現象です。これは事業成長のイメージをつかむときにも出てくる概念なので、覚えておくと吉です。
性能は爆増し、コストは激減していく
「ムーアの法則」が象徴するものがいくつかあります。
1つは、「ハードウェア」の性能が爆発的によくなります。
例)CPUの性能
たとえば、20年以上前に私がパソコンを組み立てていたとき、「CPU」と呼ばれるパソコンの中心にあって計算をする部品の性能は「75MHz」でした。これは、
75,000,000 回計算できる(1秒の間に)
という意味です。
いまこのブログを書いているパソコンは「Core i7」という名前で、現在はCPUの製品ラインナップが非常に複雑なので確定できませんが、この性能がだいたい「4.0GHz」ぐらいです。つまり、
4,000,000,000 回計算できる(1秒の間に)
これが、6個入っているそうです。またしても乱暴に、単純に6倍してしまうと、
75,000,000 回計算できる(1秒の間に)
24,000,000,000 回計算できる(1秒の間に)
G M k
例)ディスクの容量
さかのぼること30年前、主たる記憶デバイスは「フロッピーディスク」でした。
「フロッピーディスク」も種類がいくつかありますが、あまり昔にさかのぼっても意味がないので、おそらくはビジネスシーンでよく利用された「3.5インチ」のタイプを例にとります。
こんな感じのプラスチックのケースの中に、ペナペナの薄くて丸いフィルムみたいなものが入っていました。
この容量(記録できるデータの大きさ)が
「1.44MB」
つまり、
1,440,000 バイト
M k
です。
いまこのブログを書いているパソコンのディスクの容量は、
「1T(テラ)」
です。つまり、
1,000,000,000,000 バイト
T G M k
比較すると、
1,440,000 バイト
1,000,000,000,000 バイト
T G M k
ゼロの増え方が激しいです。
例)通信速度
さかのぼること40年近く前、まだ「アナログの固定電話」、つまり、
こういう固定電話が普通に現役だった時代です。このころ「モデム」という機械を電話線とパソコンの間につないで文字通り「パソコン通信」をしていました。
当時の通信速度が、「2400bps」、つまり、
「ゼロかイチ、を1秒間に2,400個送れる」
でした。
いまのケータイは、「4G」という規格でその速度は「100Mbps」だそうです。つまり、
100,000,000 ビット(1秒間に)
M k
比較しますと、
2,400 ビット(1秒間に)
100,000,000 ビット(1秒間に)
M k
余談)ゼロの数を表す記号
ゼロの数を表す記号が何度か出てきました。次のモノを覚えておけば現在のテクノロジーではだいたい対応できます。
- k(キロ)
- M(メガ)
- G(ギガ)
- T(テラ)
下に向かって「ゼロが3つずつ」増えていきます。
パケ代がなくなることを「ギガ足りない!」と言っているとわかったときには、文字通りおなかを抱えて笑いましたが、「ギガ」のもともとの意味はこれです。
「ソフトウェア」の周期は、数十年
ハードウェアの進化は激しく進んでいきますが、「ソフトウェア」の進化速度はそれほど早くありません。というか、「激遅」です。
ハードウェアと同じように、事例を見ていくのがわかりやすいです。
マウスでウィンドウを操作する仕組みは、50年
いま、パソコンを使うと、マウスでウィンドウを操作するのが普通です。この「ソフトウェア」はいつ頃出てきたのでしょうか。
一般には「パロアルト研究所」で最初に開発されたと言われています。
それはなんと「1973年」、ほぼ50年前です!!
そこで開発され実際に利用されていた「Alto」というコンピューターを、あの「Apple」を創業した「スティーブ・ジョブズ」が見学します。これが1979年のことです。
その後、1984年に「Macintosh」が発売されました。
さらに、これをみたビル・ゲイツが「Windows」を作ったのだ・・・と生前スティーブ・ジョブズは繰り返し主張していました(笑)
つまり、実際に動いているものが開発されてから、我々の手元で普通に使われるようになるまでに、40年、あるいは、50年の時間がかかっているわけです。
「クライアント・サーバ」
「クライアント・サーバ」という言葉は、私自身が学生時代に教えてもらったことを思い返せば(笑)、少なくとも30年以上前から存在します。そして、いまもインターネットの仕組みの大半が、この「クライアント・サーバ」という仕組みで動いています。
「クライアント・サーバ」のなかでもっともシンプルな形で動いているのが「Webサーバ」、つまり、「ホームページ」を実現している仕組みです。
この場合、「クライアント」は手元のブラウザ、つまり、ChromeやSafari、Internet Explorer、Edgeなどのアプリです。
「サーバ」というソフトウェアは、インターネットのどこかでクライアントの要求が来るのをひたすら待っています。
「クライアント」であるブラウザから、たとえば「ヤフーのトップページをください」という要求(リクエスト)を送ります。
すると、そのページを送ることのできる「Webサーバ」がその要求に答えて、「クライアント」であるブラウザにそのページのデータを送ります。
ブラウザは、そのデータを受け取って解釈し、私たち人間が見る形に変換して表示します。
ブラウザの解釈機能は、HTMLやCSS、JavaScriptなどの技術をフル活用する非常に複雑なものです。
これに対して、「クライアント」と「サーバ」とのやり取り(通信)は非常にシンプルです。つまり、
「ください」→「はいよ」
・・・以上です。
このシンプルさが、インターネットが世界に広がり、いまでも動き続けている理由でしょう。
「Webサーバ」の他にも、「メールサーバ」「DNSサーバ」など多種多様なアプリ・ソフトウェアが、非常にシンプルな「クライアント・サーバ」という仕組みで、30年以上それほど大きく変わることなく、動き続けています。
AIのブームは30年周期で3回目
カメラで顔を認識されたり、ロボットと会話ができたり、チャットができたりすることが認知され、すっかり一般的になりました。これは「ディープラーニング」という数学を使った「人工知能(AI)」が革命を起こしたためです。
しかし、この人工知能の仕組みは近年突如現れたものではありません。その歴史は、なんと「70年前」(!!)にさかのぼります。
1950年:第1次AIブーム
1回目の「AIブーム」は1950年頃起きたと言われています。
この当時、現在の「ディープラーニング」のもととなる、人間の脳や神経の仕組みをマネして計算する、という発想が出てきました。
「パーセプトロン」などと呼ばれ、推論や探索の問題を解くことができましたが、ハードウェアの性能がついてこなかったことから、実用化には遠い状態でブームが終わってしまいました。
1980年:第2次AIブーム
2回目の「AIブーム」は、1980年頃です。
当時、「ニューロ&ファジー」という機能が付いた家電が出た時期がありましたが、この前半の「ニューロ」の部分が、実は第2次AIブームの産物です。(「ファジー」はまた別の数学です。)
「ニューロ」という言葉は、「ニューロン」から来ています。「ニューロン」というのは、人間の脳や神経の中にあって主要な役割を果たします。
こんな感じのものすごくシンプルな細胞で、電気を通します。たとえば、人間の脳はこの「ニューロン」が1500億個とか2000億個とか、とにかくものすごくたくさん縦横無尽につながってできています。
この「ニューロン」に関連して、当時の主な呼び名は「ニューラル・ネットワーク」でした。「ニューラルネットワーク」は人間の神経細胞「ニューロン」の動きを数学に置き換えます。プログラム言語は、基本的に数学を書きあらわすことができるようになっているので、数学に置き換えることで、コンピューターで計算することが可能になります。
私自身がこのブームの終わりごろに少しだけ引っかかっています。
大学の卒業研究で実現したのが、「AIに新幹線の駅名を覚えさせる」でした。
まずは、東海道新幹線の駅名(20個ぐらい)を読ませた音声データを15人分ぐらい集めます。その音声データを〇千万円する小型冷蔵庫ぐらいの大きさの「スーパーコンピューター」に入れて三日三晩学習させます。それを「ワークステーション」と呼ばれた〇百万円ぐらいのコンピューターにマイクを差して、マイクに向かって「東京」というと、画面に「東京」という文字が出る(!)というソフトウエアでした。
それから数年後には、駅名を言うと入力できるシステムが駅などで出ていましたので、先端のほうを走っている研究室だったと思います。
2010年:第3次AIブーム
今回の「AIブーム」は、2006年ごろ「ディープラーニング」という計算方法が発表されたところから始まります。
象徴的な事例は、IBMの「Watson(ワトソン)」です。「Watson」が人間のクイズ王に勝ってしまったのが、2011年のことです。このあと、囲碁で勝ったりチェスで勝ったり、つまり人間のチャンピオンがAIに負けてしまう事例が続きました。
このあと、カメラでリアルタイムに顔を認識したり、体温を測ったりすることができるようになったのは、ニュースなどで流れているとおりです。
【定理】「ハードウェア」の進化にぴったりマッチの「ソフトウェア」が出てくるとブレイクする
この「AI」の進化の歴史から学ぶべきポイントです。
えいちゃんのヒトコト:
「ハードウェア」の進化・性能にぴったりマッチする「ソフトウェア」=数学が出てくると、大ブレイクする、
「ハードウェア」の進化は、前述の「ムーアの法則」に象徴されるような計算能力の増大や、「GPU」という部品の普及でこういう計算を安く大量に行うことができるようになっていたこと、さらに「クラウド」を利用して、安価に即座に大量の計算ができるようになってきたことが、今回のブームの背景にあります。
たとえば、第2次ブームで私自身が扱っていた「バックプロパゲーション」という手法は「3層」が限界でした。
第3次ブーム、つまり、現在の「ディープラーニング」では100層を超える場合もあるそうです。これが、先に記述したスーパーコンピューターで計算することもできれば、手元のパソコンで手軽に計算させることもできるという、スゴイ時代になりました。
まとめ
「ハードウェア」と「ソフトウェア」という分け方で、変化するものと変化しないものの見抜き方を紹介しました。
日進月歩、どんどん変わっていってしまう「テクノロジー」の世界でも、変わらない普遍的なものがあり、それは何十年も役に立ち続けます。
お役に立てば幸いです。
コメント