{お知らせ}サイトの移動=>Posterous

November 9, 2010

日頃より、ご購読を頂き、ありがとうございます。このたび、諸事情によりサイトの変更を致しました。
今度からは下記のサイトにてブログをお楽しみください。
http://ippei.posterous.com/

よろしくお願いします。

鈴木いっぺい

test posting

November 8, 2010
test posting

[#SmartGrid #スマートグリッド] Stuxnetと呼ばれる、スマートグリッドを狙った初の本格的なウィルス

November 8, 2010
スマートグリッドは、その技術の登場以来、セキュリティに対する懸念と対策の重要性については議論されている。 NISTにおいてもスマートグリッドのセキュリティに関する専門の諮問組織を作り、下記のようなドキュメントを作成し、公開している。

Guidelines for Smart Grid Cyber Security
introduction-to-nistir-7628.pdf
NISTが定義するスマートグリッドのアーキテクチャに基づいて、採用すべきセキュリティの技術、方策について記述している。

このような動きがある中、今年の夏頃から、とあるスマートグリッドに関するセキュリティの問題が発生し、話題を集めている。

Stuxnetと呼ばれるコンピュータワームである。

このStuxnetワームは、Microsoft Windowsのセキュリティの脆弱性をいくつかついて、電力グリッドネットワークに入り込み、その心臓部である電力供給制御ITシステムである、イランの原子力発電所施設を制御する、SCADA (Supervisory Control and Data Acquisition)に障害を与える事を意図的に設計したものである事が明らかになっている。

7月に発覚したこのワーム、だんだんとその詳細が調査の結果明らかになってきている。特に最近になって、IEEE主催のシンポジウムにて詳細な分析結果が報告されている。
  1. 30人が開発に関わっている、という形跡がある。
  2. このワームが独自に構築するネットワーク事態は非常にセキュリティ性が強く、FIPS140-2という規格を採用している。
  3. Sutxnetが登場してから、数日間活動し、Siemens社製のWindowsベースのSCADAシステムを攻撃対象として、USBでバイスを経由してどんどんと広がって行った。
  4. Siemens社製のSCADAシステムが攻撃されやすかった原因の一つとして、そのシステムのソースコードにデータベースをアクセスするためのパスワードが直接書き込まれている、という事が指摘されており、SCADAシステムのセキュリティに対する意識の低さを露呈している。
  5. Stuxnetの開発者は、Windows 2000からWindows 7に渡って提供されるすべてのウィルス防止ソフトウェアを購入し、発覚されないための対策が施されている。
  6. Symantec社が行ったStuxnetを分析する過程に置いて、リバースエンジニアリングの技術を活用しているが、Stuxnetの開発自体も同様な技法をもって開発されている、と指摘している。
  7. ターゲットとしている特定のSCADAシステム以外に対しては全く何も影響を与えない、という事もわかっている。

このStuxnetが突いた、Microsoft Windowsの脆弱性は下記の要件である。非常に高度な構造を持っている、という事が理解できる。

  • USBデバイスに関するプログラムを自動的に起動する機能の脆弱性を経由して自分をどんどんコピーしていった。
  • Microsoft Windows Shortcut ‘LNK/PIF’ Files Automatic File Execution Vulnerability 

(BID 41732)

  • Windows Print Spoolerの脆弱性を利用し、LAN内でどんどんを自分を複製していった。
    • Microsoft Windows Print Spooler Service Remote Code Execution Vulnerability (BID 43073)
  • RPCに関する脆弱性をついて、SMB内で広がっていった。
    • Microsoft Windows Server Service RPC Handling Remote Code Execu- tion Vulnerability (BID 31874).
  • Network Share機能を利用してさらに自分の複製をリモートコンピュータに作った。
  • WinCCデータベースを稼働するリモートコンピュータに自分の複製を作る。
  • Windows Rootkitを利用し、バイナリーコード隠蔽する。
  • Microsoftがまだ公開もしていないものも含む、Windowsの脆弱性、4件が使用されている。
  • スマートグリッドによるネットワークはまだまだこれから、という時代に、かなり技術レベルの高いウィルスが早くも登場した事に業界がかなり動揺している状況である。この様なベンチマークが初期の段階から登場すると、今後さらに高度な技術を保有するウィルスによる電力グリッドに対する攻撃が想定されることになり、問題はこの一件にとどまらず、今後の対策に大きな注目が集まっている。

    SCADAシステムは、通常の企業内のITシステムと異なり、頻繁にメンテナンスを行う事が少なく、このようなウィルスの攻撃に対する防御、対策の体制がしっかりしていないケースが多い。

    McAfee社が公式に述べている見解によると、Stuxnetの懸念すべき問題は次の2点である、と述べている。
    1. 未だに公開されていない、Windowsの脆弱性を突いている事
    2. Malwareには珍しく、Rootkitを巧妙に利用するDigital Signatureをもつドライバーを保有する。

    Stuxnetの感染は、次のような形で行われる、と解説されている。
    1. ユーザがシステムにUSBドライブを挿入する。
    2. このUSBデバイスが感染し、Windows Shell Code

    に関する脆弱性をつく方法でMalwareを起動する。

  • 感染したシステム上で、Siemens社のとSIMATIC WinCC呼ばれるSCADAシステムの存在を検知し、そのソースコードにハードコードされたパスワードを利用してWinCCのデータベースシステムの制御を乗っ取る。
  • McAfeeはさらに、SCADAシステムに代表される制御システム、というものは企業に置けるITシステムと根本的に異なる面がある、と説明している。
    • 制御システムであるため、Avalabilityが最重要課題であり、そのためにパッチやアップデート等の適用はITシステムのようにシステム停止を行う事を通して出来ない。
    • 制御システムは通常ITシステムとは異なる場所に設置され、全く異なる部隊によって管理されているケースがある。

    Siemens社のSCADAシステムが攻撃された要因の一つとされている、ソースコードにデータベースアクセスのためのパスワードをハードコードしている問題は、実はこのAvailabilityを保証するために取られている対策である。ITの感覚では考えられない事であるが、パスワードを不用意に変更した事によるシステム障害を防止しようと思うと、この方法を足らざるを得ない、というのがSiemens社の見解である。立場が変わるとシステム設計も大きく影響を受ける事例の一つであるが、Stuxnetをそこを突いている、という事である。

    ComputerWorld誌によると、さらにStuxnetの分析で次のような事も明らかになっている、としてる。
    1. 開発には相当の時間が要している。これだけの時間をかけているとなると、更なる攻撃手法も開発している、と想定される。
    2. Stuxnetはデジタル証明書を利用していて、それも捏造ではなく、台湾にある、2つの会社に発行された正式なものである事がわかっている。盗用せずに、これらをブラックマーケットで購入しようとすると、数十万ドルの価格になる、としている。

    Stuxnetによる問題が発生して、幸運だと言わざるを得ないのは、このワームは特定のシステムのみを攻撃するためにデザインされていたため、問題が広がらずに済んだ、という事である。これがもし広い範囲のデバイスやシステムを対象としていたとしたら、かなり大きな障害に繋がったのでは、と関係者は予測している。また、今回のStuxnetは、相当高度な知識、特にSiemens社のシステムの内情に相当詳しい人間が関わっている、という見解が強い。この知識レベルを利用すれば、今後さらに高度なワームを開発する知識レベルをもっている、というのも共通の認識である。今後どのような形でそれが現れていくのか、アメリカの政府筋は非常に大きな懸念をもって対策を講じるべく動いている、というのが現状のようである。 

    上記のように、Avaliabilityを重要視する文化と、基本的にインターネットと切り離された環境で稼働する、という事情があるため、セキュリティにはあまり注目しない設計思想が流れている、というのが事実のようである。しかしながら、このような事件が発生し、さらに今後高度なものが登場する可能性が高い、という分析結果が出ているとなると、いよいよ制御システム全般に対するセキュリティの考え方については大きく前進する必要性が出てくる、というものである。

    北米の基準として、制御システムのセキュリティは、NERC(North American Electric Reliability Corp.)という組織が発行する規格によって規制を受ける。この規格は、NISTの発行するリスク管理フレームワークに基づいているが、ITシステムを中心に書かれているため、SCADシステムに必ずしも適用できるものばかりでは無い、とされている。ましてや、スマートグリッドを採用する高度なワイヤレスネットワークを保有システムには全く対応していない、というのが現在の課題である。 

    セキュリティの問題は世界共通のものであり、日本市場に置いても重要視されるべき問題である。

    [#SmartGrid #スマートグリッド] スマートメータの導入で明らかにされるプライバシーの問題について

    November 6, 2010
    スマートメータというもの、世の中に大きく寄与する新しい電力インフラを支える技術として注目されている一方、プライバシーに関する影響懸念も当初から話題になっている。

    家庭内の電力使用状況をかなり細かく読み上げ、それを電力界社にアップロードする機能を有するこのスマートメータの発信するデータは、スペック的には一秒に数回というスピードで送ることが出来る。その情報をもって、家庭内の様々な生活状況や家庭環境を想像以上に詳細に分析することが出来る、という事が明らかになっている。 

    イギリスで開催された、Smart Grids and Cleanpower Conferenceというイベントにおいて、Siemens Energy社の幹部が下記のように発言している。

    We, Siemens, have the technology to record it (energy consumption) every minute, second, microsecond, more or less live.  “

    “From that we can infer how many people are in the house, what they do, whether they’re upstairs, downstairs, do you have a dog, when do you habitually get up, when did you get up this morning, when do you have a shower: masses of private data.”

    Siemens は、スマートメータを利用して詳細に電力消費データを収集、記録することが出来る。この性能をもってすれば、家庭内でそれぞれ何人住んでいて、何をしているのか、一階にいるのか二階にいるのか、犬を飼っているのか、何時に起きるのか、シャワーを何時に浴びるのか、等、膨大な量のプライバシー情報を吸い上げる事が可能である、と述べている。

    北米でこの問題を重要視しているのは、EEF(Electronic Freedom Foundation)と呼ばれる、アメリカ政府の団体である。
    スマートメータから収集できるデータに関わるプライバシーの規制を早急に法制化する必要性を主張しており、不当にプライバシーを侵害するような用途に対しては厳しい罰則の必要性を謳っている。

    現在、EEFは、California Public Utilities Commission (CPUC)というカルフォルニア州の電力事業社を管理する州政府の組織は、スマートメータによって収集されたデータの取り扱い方に関する規制を法制化すべく、方針を明確化すべく働きかけている。

    下記が、一家庭から収集することが出来る情報の一例である。

    click to enlarge

    この表を元に分析を行ったのは、Smart Grid Interoperability Panel – Cyber Security Working Groupと呼ばれるUS Department of CommerceのNIST(National Institute of Standards and Technology)の一組織である。 

    分析結果によると、この家庭において、次のような事が判明している。

    冷蔵庫の稼働状況(どの程度の大きさなのか=家族構成)
    お湯を沸かしたり、トーストを焼いている時間(朝食時間)
    洗濯機を回している時間(確実に家事を行って、家に大人がいる時間帯)
    オーブンを使っている時間(夕食時間)
    夜お湯を沸かしている時間(家族がくつろいでいる時間)


    電力の消費パターンを分析するだけで、これだけ、家庭内の状況がつかめてしまう、というのは恐ろしい話である。 たった一日の情報でこれだけの事がわかるのであれば、これを24時間、一年中情報を収集し、それを分析すれば、かなりの事が把握できてしまう、ということになるのは然程想像に難くない。

    EEFが主張しているのは、電力会社がこのような情報の重要性を認識し、取り扱いに関しては高いセキュリティ性を持って管理し、ルール作り、罰則、の明文化を徹底すべき、と提唱している。

    ある意味では、スマートメータが収集できる情報は、俗に世間で騒がれている個人情報(住所、電話、誕生日、等)よりもっとプライバシー性が高い、ということが出来る。IT化していない情報(例:朝食時間)が対象になっているからである。これはマーケティング会社にとっては、非常に有効な情報になる。 保険会社からすれば、生活様式がかなり詳細にわかるので、場合によっては申告していない病気の検知(夜、特殊な治療を行っている)、不健康な生活パターン、等を知ることが出来るため、保険料に大きな影響を与えるデータとして有効になる。悪用する事を考える人に取っては、明らかに留守にしている時間帯を検知し、空き巣に入る、という事も容易にできるようになる。

    本人の意思と合意があって個人情報を掲載し、公開するソーシャルネットワーキングサイトのような文化が広まっている今日、個人情報に関しては意識が少し薄らぐ方向にある、という見方もあるが、このスマートメータに関する問題は、個人の意志、意識にまったく関係なく、情報がどんどん吸い上げられていく、という非常に危険な問題として今後注目されて行くべき課題である、というべきである。

    というか、現在スマートメータが導入されている実証試験のサイトにおいて、実際にこういった情報収集、分析、プライバシー情報の転売が既に行われていない、という保証が無い、というのが今日の状況である、という事も言える。

    http://www.eff.org/deeplinks/2010/10/eff-advises-california-puc-smart-grid-privacy

    [#Cloud #クラウド] AWSの無償インスタンス提供の先にある戦略とは

    November 2, 2010
    先週は、Amazon Web Servicesが新たな価格帯をEC2に対して提供を開始した。 

    無償インスタンスの提供である。 

    ただし、期間が一年と限定されている事と、インスタンスのサイズも限定されている、といういわば期間限定、お試しバージョンのサービスの登場である。

    俗にFreemium、と呼ばれるビジネス戦略はクラウドのビジネス、Web2.0の市場においてはごく当たり前に提供されるもので、AWSは、既にSimpleDB, Simple Queueing Service (SQS), Simple Notification Service (SNS)の3つのサービスに対しては無償のサービスを提供する中、今度は中核のサービスであるEC2も無償で提供する事になった。 

    多くの記事がこの無償のサービスの登場について分析を行う中、主としてその分析はユーザーの急激な増大に対する期待に集まっているが、いくつかの記事はその先の一年後、この無償サービスの期限が来た時にどうなるのかについては議論している。

    下記のような予測があげられている。

    1. クラウドの導入は、企業に取ってのIT資産の容量管理(Capacity Planning)の考え方に大きな影響を与えている。従来、システム運用のピーク時に照準をおいたシステム容量を基本的に行っていた考え方が、システムの負荷が最も低い状態に主軸を置いてシステム容量設計を行う考え方に変わりつつある。
    2. その一つとしてあげられるのが、逆転の発想である。通常のシステム運用をクラウド上で行い、そのシステム構成は、最低限を負荷に対応できる規模に押さえておく。その代わり、システムに対する負荷が増大した時にOn-Premiseにおいてそのサービス要求をすべて受ける構造を持つ方式である。
    3. この方法論と、上記のAWSの無償サービスを組み合わせると、通常のシステム運用を事実上タダで動かす事が可能になる。負荷増大が起きた時だけ、必要な分のIT投資を行う事によってシステム運用コストを最適化する事が可能になる。

    AWSの提供するこの無償サービスは、単にAWSの新規ユーザを開拓する事だけではなく、システム運用の新たなコンセプトを実際に実現できる環境を提供できる、という点で大きく評価をしてるアナリストが登場している。

    同じ分析記事に置いて、さらにAWSの内部におけるメリットもいくつかあげられている
    1. 一度システムの小さなインスタンスをAWSに作り上げると、ユーザはそこから出て行くインセンティブがほとんどなくなる。通常はタダでシステム運用を行い、いざトラフィックが増大した時だけ費用を支払うという仕組みが出来上がるため、AWSとしては無償サービスで入ってきた顧客はほぼ永久的にユーザであり続ける事が期待できる。
    2. 顧客あたりのインスタンスが小さければ、総合的にAWSの運用するデータセンタ環境のUtilizationが向上することになる。大きなインスタンスを数個保有するより、小さなインスタンスを大量に保有する方が、技術的にデータセンタの利用率が向上する事が期待される。 大きなインスタンスを契約している企業がある時点で契約解除した時にその違いが顕著に現れる。 小さなインスタンスは入れ替えが激しいかもしれないが、ある程度一定の顧客層と利用率を保証できるからである。 さながらテトリスのゲームのようである、というたとえもある。
    3. 基本的にIaaS事業は、長期契約があまり存在しないため、上記のように小さなインスタンスを重視した経営方法というのは非常に需要な意味をもつ。この辺の戦略、従来のSI事業としては従来の発想から切り替えるのに苦労する事が多いに想定される。 

    結論として、AWSのコンセプトは次のような捉え方をする事が可能である。
    1. 長期的な契約を欲するユーザのためのサービス = Reserved Instances
    2. 短期、小規模のインスタンスを要求するユーザ層 = 今回発表された無償バージョン
    3. それでも余剰の空間をオークションを通して更なるユーザ要件で埋め、極限までデータセンタの利用率を向上させる = Spot Instances

    クラウドコンピューティングは技術論ではなく、ビジネス論である、と今や多くのアナリストは論じており、今回の発表とそれに同期した分析を集約すると、さらにこのコンセプトが進化して、経済論になりつつある、と感じている状況である。 英語で言うと、”Cloud Economics”という言葉でよく表現される。

    日本のクラウドコンピューティングも、そろそろ技術論から脱して、一挙に経済論、それも日本のIT市場に合った形での経済論が必要になっている、と強く感じている。

    [#Cloud #クラウド] クラウドは本当にセキュリティ面で心配なのか? 従来のOn-Premiseと比較してそんなに心配なのか?統計による分析

    October 28, 2010
    クラウドの大きな問題はセキュリティが無い事である、という意見が多く登場している。
    インターネットが登場した時もそうであったし、その昔はPCが登場し、分散コンピューティングが広がっていった時も同じ様な懸念が登場したが、いつの間にかそういう議論があまり語られなくなり普及していった、という歴史がある。

    楽観的な意見が持つ人たちの間では、クラウドコンピューティングも同じパターンでセキュリティに対する懸念がいつの間にか消えてなくなる、と思う人が多い様である。


    US Department of Health and Human Services (HHS)と呼ばれる政府の機関が発行した昨年の医療業界におけるネットワークに対する攻撃の内、情報漏洩等の実被害者が500人以上に及ぶ事件の件数が166件で、合計4,905,768人の患者が英鏡を受けている、という内容が報告されている。 

    このレポートを受けて、PHIPrivacy.netが興味深い分析を行っていて、医療業界の様なセキュリティ要求の高い、規制の厳しい業界においてもローカルに管理されるデータはかなりの頻度で盗まれている、という状況を説明している。

    このレポートが主張しているのは、上記の医療業界での状況と比較して、Salesforce.comMicrosoft BPOSAmazonGoogle AppsQuest OnDemandのようなパブリッククラウドサービスの業界で年間に166回もの事件が起きるのだろうか? という事である。

    パブリッククラウドで問題が多発しないのは、次の様ないくつかの理由がある、と説明されている。

    ・  データセンタのセキュリティの基準がそもそも高い事:  大抵のデータセンタは、SAS 70 Type I もしくは Type II というセキュリティ規格、さらに ISO/IEC 27001:2005 と言った規格に準拠した運営を行っているからである。企業内のデータセンタはそこまで投資を行う事は実際に少ないのが現実である。
    ・  業務の明確な分離:  データセンタ事業者はそのテナントの従業員では無いので、何所にどのように貴重なデータが補完されているのかを知る事が基本的にできない。
    ・  パブリッククラウドは複数のテナントを抱えているため、万が一、ハードディスクごと盗む事に成功したとしても、そのディスクの中は様々な顧客の情報の断片が、ある特殊なアプリケーションのフォーマットで記録されて、データを解析するのはほぼ不可能である。
    ・  企業の従業員の持つラップトップやモバイルデバイスは、クラウド化される場合、デバイス内にデータを殆ど補完しないモデルが採用される。 デバイスが盗まれても、データが盗まれる事がない。 
    ・  どのパブリッククラウド事業者のサイトをみても、セキュリティを最大の要件としてる。データの隔離、ログ管理、アクセス管理、等セキュリティを重視するが故にかなりの施策が施されている。

    企業の中におけるデータセンタは、社内内部の人間が使う事が基本になっているため、セキュリティの強化とは言っても、基本的に社内規則に準拠している人間が利用する事を前提としたセキュリティになっているのが通常である。 事業としての判断で必要以上のセキュリティに対する投資は必要ない、と考えるのも通常である、と言える。  このような環境において、企業は何故企業内のデータセンタが安全だ、と主張出来るかというと、基本的に社内ユーザは信用出来る、という安心感があるからだ、と言える。  社外の人間がアクセスするとなると、急にセキュリティが厳しくなるのはそのためである。 

    一見、パブリッククラウドは不特定多数の人間がアクセスしている環境の様に思えるが、実は個々の利用契約に基づいてサービスを利用している特定の利用者の集まりである。 個々のユーザは論理的に特定のコンピューティングスペースを専有し、データ、アプリケーションの管理をクラウド上で行っているが、このクラウドを運用する会社が採用するセキュリティは、複数の企業が入り込んでコンピューティングリソースを利用する環境に必要十分なセキュリティを採用している訳であり、結果的に企業内のデータセンタと比較して格段に厳しいセキュリティは基準が採用される必要があり、そのように運用しているのが現状である。 

    パブリッククラウド上の各テナント間の論理的な境界線に問題がある、というのなら、それは少し別な問題である。それは通常仮想化領域で管理されるパーティションの議論であって、その技術的な限界や、セキュリティの懸念を議論するのであれば、それは仮想化という技術自体を問題視する事であり、パブリッククラウドの問題とは別次元で議論されるべきである。  これをパブリッククラウドのセキュリティの問題と混同してしまうと、的の外れた結論に達する危険性があると思う。

    [#Cloud #クラウド] MicrosoftからRay Ozzie氏が離れるまでの経緯: 批判的な分析の代表例

    October 27, 2010
    Ray Ozzie's leaving Microsoft: What took him so long?
    Microsoftに関する記事、特にChief Software Architectという肩書きをもった、いわゆるMicrosoft社の技術陣の最高峰に位置付けられていたRay Ozzie氏が同社を離れた事に対する分析記事が
    多く登場している。

    基本的にはこういう記事は個人的な主観が混ざってしまう傾向が高いため、あまりブログに取り上げない様にしているが、今回の事象に関しては、クラウド市場というものがどういうものなのかを理解する上で興味深い、と感じており、いくつかの記事で登場したコメントについて分析してみたいと思う。

    まずは、Ray Ozzie氏のMicrosoftに対するクラウド時代への変換の必要性を訴えた、The Internet Services Disruption.” と呼ばれる社員全員に向けたメッセージが同氏のMicrosoftに対する意気込みを示す最もも有効なものとして見る事が出来る。これは、RayがBill Gatesに誘われてMicrosoftに入社した2005年の3年後の2008年の10月に社員全員に送られたメールである。従来のクライアントサーバーベースのソフトウェアライセンス事業のモデルから、クラウド型のサービス事業への変化が必要である、という事を切々と説明している内容である。  改めて読み返すにあたり、よくコンセプトがまとめられている事に感心すると同時に、Microsoft社が結果的にそれを十分に吸収する事ができなかった、という印象を受けざるを得ない。 

    関係者、特にMicrosoftに近い人間の意見によると、この時点で既にRayはMicrosoftにおける自分の出来る事の限界を感じ始めていたのでは、という人もいる。 

    Ray Ozzie氏は、元々はLotus Notesという製品を開発した人間である。クライアントPCとサーバーとの間のデータやプロセスの同期を保証する機能が非常に優れていて、そのコンセプトは非常に評価される一方、実ビジネスにおいては必ずしもそのコンセプトが活かされてはいなかった、と言われている。最終的にはIBMに買収され、同社のITソリューション事業の一部に組み込まれている。

    後に、Ray Ozzie氏は、Groove社という会社を起こしており、これが2005年にMicrosoftに買収されている。 Grooveは当初はMicrosoft Officeの一機能として統合され、後に SharePoint Services の機能に組み込まれている。 SharePointの今日の姿はOfficeと並び、企業向けの情報管理ソリューションとして販売されているが、必ずしも主力製品としての地位は獲得しているとは言えない。

    Ray Ozzieが上記のクラウドサービスのコンセプトを説明したメッセージを社内に発信したのはこの後である。 このメッセージを最も具現化したのは、Microsoftのクラウド戦略である、Azureである。 2008年のPDCにおいては、Ray本人がAzureの事を、「独自のAPIを持つ、クラウドベースのOS」、と定義している。 この約一年後の2009年の12月、Microsoft社は大幅なレイオフを含めた組織改正を行い、Azureの開発はRayから別部門に移行し、当初のコンセプトとは程遠い姿で出荷されている。

    あまり知られていないが、Rayが取りまとめたもう一つの製品があり、Live Meshと呼ばれている。 この製品は、クラウド上のアプリケーションやデータの統合を行う先進的な機能を有していたが、最終的にはWindows Live Syncという製品として市場に投入されたが、機能がかなり削られている結果となった。

    もうひとつの製品は、Live Labsと呼ばれる。 Rayが密かに温めていた戦略的な製品で、2006年に発表されて以来、Googleに対向し得るインターネットアプリケーションのRADツールとして評価された。  発表の2週間後、Live Labsのチームは解散し、Bingグループに統合され、Live Labsの開発は責任者は退社している。

    一年後、RayはFuture Social Experiences (Fuse) Labsと呼ばれるアプリケーションやサービスの開発、運用プラットホームをプロジェクトとして発足している。 このプロジェクトは最終的に、Facebookのアプリであるdocs.comという名で発表されている。  

    このように、Ray Ozzie氏のMicrosoftでのキャリアはかなり山あり谷ありであった状況が見えてくる。

    Ray OzzieとCEOであるSteve Ballmer氏両人がパネルディスカッションに登場するイベントが恐らくRayのMicrosoftにおける心境を最もよく表しているのではないか、と思う。
    今年の6月に開催された、D8 conferenceと呼ばれるコンファレンスでの事であるが、いつもの強気なイメージのSteve Ballmerとは対象的に、Ray Ozzie氏が非常に大人しく、もの静かに質問に対して回答をしている姿が非常に印象的である。 パネルディスカッション中に度々指摘されているが、両者のクラウドコンピューティングに対する考え方の違いがかなり如実に現れており、何とも妙な不安感を感じざるを得ない。Ray氏のクラウドに対する理解が非常に的確であるのに対して、Steve氏のクラウドコンセプトはあくまでも既存のPC、サーバインフラを補完するものとして位置付けている、という点、明らかにその違いを感じ取る事が出来る。

    クラウドコンピューティングのコンセプトは、単なる技術ではなく、ビジネスのやり方、ITの取り組み方を大きく換えるパラダイムシフトである、という事はよく議論されているが、具体的にどういう変化なのかはまだよく見えていない、と言われる。 

    上記のMicrosoftにおける、今日の収益を大きく支えるレガシーのビジネスモデルと、新しい時代のクラウドビジネスモデルとの間の違いは、結果的に大きな溝として浮き上がり、最終的にRay Ozzieの退社、という結果を生む事になった、と言える。 つまり、Microsoftの方向性は、既存のレガシー事業を守る形で、クラウドを補完技術として採用する、という事である。  

    Azureの未来も、これで大きく当初のコンセプトから離れ、Microsoftの資産である、.NETを継承する独自のクラウドインフラになる事が想像される。一種のプライベートクラウド化、というところだろうか。 これはデスクトップ市場を継続的にWindowsで独占し続ける事ができれば現実解として可能性はあるが、クラウドがますます浸透する今日、果たして企業は自社のアプリケーションやデータの資産を特定ののOS上で管理する必要性を感じるのだろうか、Microsoftの選んだ戦略に対しては、大きな疑問が残る。 

    [#Cloud #クラウド] FacebookとZyngaの関係: パートナーでもあり、敵でもある。

    October 25, 2010
    Facebookは世界最大にソーシャルネットワーキングサイトである、という面を持っている一方、最近話題になっているのは、毎月2億人以上の人間が参加するオンラインゲームアーケードの運用サイト、という面である。

    San Francisco市に本社を置くZynga社は、FarmvilleやMafia Warsといった、Facebook向けのゲームを開発する最大のベンダーである。 急成長を遂げた現在、自社のグッズの販売により年商$5億ドルを出す勢いである。通常ゲームは無償に提供されるが、ゲームの進行を早める(先のステージに進める、等)ためには、有償のグッズを購入する必要がでてくる。

    Facebook社は、早くからこの動向に目をつけ、次の様な施策をとっている。
    1) 今年のはじめ、Zyngaをはじめとしたアプリケーションベンダーに対して、自由にユーザに対するのNotificationを発信する事を禁じた。ユーザにとって、膨大な量のゲーム系の宣伝広告が減ったと評価されたが、さらにFacebookにとっては、ゲーム系のベンダーが宣伝の為にFacebookの広告スペースを購入する傾向を高める結果になり、集積増にもつながった。
    2) Facebook Creditsという同社の独自通貨を自社パートナーに対して使用する事を要求した。Zynga社も反論をしていたが、結果的に両社の間に5年間の契約を締結する事となった。

    表向きにはパートナー関係にある、と見られているプラットホームベンダーとその上のアプリケーションベンダー、表向きにはゲームベンダーが脚光を浴びている様にも見えながらも、プラットホームベンダーがかなりビジネス面でのコントロールをしている、という現実が垣間見える。  

    しかしながら、これはFacebookに始まった事ではなく、Amazon、Google、さらにMicrosoftが行っているビジネスと同じである、という事が出来る。 プラットホーム事業の最大のメリットは、そのプラットホーム上のアクセスをMonetize、つまりお金に換える事が出来る、という特権を持っている、という点である。

    [#SmartGrid #スマートグリッド] Googleが投資したWest Virginia州の地熱発電設備、18,890メガワットという膨大なエネルギ…

    October 25, 2010
    Google社ソーラーや風力発電に対して投資し、自社のデータセンターの電力需要に対してクリーンエネルギーの供給を強める戦略を強化している。

    最近の発表では、同社がWest Virginia州にある、地熱発電施設を買い取った、と報道されている。この施設、18,890メガワットの生産力を誇り、これは州全体の電力生産量である、16,350メガワットを超える量である。West Virginia州の電力生産の大方は石炭火力である、という事も大きな特徴である。 

    地熱発電は最近非常に人気を集めている。 風力やソーラーと異なり、24時間常にエネルギー供給が保証される、という事が大きな特徴は特徴である。まだ、VCの投資がさほど活発ではないが、Vancouverをベースとした、Magma Energy社が昨年IPOしたり、大手であるOrmat Technologies等の活動が代表的である。

    地熱発電発電の調査によると、東海岸地域においては、Appalachian Mountains(アパラチアン山脈)地方の深さ4~5マイルには電力生成に十分なエネルギーが存在する、とされている。上記の図にも見える通り、地熱発電が行える領域はVirginia州の都市部にも近い事から、東海岸地域のCO2排出削減にも寄与出来る可能性がある、と期待されている。

    [#Cloud #クラウド] Digital Realty Trustが提供するコロケーションスペース: そのテナント状況を分析、意外な事実を発見

    October 25, 2010
    Digital Realty Trust社の2009年度の10-Kレポートをみると、テナントのリストと、各社がリースしているデータセンタースペースとそれぞれの価格を知る事が出来る。

    image

    上記がトップ20社のリストである。 

    下記の点が分析される。

    1) 上位3社、Savvis、Equinix、Qwestは、DRT社のデータセンタスペースの販社であり、DRT社のリースしているデータセンタスペース全体24.8%の面積をリースし、収益の18.9%に寄与している。

    2) JPMorgan Chase、Morgan Stanley、HSBCの金融3社は、総面積の2.8%を占め、売上げの7.1%に寄与している。売上への貢献度が高いのは、リースしている物件が都市部に集中しているため、と想定される。

    3) Googleはトップ20社には含まれていないが、Microsoft、Yahoo、Facebookはそれぞれ数パーセントと程度の状況である。 Facebookのリース料は全体の4位であるのに対して、リースしている面積が1.1%と比較的少ないのが特徴的である。恐らくかなり集約度の高いデータセンタを採用している、と想定されており、各テナントの状況を単ににリースしている面積だけで評価するのは誤解を産む可能性がある、と考えられる。

    これらの数字の重要な事は、データセンタスペースの用途によって、様々な価格帯の選択があるという事である。また、業界によって、リースするデータセンタスペースの面積あたりの単価が比較的近い、という事も言える。