2010年9月29日水曜日

Amazon Web Serviceの登場で、企業が本当に考えなければいけない事:運用ガイドラインの提案

企業、特にエンタプライズにとって、クラウドコンピューティングはどのように使われているのだろうか? 最近多くなってきている記事は、企業の幹部の想像を大きく超えるクラウド利用が企業の中で展開されている、という内容のものが多い。

ある企業のCIOが、企業内のAmazon Web Serviceの利用状況の調査を経理部門に依頼したところ、何と50個ものAWSアカウントが存在する事が判明した、という事が報告されており、他の企業でも同様な状況を発見している。

北米においても、企業でのクラウド、特にAmazon Web Serviceの利用の現状については、意見が分かれている。 SMBやWeb2.0企業を中心として利用されて、大企業ではテスト・評価程度の利用しかない、という人と、大企業でのAWSの利用率は質・量と共に非常に高くなってきている、と述べる人と、大きく食い違う。

何故、企業の管理サイドが認識しない状態でクラウドコンピューティングの利用率がこれ程までに増えていってしまうのか、次の様な要因が考えられる。

調査会社である、RedMonk社のStephen O'Grady氏の分析が非常に興味深い。

RedMonkの調査によると、昨今の企業の中におけるIT技術の判断は、実質的には企業内のソフトウェア開発部門が実権を持っている、という興味深い分析結果がでている。オープンソースが登場し、企業の中で使われる様になってきた頃からこの傾向が強まった、と見ており、その影響で、いわゆるボトムアップ型のITソリューション導入をパターンが形成されている、と説明している。 このボトムアップ型のIT導入傾向にあるよって、会社の管理部門、特にCIOが皮肉にも企業内のITの状況を一番最後に知る事になる、という問題が発生している。

CIOが日頃接しているISVにもこのギャップを生む要因がある、とO'Grady氏は述べている。ISVの多くは、クラウドコンピューティングの非常にマージンの低いSubscription型のビジネスモデルを採用する事を基本的には避けたい、と思っており、従来の高マージン型のSIありきの導入プロジェクトを強くCIOに対して推奨する傾向がある、と指摘している。 特にクラウド側は価格競争に非常に長けているAmazon Web Serviceであればなおの事、避けたい、と思うところである。

当然、この傾向による問題点は管理部門とソフトウェア開発部門とのギャップだけに閉じない。組織が認識しない内に企業内のアプリケーションの導入が進み、企業内のガバナンス、特に個人情報、機密情報の管理にかかるルールや規制がアプリケーションが開発・運用を開始してから後付けであてがわれる、という状況が大きな問題となっている。 

レポートにおいては、企業としてどのようにクラウドを利用して行くべきか、いくつかのガイドラインを提案しており、今後の日本におけるクラウドソリューションの導入による際しても後付の導入ではなく、必要なところに積極的に導入できるProactiveな戦略の立ち上げが必要であろう、と述べている。

ガイドラインは下記の通り。


1。 企業としてクラウド状況がアプリケーションが運用する際のガイドライン等を早急に作る必要がある。

既に企業内でのクラウドの利用率はかなり高くなっている、という前提で、それをどのように企業内で管理、運用が出来るのか、ルール造りを進める必要がある。

非常に重要な要件は、各部門が意識していない、企業内のセキュリティ、監視、等の管理ルールをこういったアプリケーションに適用する必要がある、という事である。クラウドを導入する部門ユーザは、恐らくそういう問題に対しては殆どの意識せずに導入しているがケースが多いからである。O'Gradyは、これを Cloud Boomerang と呼び、利便性を優先したがために性急に導入したクラウドアプリケーションが企業内で結果的に問題を起こす要因になってしまう、という問題である。

クラウドアプリケーションを導入する際には企業内のIT管理を部門といっしょに評価を行うことがルール作りをする事の重要性を主張している。その際には、評価基準を必要十分の範囲にし、不必要な審査の時間をかけすぎない様にする配慮が必要である。 また、上記の企業内のコンプライアンスに関する要件は標準的に適用できる手法も必要であろう。

2。 コンプライアンスに関する分析、そして準拠のための手続きを明確にする

企業内のアプリケーションをクラウドに移行する、または新規のアプリケーションをクラウド上で導入する、等クラウドアプリケーションは様々な方法で企業内に入って行くが、いづれの方法においても企業内のコンプライアンス要件を満たす形で導入、運用が行われる必要がある。

クラウドアプリケーションをどの様な方法でコンプライアンス要件を満たすのか、専門のチームを企業内で組織化する必要もある。 

3。 クラウドアプリケーションへの投資については出来るだけコントロールできるる施策を

クラウドアプリケーションの企業内での浸透は、気がつかない内にドンドンと広がっていく、というのが特徴である。 初期投資が少ないうえに、コストも比較的安いため、非常に入りやすい、というのがその理由、とされている。 その広がり方はオープンソフウェアの広がり方と非常に似ている。

しかし、そのクラウドのコストも、広がりと共に総額が大きくなっていく、というパターンがよく見受けられる。どの様な使われ方なのかを分析した上で、計画的なクラウドの採用を促進し、従来のIT投資からの移行を図る、等の企業内IT戦略の見直しが必要になっていくる、と思われる。

重要なのは、社内のクラウド利用がコントロールできない状態まで放置しないために、早目に社内の仕組みを作っていく事であろう。



日本のIT市場においても、Amazon Web Services がどの程度企業内での使われているのか、把握するための手段、また利用状況が明らかになった時点で、どの様な対処をすべきなのか、社内のルールを明確にする必要がある、と思う。  一つの方法としては、完全日本シャットアウトする、というパターンがあるが、果たしてそれが長期的な視野で良策なのか、よく考える必要がある。  上記のボトムアップ型のIT戦略についてもある一定の評価を行い、効率性のいいアプリケーションは、その様な方法を積極的に採用する事も選択の一つである、と考えられる。その際には、十分状況をコントロールする仕組みは持ち、ガバナンス等、企業全体として必要な要件については十分対応できるる体制を持つ事が有効なのでは、と思われる。 

企業内に、クラウド採用・運用の専用組織が必要になってきている、と思われる。単純に技術的な評価だけではなく、コスト、ガバナンス、再利用性、等の面からも評価ができる専門組織が必要になってきている、と提案したい。



2010年9月26日日曜日

SAPがAWSにアプリケーションを移植し、サービスを提供開始

SAPとAWS(Amazon Web Services)との接点が生まれる、とは誰が想像できたであろうか?

と言うと、少し言い過ぎだと思うが、自社クラウドインフラでSaaS事業を展開しているSAPがわざわざAWSのインフラを採用してまで展開するサービス事業というものはなんであろうか?

SAPの発表によると、自社のCarbon Impact OnDemand と呼ばれるアプリケーションの新規バージョン5.0を、AWSプラットホーム上で提供を開始する、と述べている。

このCarbon Impact OnDemandというソフトウエアサービス、企業の電力消費量を計測し、CO2排出削減に寄与する機能を持っている。 

SAPのVishal Sikka氏によると、今回のSAPプロダクトをAWS上で提供する事によって、
"That gives us a tremendous benefit of low-cost elastic performance and scalability," 
「低価格でスケーラブル、尚且つ拡張性の高いAWSの特長をうまく活用できる事が我々にとっての大きなメリットである。」と述べている。

SAPは、OnDemandというキーワードの元でいくつかのアプリケーションサービスをすでに提供している。そのアプリケーション群の中で、Carbon Impact OnDemandは、企業の中でCO2排出に関係する様々なデータを収集し、Environmental Protection Agency(EPA)が規定している基準に準拠するためのレポートを作成する機能が提供される。

元々、SAP社が2009年に買収したClear Standards社の技術がベースとなっており、現在Autodesk社、Fisker Automotive社等がユーザである、と発表されている。

製品の機能はさておいて、むしろSAPが自社アプリケーションサービスをAWS上で提供する、
という事が非常に興味深い動きである、と言える。既に、Oracle、IBM、等の大手ITベンダーもAWSのサービスを再販している現状であるが、自社でもSaaSインフラを持っていて、尚且つMission Criticalアプリケーションサービスを提供できるクラウド事業者、という位置づけをAWSとの差別化要因にもしていたSAPが、敢えてAWSを利用する事、そしてその理由を"低価格で拡張性が高く、スケーラブルである" という理由で採用する、という事は、AWSのエンタプライズ市場での位置づけがかなり明確になってきていて、業界がそれを認識している、という事を示しているのでは無いか、と考えられる。

今までのAWSの持っていた、Web2.0 only、SMB Only、というイメージが急激に変わるタイミングが迫ってきているような、そんな印象を受ける記事である。

2010年9月21日火曜日

Oracleがとうとうクラウド事業に本格参入することをOracle WorldでEllison氏が表明:プライベートクラウドに完全フォーカス

一部では予想されていたが、Oracleがとうとうクラウドの戦略を明らかにし、クラウドビジネスへの参入を正式に表明した。


戦略の名前は、Exalogic Elastic Cloud と呼び、プライベートクラウド向けのハードウェア/ソフトウェアシステム製品。
30台のサーバ、それぞれ6台のコアCPUを搭載し、CPU同士をInfinibandで接続する、という構成。 OSはLinux、もしくはSolarisを選択でき、Oracle社が得意としているミドルウェアの製品ラインアップは充実している。 

Oracleの正式ページはここ
http://www.oracle.com/us/products/middleware/exalogic/index.html

発表の席上に於いてLarry Ellison氏は、"Exalogic is one big honkin' cloud" と述べている。
Exalogicはそれ自体が巨大なクラウドインフラである、という意訳になる。
以前、Ellison氏は、クラウドを否定する人間の一人として、かなり厳しい意見を述べていた人間であるが、ここに来て改めてクラウドの存在を認めるどころか、自社のクラウドのソリューションをハードウェア主体のシステム事業として位置づけた理由はどこにあるのか、業界ではいろいろと意見が飛び交っている。

Ellison氏は今までの自分の言動に対して、こう述べている。
"People use the term to mean very different things. I've actually been very frustrated and outspoken,"
"Too many existing technologies have been reborn and rebranded cloud computing,"
「クラウドコンピューティングの定義が各社によってあまりにも異なっていた事が問題であり、それに対する不満は述べてきた。 既存の技術を単に形を変えただけなのに、クラウド、と呼んでいるケースが多すぎる。」
相変わらず、今日のクラウドに対して持っている批判的なスタンスに対しては修正はしていない。

一方では、クラウドコンピューティングの"理想的な"事例は2つある、と述べている。

一つは、Amazon Web ServiceのEC2。  これはオンデマンドで仮想化されたマシンインフラの上をアプリケーションが自由に利用出来る、という点において、クラウドコンピューティング、という言葉を定義した、という点で貢献している、のEllison氏は述べている。

Oracleの提供するクラウドソリューションは、AWSと同じコンセプトの基づく、「クラウドコンピューティング=プラットホーム」である、と主張している。  OracleのクラウドソリューションがAWSが唯一異なる点は、すべてファイアウォールの後ろで稼働する、という点である、と述べている。

一方では、Salesforce.comの提供するソリューションについては、「On-Demand CRMソリューションではあるが、単にインターネット上に一つもしくは2つのアプリケーションを動かしているに留まっている」、と述べている。 

Exalogicは、広い範囲のアプリケーションをサポートし、特に自社のSiebel、E-Business Suite、そして新しく発表した、Fusionをサポートする、と発表している。

Exalogicは、元々は2008年に発表した、Exadataと呼ばれるデータベースマシンをベースとしており、それに買収したSun Microsystems社のソフトウェア技術を統合したもの、と説明されている。

興味深いのは、先日までHPのCEOを努め、スキャンダル事件で首になった後、Oracle社に採用されたMark Hurd氏がこのExalogicの事業責任者になる、ということである。  HPとOracleの間の競合関係は、このクラウド事業を起点にさらに激化するもの、と想像される。 

プライベートクラウドがすなわち、Oracleのクラウドである、という事がここではっきりした、といえる。
以前からプライベートクラウドが本当のクラウドなのか、という疑問を投げかける議論が多く登場しているが、ここでOracleが進めるクラウド事業は、AWSの進めるクラウドと大きく違う点がある。
1) 特定のハードウェアを顧客が購入することが前提になっている。
2) IaaSレイヤーの上のミドルウェアもOracle固有のソフトウェア、という限定がある。
3) 企業として利用出来るのは、Exalogicと呼ばれるハードウェアが一つの単位。  これ以下の小さなインスタンス直接は導入できない。

NISTでも定義されている、パブリッククラウドの元々の価値は、早く、安くコンピューティングリソースを導入することが出来る、という点である。  Oracleの提供するクラウドソリューションはそのいづれも提供する事を目的としていない、という点は認識する必要がある。  一方では、パブリッククラウドの問題点である、セキュリティ、プライバシー、SLAが不十分である、という点は、Oracleが自社のエンタプライズ向け事業でのノウハウをフルに活かし、Exalogicでは解消される、と期待すべきである。  パブリックとプライベートのクラウド事業、名前は似ているが、段々と異なるビジネスモデル、顧客ターゲット層を狙う別々のビジネスになっていく事が、今回の発表でいよいよ明確になった、といえる。 

パブリッククラウドサイドの方から見て、今回発表されたOracleのクラウド戦略は、「クラウドではない」、と評価する様な内容の記事が今後多く登場してくるものと想定される。  ただ、こういった、高セキュリティ、高SLAのシステムのニーズは今後も成長していくのは明らかであり、批判とは裏腹に市場としては伸びていくもの、と考えられる。 

Amazon Micro Instances: 小さな単位のCPUリソースを提供、かなり戦略的な価格で登場

Picture Credit: Allthingsdistributed.com
先日発表されている、Amazon Web Servicesの新しいサービスモデル、Micro Instances、実は、Rackspace Hosting社が自社のVPS(Virtual Private Server)クラウドサービスとして以前から提供していた事は意外と知られていない。  Rackspace Hosting の提供しているVPSサービスは、わずか256MBのRAMを搭載したLinux Cloud Serverを採用し、一時間あたり1.5セント(月額で約$10.95程度)の価格で提供している。

Amazon Web Services の提供するサービスは、明らかにRackspace Hosting社のサービスへの対向を狙ったもの、と言える。  

そもそも、Micro Instancesは、クラウド上で提供されるCPUインスタンスを非常に小さな単位で提供し、ニーズの上昇と共に小さな単位でバースティングするモデルを指す。主として、
次のような負荷の低いWebサーバのニーズに対応するサービスに利用される。
  • DNSサーバの、ロードバランサー、プロキシーサーバ、等、トラフィック量が低いサーバ
  • データアップデート、システム監視、等のcronの様なジョブスケジューラが稼動するサーバ
  • トレーニング等、教育用のサーバ
こんな様なシステムコンポーネントまでも簡単にクラウド化できる時代になっているのである。

AWSの提供するMicro Instancesは、613MBのメモリを搭載し、EBSストレージのみを提供する。Linuxに加え、Windowsを32ビット、64ビットの両環境で提供され、さらにCloudWatchというシステム監視サービスも提供され、負荷状況の把握ができる様になっている。価格体系は、On Demand(通上の価格)に加え、Reserved Instances(長期契約)、Spot Instances(オークション)も提供される。

価格は、Linuxが一時間あたり2セント、Windowsが一時間あたり3セント、と非常に安い。また、Linux版のReserved Instanceの価格帯は、さらに安く、年間契約の場合は 0.7セント/時間、とRackspaceを下回る、異常なまでの安さである。

価格戦略では相変わらず積極的な動きを見せるAmazonであるが、今回のように単なる値下げ戦略を取るのではなく、必ずターゲットがあった上での戦略である、という事を分析しながら今後のAmazonの戦略を見極める必要がある。  

日本市場にAWSが登場する日は近いが、いよいよ事業を開始し、競合各社の動きを見据えながら、最初に誰をターゲットにするのか、非常に興味深いところである。AWSに対向するサービスを提供するIaaSベンダーとしては、どの様な価格戦略で対向すべきか、検討する必要があるが、今までのAmazonの値下げ戦略(過去に10回ほど実施)を参考にする事ができる、
と言える。

2010年9月20日月曜日

IPOの可能性も示唆されているSilver Springs Networks社の幹部2名が会社を離れる

Silver Spring Networks社の幹部が2名が、同社を離れている、という事が明らかになっている。
Silver Springs Networks社は、IPOを計画していることで話題を集めているが、そのさなかでの退職は異例の事として話題になっている。 

退社したのは、下記の2名;

Judy Lin:  Chief Product Officer
同氏は、元はCiscoのEthernet Switching Groupから移ってきた人間で、当時はCiscoとSilver Springs社との間のライバル意識がかなり高まってきた最中の移動である。

John O'Farrell: Executive Vice President of Business Development
O'Farrell氏は2008年前半にSilver Springs社に移ってきた人間。  Silver Springs退社後は、Andreessen Horowitz(Venture Capital)に参加した、との事。

AMI技術を持っているベンダーが数多く登場し、Silver Springsはその先駆け的な存在で、$2.75億ドルの資金を調達しながら市場の大きなシェアを構築し、CiscoやGEの様な大きなプレイヤーの登場も促してきた要因を作っている。  いまではCiscoとの競合も非常に厳しくなってきており、先日はItron社との戦略的提携、ArchRock社の買収等、動きが激しくなってきている。 

http://feedproxy.google.com/~r/greentechgridtech/~3/u5d2Qp6olNU/


2010年9月13日月曜日

AWSの値下げ攻勢:10回目に達し、改めてIaaS市場の激しさを分析

VMWorld開催中の期間を狙ったのかどうかは定かではないが、Amazon Wed Serviceがまた、自社のサービスの価格値下げを9/1に発表した。

今回は、High-Memory Double Extra Largeインスタンスと、High-Memory Quadruple Extra Largeインスタンスの2つのCPUサービスが対象で、19%の値下げを刊行している。

いづれも、大量のオンボードメモリを必要とするデータベースアプリケーションやmemcache等の用途で利用されるマシンイメージで、金融アプリ等、リアルタイム性の高いアプリケーションでの利用が促進される事が予測されている。

同社のブログで詳細が記述されている。
http://aws.typepad.com/aws/2010/09/amazon-ec2-price-reduction.html

この発表の中身の詳細はさて置いて、この値下げの発表はAmazonにとって、過去一年半の間で10回目に当たる、という点に注目したい。

下記がとあるサイトが調査した、値下げに関わる発表の内容を整理したもの。

AWS Price Announcments


  • Reserve Instances: リザーブインスタンスの登場(CPUリソースをまとめ買いした時の割引制度)
  • Lowered Reserve Instance Pricing: リザーブインスタンスの値下げ
  • Lowered EC2 Pricing: EC2の価格帯を値下げ
  • Lowered S3 and EU Windows Pricing:  S3と、EU Windowsサービスの価格値下げ
  • Spot Instances:  スポットインスタンスの登場 (余剰CPUリソースをオークション形式で販売する制度)
  • Lowered Data Transfer Pricing:  データ転送価格の値下げ
  • Combined Bandwidth Pricing:  EC2, S3, RDS, SQSで使用する通信費を全部一括支払い
  • Lowered CloudFront Pricing:  CDNサービスの値下げ
  • Free Tier and Increased SQS Limits:  SQSの価格体系変更
  • Lowered High Memory Instance Pricing: 今回の値下げ発表

値下げを行うサービスの種類、そしてその値下げの程度は、本業であるe-Retailing事業から引き継がれているDNAが大きく寄与している、と考えられる。当然ながら、その値下げの戦略は、ユーザ獲得を目的としているが、その上に特定の強豪相手をターゲットにしたビジネス戦略が織り込まれている、と考えるべきである。  また、値下げをする程度を見極めるためには、自社内のコストと売上の性格な把握、さらに短期、長期の売上予測がかなり内部で正確に、さらにシステマティックに行われている、と予測するべきである。 

追随するクラウドプラットホームベンダーとしては、AWSと競合する/しないは別として、この辺のノウハウの構築、「サービス事業+ユーティリティコンピューティング事業」という点から今後のビジネスモデルとし整備していく必要のある機能ではないか、と強く感じるところである。

市場のニーズに押されてクラウドサービスを始めたはいいけど、どうも事業収益に繋がるのかどうか、よく見えない、という不安をもったままReactiveに市場参入するのはできることなら避けたいところではある。 


上記の記事を掲載したサイトは、さらにAmazon Web Serviceの発表している、技術的な機能拡張に関するアナウンスも統計をとっており、次の表にまとめている。

aws-feature-releases-by-year

見ての通り、価格戦略だけではなく、機能の拡張についてもかなり積極的に行っている、という事が見える。  市場のリーダー格の地位を維持するためにはこの面での努力も非常に重要視している、という事がわかる。   この点に於いても、IaaSベンダーとしては重要視すべきで、クラウドプラットホーム事業は常にイノベートし続けるビジネスモデルであること、さらに他社が実施していない、ニッチな市場セグメントを常に開拓し続ける必要がある、という事を認識するべきであると思われる。 

IaaSをユーティリティコンピューティングと呼ぶことが多いが、「ユーティリティ」という言葉がもつ、ゆったりと構えたイメージとは裏腹に、上記のような激しい攻略が展開されている厳しい競争の市場である、という事を改めて認識する記事である。

http://feedproxy.google.com/~r/neoTactics/~3/waLuvzP56GI/aws-price-reduction

2010年9月8日水曜日

Swarm Computing:Intelの新しい戦略

Intelが先ごろ発表したMcAfee社の買収を通して、Intelが狙っている次世代のコンピューティング環境についての分析が様々なところで行われている。

Infoblox社のGreg Ness氏によると、Swarm Computingとい新しい市場の登場を提唱しており、今回のIntelのMcAfee社買収がこの新たな市場に対するアプローチである、と予測している。

Swarm Computingは、最近話題になっている、Ambient Computing、Pervasive Computing等といったキーワードと同様に、元々の源流をUbiquitous Computingに持つ。Ubiquitous Computingは、Xerox PARC研究所の当時Chief TechnologistであったMark Weiser氏が1980年代から1990年代にかけて提唱した言葉で、MITのOxygen Project、MEMSのSmart Matter Project、等、数多くの文献が登場し、一時期話題になった。基本的には、多くのコンピューティングデバイスに囲まれた状況の中で、人間がどの様にそれを利用するか、というコンセプトである。  

Intelがこの動きに向かおうとしている根拠は、Intelの製造するCPUの市場が従来のPC市場から、急激にネットワークデバイス(スマートフォン、タブレット、等)中心の時代に変遷している、という事である。

ネットワークデバイスの数は、既にコンピュータの数を超えている、と言われている。毎年増えるネットワークデバイスの数は、1999 年に存在してた全てのデバイスの数を超えている。これらのデバイスのCPUを製造するIntelとしては、この事実に注目しないはずが無い訳である。

すなわち、今日の「ネットワーク」、と呼ばれるものは、PCのネットワークではなく、もはややモバイルデバイスのネットワークである、ということである。

"More than 1 billion mobile devices will access the Internet in the New Year, research firm International Data Corp. (IDC: 33.83 +0.03 +0.09%) says. That's catching up to the 1.3 billion users that use a PC to go online, and the rate of growth for mobile users is 2.5 times the growth rate for PC use."
IDCの予測によると、来年頭には、10億台のモバイルデバイスが市場に存在し、オンライン接続しているPCの総数である13億台に迫る勢いである。モバイルデバイスの伸び率はPCの伸び率の2.5倍であり、逆転するのは時間の問題である。

これだけの数のネットワークデバイスが接続し、相互通信が行われる環境において、Intelの最大の関心は、セキュリティを如何にハードウェアアーキテクチャレベルで確保するか、ということである、 当然、ネットワーク上のアプリケーションやミドルウェアのレイヤーでセキュリティを確保する事も発想としてあるが、果たしてこれだけ分散化した環境で上位のソフトウェアが下位のハードウェア、ネットワーク機器環境通信プロトコルまでをカバーできるセキュリティを確保する事ができるのかどうか、という疑問が出てくる。  

Intelのコンセプトは、ハードウェア、それもCPUレベルのプロセス間通信のレイヤーで強固なセキュリティを確保してはじめて、上位レイヤーでのセキュリティ実装が可能になる、という考え方にあるのでは無いか、と類推する。

そのハードウェアレベルでのセキュリティプロトコルに関して、今回の買収で独占的な仕様を作り上げ、市場に一挙に投入することができるのであれば、非常に戦略的な買収である、
という事ができる。  AMD等はどういう動きを取るのか、非常に興味が湧くところである。

個人的には、クラウドコンピューティングの新たな時代に向けたアーキテクチャの登場、と解釈しようとしている。 VMWare等の仮想化技術をさらに超えた、真のUbiquitousクラウド、という感じだろうか?  スマートグリッド市場で大きく伸びている、AMI技術と非常に近いアプローチである、という事も非常に興味深い。  

http://www.scribd.com/doc/513024/Swarm-Computing

2010年9月7日火曜日

CA Technologies社がID管理ベンダー、Arcot社を買収、

CA Technologies社が自社のクラウド事業強化を目的に、
新たな買収攻勢をかけ始めた。今度はArcot社というID管理技術を持つ、米カリフォルニア州Sunnyvale市に本社を置くベンダである。

Arcotは創業1989年、従業員は165人。銀行のオンラインバンキングサービスでのユーザー認証などの技術を開発していた。また、クレジットカード業界でも大きな実績をあげており、1日に100万枚のクレジットカードの認証を行っている、としている。

買収金額は、2億ドル(■http://www.ca.com/us/news/Press-Releases/na/2010/CA-Technologies-to-Acquire-Arcot□プレス発表記事■)。

CA Technologiesにとって今回の案件は、クラウド事業関連買収の6件目に当たる。下記は今までに買収した会社と技術。

・Cassatt プライベートクラウド技術
・3Tera アプリケーションをクラウド化する開発プラットフォーム
・Oblicore サービスレベルを管理するアプリケーション
・Nimsoft クラウドアプリケーションの性能監視ツール
・4Base Technologies クラウドシステム構築のコンサルテーション事業

CA Technologiesは買収戦略発表当時に、10億ドルの投資を買収にかけると宣言しており、今回の買収でその金額にかなり近付いている。

セキュリティが最近のクラウド事業を強化するインフラとして市場の大きな関心を集めている、とさまざまな市場調査の結果として現れている。今回の買収は、その大きな要件であるクラウドサービスを利用するユーザーのID情報の管理に目を付けたものだ。

CA TechnologiesはIAMと呼ばれる自社のID管理技術とサービスを提供しており、今回の買収によって、ArcotはCA TechnolgiesのIAM戦略を推進するセキュリティグループと統合することになる。

CA Technologiesのクラウド戦略は、元の事業モデルである、エンタープライズの運用管理、いわゆるManaged Service Provider事業であり、その事業モデルに合致する技術を持つ会社を買収の対象にしてきた。また、運用管理に加えて、企業の従来のホスティングサービスに新たにクラウドを導入する際のコンサルテーションを提供するサービスも4Base社の買収などを通じて強化しており、他のIT企業とは少し異なる戦略でクラウド事業の市場を確保しようとしている状況が伺える。

2010年9月6日月曜日

Amazon Web ServicesがCluster Compute Instancesを発表、クラウドHPC時代の幕開け

Amazon Web Servicesが7/13に発表した、Cluster Computer Instancesと呼ばれる、AWSの
HPCサービスについて、AWSのCTO、Verner Vogel氏のブログを通して、その背景と目的について分析をしてみる。

Expanding the Cloud - Cluster Compute Instances for Amazon EC2
By Werner Vogels on July 13, 2010 12:00 AM

Cluster Computing Instancesは、HPCのニーズに対応して新しく始めたインスタンスの種類である。 AWSの価格体系を保持しつつも、並列処理の比重が高く、高いネットワーク性能を必要としているアプリケーションに適した環境を提供する事が従来のAWSインスタンスとの大きな違い。

Amazon EC2を提供開始した当時から、HPCむけのアプリケーションを実装する顧客が多かった。当初は、Wall Streetの企業で、非常に複雑なMonte Carlo演算を数千ものインスタンスを並行に動かし、様々なシミュレーションの最適化を行うケースがあった。 また、製薬業界、原油掘削、工業や自動車の設計、メディア関連のアプリケーションも多く登場した。

さらに、企業はHPCアプリケーションのAWS EC2での実装をさらに進め、次の登場したのは、
超大型の非構造型データセットを使用するBusiness Intelligence系のアプリである。 この動きをきっかけに、HadoopやMap Reduce 等の技術が話題となり、我々もAmazon Elastic Map Reduceというサービスを通してこういったニーズに対応し、EC2上で大型のHadoopクラスターを動かす事ができる様にした。

Amazon EC2とElastic Map Reduceの組み合わせは、HPCのニーズをもつユーザに対してある一定の効果を発揮し、多くの評価を受ける事ができたが、一部のHPCユーザには、既存のEC2アーキテクチャが適用できないケースが出てきた。 特にこの課題が顕著だったのは、MPIベースのアルゴリズムをベースとしているアプリケーション等、Latencyが低い事が大きな条件となっているケースである。 また、稼動するハードウェアのアーキテクチャの特性を利用してアプリケーションをかなりのレベルで最適化する必要のあるケースなどもEC2上ではソリューションを提供しにくいのが現状であった。

Cluster Computing Instances(CCI)が生まれたのは、こういった背景があったからである。
従来のAmazon EC2インスタンスに基本的に似ているが、大きく違うのはCCIにおいては複数のインスタンスをCluster Placement Groupという一つのグループとしてまとめ、このグループをLow-Latency、高Bandwidthを提供する環境に置くため、専用の10Gbpsネットワークをクラスター内の通信に利用できる様にした事である。

さらに、CCIインスタンスは特定のプロセッサを選択できる様にし、それぞれのCPUの特性を最大限に引き出せる様なプログラミングができる環境を提供する事とした。 今後種類は増やす計画であるが、現在は、一つのクラスターにIntel Xeon X5570(quad core i7 もしくは Nehalem)を2台提供する事とした仕様である。

このCCIは昨今のHPC環境において、次の2つの大きな課題を解決する事を目的としている。

1) オンデマンドのスケーラビリティを容易に利用できる環境を提供する事
HPC市場は、主として専用のマシンを必要とするため、それを導入するための大規模な投資を必要とし、なおかつ、汎用的なマシンでないために導入の期間も通常のIT機器より長くなる傾向にある。 そのため、ユーザに対しては様々な運用上の制限がかけられるケースなどもが多い。HPCを必要とするアプリケーションは長いジョブキューにかけられる事が多く、ユーザはそのキューがあまりにも長すぎると目的を時間的に達成できない事も多い。 Amazon EC2のCCIは、クラウドコンピューティングぐの特性を活かして、大きな初期投資を取り除くと同時に、オンデマンドのHPC環境を提供する事を目的としている。

2) HPC環境の標準化
HPCにも色々とレベルがあり、US National Research Labs等で行われる、世界最速級のスーパーコンピュータを使用し、専用のスタッフが常に最適化の作業を行うような環境が必要なHPCがある一方、汎用的で中規模な環境での研究や調査活動に必要なHPCシステム、という物がある。 CCIでソリューションを提供しようとしている野はこの後者の方である。 後者の汎用的なHPC環境は非常にユーザ層が大きい事がわかっており、また汎用的である一方、企業内のITスタッフの大きな負担になっている、という事も気づいている。CCIの提供によって、この層に対して大きな寄与ができるもの、と期待している。


過去のスーパーコンピュータのイメージは、最近のHPC、特に低価格のCPUを高集約化する事によって構築できるHPCシステムの登場によってかなり一般的に使える物に変わってきている。 Amazon EC2の今回のCCIの登場は、いよいよHPCも汎用システムの一つとしてクラウド環境でソリューションが提供できる事を示す事になる。

単なる科学技術計算の市場だけではなく、ゲーミング業界等、3次元のシミュレーションが高度化している市場や、記入市場などでの複雑なシミュレーション等の用途も大きく成長している事が要因であると、考えられる。 それと同時に、クラウド市場専用のスーパーコン向けのハードウェア技術、という物が新しい市場として成長する可能性もある、と考えられる。

2010年9月3日金曜日

9/1のSteve Jobs氏のキーノートスピーチを分析:iDataCenterの目的、その先の本当の戦略を読む

昨日のSteve Jobs氏のキーノートスピーチは、生中継でストリーミング放映され、世界各地で同時配信されることになった。

Cult Of Macと呼ばれるAppleのフォロワーサイトによると、この生放映は、恐らくNorth Calorina州、Maiden市に建設中の大型データセンタの負荷テストを行う為に同データセンターからストリーミングしたのでは無いか、という予測がでている。 別サイトでは、AkamaiのCDN機能が利用された形跡がある、との報告もある。

こういった噂が絶えない、現在建設中のApple社の新規データセンター、Apple社のクラウド事業に向けて、そのインフラを支える重要な役割を担う、ということだけが発表されており、具体的には何を実装するのかはまだ明らかにされていない。

スペックとしては下記の様な情報が明らかにされている。
● 総工費=$10億ドル
● 広さ= 50万平方フィート(約4.5万平米)
● 稼動開始が2010年末
● 約50人のスタッフで運営する
● システムは、MacOS、IBM・Linux、Sun・Solarisベース
● IBMのHACMP、HAGEOを始め、Veritas Cluster Server、OracleのDataGuardやReal Application Clusters等の、High Availability技術関連製品を多く採用する
● ストレージ関連は、IBM、NetApp、DataDomainやTeradata社のデータウェアハウジング機能を採用する。
● ネットワーク製品は、Brocade、Qlogic等

現在、Apple社の最大のデータセンターは、カリフォルニア州、Newark市にある11万平方フィートのの規模であるので、今建設しているものはその5倍近い大きさになる。

この巨大なデータセンターの用途として最も現実的な案として考えられているのは、iTunesのクラウドサービス化と同時に、音楽・ 動画を配信するサービス事業である。

Microsoft社も自社のEdge Content Networkを運用しており、コンテンツ配信を行っている。少し異なっているのは、Microsoftの場合、世界各地にデータセンタを置き、データをキャッシングするシステムを導入してる事である。 一方、Appleは西海岸、さらに今回のイベントを通して建設される東海岸の2大データセンターで全てのコンテンツ配信を行う、集中型のシステム構成を目指している。 東西にデータセンタを置き、5億人のユーザをサポートする、Facebookのアプローチに似ている。

このデータセンタを建設は、Apple社のOliver Sanche氏が取りまとる。 当人は、過去にeBay、Telecity Group、AT&T等のデータセンタの建設を手がけたベテラン。

Steve Jobs氏のキーノートスピーチでは、iTunesの発表と共に、iTVの次世代モデルが発表され、映画、テレビ等のコンテンツの配信を行う、という事も発表されている。 この動画配信だけでも相当の規模のデータセンタが必要である、と想定される。 さらにPingと呼ばれるSNSサービスも開始し、これも動画、画像、音楽を複合的に取り扱うシステムとして説明されている。iPhone、iPad、iPod等のデバイスの好調な販売と共に、iTunesのユーザは増化の一途を辿り、提供されるコンテンツの量も音楽、画像、に加え、動画が加わるとなると、その量は大幅に増加するのは当然。 さらに、この大量のデータを今度はユーザのPC上ではなく、全てAppleが運営するデータセンター上で管理し、OnーDemandの配信で全ユーザに対してリアルタイムで提供するサービスに転換するとなると、上記の規模のデータセンターが必要になってくるのはある意味では当然だろう、と思われる。

一方、それと同時にユーザのプライバシーとセキュリティの問題が話題として上がってくる事も想定できる。 Apple社のSNSとして発進したPingが既にプライバシーの問題を内在している、と指摘が早くも話題になってきている。

しかし、Appleがわざわざ超大量のユーザの音楽、画像、動画ライブラリを吸い上げてまで一括管理し、配信するための巨大なインフラを構築するのは、別な理由がある、と推測せざるを得ない。単にこういったメディアの販売(動画はレンタルとの事)事業、という事だけではNetflick、Amazon等のe-Retail事業者と何ら変わらないし、基本的に差別化できる力があるわけでは無い、と思われる。

そこで、注目されるのは広告事業である。Googleをあそこまで成長させたモデルである。

Googleは、「検索」というアプリケーションを通して、ユーザの嗜好、動向などを集計し、それを広告事業に結びつけた事が成功の大きな鍵である。

Appleの狙いは、ユーザの収集する音楽、画像、映画、テレビ、等の「メディア」というアプリケーションを通して、その情報を広告事業に結び付けよう、としているのでは無いか、と想定できる。 Ping、が音楽・動画に限定したSNSである、という事を強調している事、Genius等の機能がユーザのの嗜好を無意識の内に集約している、という事実、iTunesが既に米国のCDの販売数を超え、事実上の音楽配信の独占状態になった、という事実(iTunesロゴも変わり、CDの絵が無くなった)、等、いくつかの条件が揃っている。

$10億ドルかけて建設したデータセンター、以外と早くその投資の回収ができるかもしれない。

2010年9月2日木曜日

VMWareのキーノートスピートに象徴される、VMWareとMicrosoftの対抗状態

今週は、サンフランシスコを会場にVMWorldが開催され、仮想化技術を多数のベンダーの参加と共に、大勢がイベントを見にやってきている。

VMを新しいOSの登場と見たり、クラウドを支える基盤技術、と見たり、その位置づけは様々であるが、規模の大きいコンファレンスが昔のITバブル時期と比較して非常に少なくなってしまった今、こういったイベントの大きさに改めて感心してしまう。

イベント開催中は、仮想化技術、クラウド技術関連の発表が多く行われ、また、OracleやMicrosoft等の大手強豪企業などの反応も非常に興味深いものである。

イベントのスタートは、CEOのPaul Maritz氏の登場である。

VMWareの好調な成長に加え、新しい技術開発に伴う新製品の発表を行うなか、Mauritz氏の発言にはMicrosoftを相当意識した言動が多く、敵対視している訳では無いが、時代の変遷と共に、Microsoftが独占していたOS中心の時代の終焉が終わりに近づいている、という主張が多く目立った様である。

下記がその言動の一部である。

"The point is not that quote-unquote operating systems are going to disappear," Maritz said. "It's the point about where innovation is occurring. Traditional operating systems did two things. They coordinated the hardware and they provided services to applications. The innovation in how hardware is coordinated today and the innovation in how services are provided to applications is no longer happening inside the operating system."
OSが消えてなくなる、という事をいっている訳では無い。イノベーションがどこのレイヤーで行われているのか、というのが重要なポイントである。従来のOSは2つの機能をもっていた。一つはハードウェアを統合する事で、2つ目はそれをサービスという形でアプリケーションに提供して行った、という事である。 今日、この2つの機能の発展は、もはやOSのレイヤーでは行われていない、という事である。

Microsoft社は、このイベントと同期して、USA Todayという新聞に全面広告を出し、VMWareのライセンス事業は、Lock Inの戦略である、と指摘し、ユーザにVMWareの提供する3年間のライセンス契約を締結すべきでは無い、と主張している、VMWareユーザ向けのレター形式の広告を出した。

これに対して、Mauritz氏は、下記の様に述べている。
"First of all, I think it's a very sincere form of flattery the fact that Microsoft needs to take out a full page ad in a national newspaper for our customer event," Maritz said. "For Microsoft to talk about lock-in is a severe case of the pot calling the kettle black. I smiled when I saw that this morning."
まず、Microsoftがわざわざ全面広告を出す程、VMWareを評価してくれる事には基本的に感謝したい。 しかしながら、Microsoftが自分以外の会社に対して、Lock-In戦略の指摘をするのは甚だ矛盾する話である、と苦笑せざるを得ない。


"There really hasn't been a lot of innovation inside operating systems for 20 years now,"
OSの中、というもの、過去20年間、さしたる成長が合ったとは言えない。 Mauritz氏は10年前まではMicrosoftのWindows 95、Window 2000の開発責任者でもあったので、この発言は自分が寄与した分も含めて語っているのか、非常に興味深い。

Mauritz氏は、VMWareのCEOとして参画したのは2年前。 VMWareの親会社、EMCが自社の元創業者、Diane Greene氏を追放した時期に同期して、Mauritz氏を登用し、VMWareのCEOとして採用している。 Hyper-Vを開発したMicrosoft社からの競合関係が激しくなってきた時期の対策である事は良く知られている。

もう一つ、Mauritz氏がWindowsの衰退を主張する理由は、Windows以外のOSでのシステム(具体的にはApple製品)が多く登場し始めており、それに対向できていない、という点である。

VMWareの主張は、過去にMicrosoftが独占していたハードウェアの統合と、アプリケーションサービスの提供の役割を自社のソリューションで独占しよう、という戦略を明確に打ち出しており、最近の事業戦略、また今後の買収戦略等もこの方針に基づいて進められる、と想定される。

自社が進める、Project Horizonは、VMWareの仮想化技術と、パートナー企業の提供するサービスを組み合わせ、デスクトップでの市場の確保を狙っているものである。

また、今週の火曜日に発表した、Tricipher社の買収は、このインフラ上のシングルサインオンの機能を提供して行った、、セキュリティを高めるための具体的な動きである。

最後に:
"We long since ceased to be a hypervisor company. If you want a hypervisor for free we have one. A couple hundred thousand people a year download our hypervisor. We no longer make our money from the hypervisor. We make our money from data center automation."
もうすでにVMWareは、Hypervisorの会社ではもはや無い。Hypervisorは以前から無償で配布をしている。 年間、この無償のHypervisorは、数千万コピーダウンロードされているため、そこは全くもって収益源ではない。 我々は、データセンターの自動化を通して収益をあげる会社である。