2010年2月26日金曜日

買収の動き: Ernst & Youngの調査結果==> M&Aの大型化、インド/中国の台頭、そしてモバイル/エネルギー関係への関心

M&A活動が2009年Q4 において3期連続で上昇
 
Ernst & Young社の調査によると、Q4/2009もM&A事業が成長を遂げた四半期になる、と発表。
この期において、553件の買収が行われ、先期と比較して数字ベースでは13%の上昇になる。
これを次世代の新しい成長期の到来と見るか、落ち込んだ去年の単なる回復と見るかは、意見が分かれている。 
 
買収金額で言うと、Q4/2009はQ4/2008と比較して$35.4B対$9.2B、と4倍の伸びを示しているが、年間で言うと、2009年は2008年の約2%ダウン(2009年 = $94.8B)。 
 
Q4の急激な伸びを支えたのは、買収額$1Bを超える案件が7つ登場した事であり、モバイル系、エネルギー系の伸びが顕著である。 
 
2009のクロスボーダの案件は、全体の31%、と昨年から4%落ちている。 ただし、一見あたりの金額は42%と大きく伸びている。  インドと中国の伸びが顕著である。 
 

Cross-border activity
Cross-border deals fell to 31% of corporate deals in 2009 from 35% in 2008. While the total value of cross-border deals (corporate plus PE) fell 20% in 2009 to US$24 billion. However, the average value for cross-border deals climbed 42% in 2009 from 2008.

Of corporate deals done, the US completed the most deals in Q409 (222), 81% of which were domestic deals. China completed 31 corporate deals and had the largest percentage of domestic deals (84%). Of Q409's corporate deals, India completed the highest proportion of cross-border deals at 50%.

Corporate deals done overall by China and India in 2009, however, dropped significantly compared with 2008, from 139 to 86 in China and 80 to 39 in India.

 
 

Salesforce.comの2009年度: $1.4B売り上げ、好調な成長がさらに拍車

Salesforce.comがQ4/2009及び2009年度の経理報告
 
下記が要点:
  • Q4売り上げが$354M、昨年度比較で22%の成長
  • 2009年度売り上げが$1,306M、昨年度比較で21%成長
  • Q4 GAAP EPS(Earnings Per Share)が$0.16、これは昨年度比較で41%成長
  • Q4キャッシュフローは$92M、昨年度比較で21%成長
  • 2009年度キャッシュフローは$271M、昨年度比較で18%成長
  • 顧客数、4600社増、合計72500社を達成、31%増
  • FY2011の予測成長率は16〜17%に上方修正
数字では非常に好調なSF.comの状況、当面SaaS市場を引っ張る企業としての地位を守る気配である。 

買収の動き:Exar社がI/O仮想化の技術を買収

Exar社がNeterion社を買収
 
ITソリューションベンダーのExar社がI/O仮想化技術を持つNeterion社を約$10Mで買収する、と発表している。 Neterion社の技術は、主として10GBのイーサネットアダプターを対象としており、仮想環境での実装を容易にするもの。 
Exar自身は従来ビデオ/イメージング業界向けにセミコンダクターを提供する事業が中心であったが、最近はそのビジネスモデルから、データセンタ向けのソリューションを提供するベンダーに変換しようとしている最中。  Neterionの買収で同社はEmulex、Qlogic、Brocade等の10GBアダプターメーカと競合関係になる。 
Exar社は約550人の従業員、$136Mの年間売り上げ。
 
 

3TeraがComputer Associates社に買収される => 安い内に買う、という鉄則、ここにあり

CA社、3Tera社を買収
 
CAは、クラウド事業への参入を買収戦略を通して進めており、既に、Cassatt, NetQoS, Oblicore等の買収に続き、今回はプライベートクラウド関連技術として3Teraの買収を行うに至っている。 
従業員は約20名。  買収金額は未公表。
現在、XenのみをサポートしているAppLogicにVMWare ESXとMS Hyper-Vのサポートを追加する事も表明している。 特にCA社の顧客層を狙うとなれば、VMWareは必須になる、と言える。
 
CAからのプレス発表はここ
3TeraのApplogicが企業資産をクラウドに移行する効果的なツールとして役立つ事を強調している。
 
CAは顧客に対しても下記のレターを発行している。
 
CAのブログでの記事
3Teraの顧客層はMSPが中心である事を説明、CAがこの領域に大いに寄与できる、と表明。 さらにこの買収はCAにとっても大きな転換を意味する事も述べている。 
 
3Teraのブログはここ
長々と買収の経緯、CAと3Teraの共通性について述べているが、根本的に異なるビジネスモデルである事も意図している。  CAをManagement Companyと位置づけ、企業のIT管理、という主事業モデルを尊重すると共に、3Teraがこのモデルにクラウド管理、という新しい軸を加える、と宣言している。 
 
3Teraの製品デモの紹介ビデオはここ。
非常に簡単にシステムのクラウド化ができる事を協調している。
 
 
関係誌の記事はここ。内容は何処も似たような感じ。
Channel Web
CTOEdge
Data Center Knowledge
GigaOm
Network World
Forrester
 

2010年2月23日火曜日

HPCの世界: 膨大なクラウドのリソースを科学技術計算領域でどのように利用するか、様々なビジネスもでるが登場している。

SGI社のCycloneプラットホーム、Penguin Computing社のPOSサービス、Instrumental, Inc.社の政府向けHPCサービス、Univa社のUniCloud/Grid MPサービス、等多くのHPCサービスが登場
 
クラウドにおけるHPCの適用が最近よく話題に上がっている。 多数のプロセッサを並列処理に採用する事によって高速演算を実現する方式は多数のコンピュータによって構成されているクラウド環境に合っている、という考え方で、HPCを提供するサービスや製品などの発表が下記の通り、いくつかある。 
 
一方では、Amazon Web Serviceが研究者や文教市場向けに無償でCPUタイムを提供するサービスを実施したり、Microsoft社のAzureがやはり無償で研究期間にサービスを提供している市場である。  科学技術計算市場のクラウドに対する期待と関心が高まり、競争が激しくなる一方で、下記のベンダーが興味深いアプローチをしている。 
 
SGI社:Cyclone
Intel社のXeonもしくはItaniumチップをベースとして、SGIが開発したAltixシステムが構成要素になっている。  目的毎に次の3つのアーキテクチャが提供されている。 
  • SGI Altix Scale-up
  • Altix ICE Scale-out
  • Altix XE Hybrid
上記のHybridモデルは、NVidia Tesla、もしくはAMD FireStreamといった画像処理プロセッサを装備し、高速浮動小数点演算をサポート、また、Tilera社の演算チップの実装で高速自然数演算が提供される。 

The SGI technology at Cyclone’s core is comprised of some of the world’s fastest supercomputing hardware architectures, including SGI® Altix® scale-up, Altix® ICE scale-out and Altix® XE hybrid clusters, all based on Intel® Xeon® or Itanium® processors. The hybrid architecture offers either NVIDIA® Tesla GPUs or AMD FireStream™ GPU compute accelerators for floating point double precision workloads, and Tilera accelerators for integer workloads. High performance SGI InfiniteStorage systems are available for scratch space and long-term archival of customer data.

 
提供方式は、SaaSモデル、IaaSモデルの両方があり、特にSaaSモデルにおいては、次のアプリケーションを提供している。
Supported applications include: OpenFOAM, NUMECA, Acusolve, LS-Dyna, Gaussian, Gamess, NAMD, Gromacs, LAMMPS, BLAST, FASTA, HMMER, ClustalW and OntoStudio. SGI expects to add additional domains and applications partners over time.
 
IaaSサービスにおいてはNovell SUSEもしくは、RedHat Linuxを提供し、さらに性能最適化のためにSGI ProPack、Altair PBS Professional、SGI ISLE Cluster Manager等のスケジューリングや管理系のアプリケーションが提供される。
 
価格は、HPC Core/時間 あたり $0.95 で、Amazon Web ServiceのEC2と比較して少し高めの設定となっている。
 
Rackable社に買収されてからはじめての製品発表であり、今後のSGIの方向性を示唆する発表である、とも評価されている。
 
 
Penguin Computing社: Penguin On Demand(POD)サービス
既にサービスを開始してから6ヶ月経っており、2000件ほどのユーザをサポートしている。 顧客案件は、主としてSGI社が倒産の危機に喘いでいる時期に獲得したものが多い、とされている。
この会社のアプローチの特長は、専用のハードウェアを使用するのではなく、仮想化技術を駆使し、並列処理、マルチスレッドアプリケーションに必要な早いスループットのニーズに対応できる機能の提供に特化している点である。 
 
Platform Computing社/Instrumental, Inc.社: 米国政府向けクラウドベースHPCサービス 
Platform社のISFとISF Adaptive Clusterをベースとしたシステムで、政府が従来高額な予算で調達していたHPCコンピュータの大体になるHPCサービスを提供する事を目的としている。 
 
Univa社: UniCloud/Grid MPをAmazon Spot Instancesプラットホームに提供
AmazonのSpot Instanceサービスは、サービスの利用率が低い時にオークション方式で価格をユーザが決め、Amazonのサービスを利用する方式。  この方式をUniva社が採用し、自社のグリッドコンピューティングサービスを安価に提供するサービスを開始している。  大量の演算をバッチで安く行う事が出来るオプションとして評価される。 
 

RackspaceとAmazonの比較: エンタープライズ向けとコンシューマ向けの違い?

日本ではあまり知名度は高くないが、北米では、Amazon Web Serviceに次ぐIaaSサービスのユーザ数を誇るRackspace Hosting社への関心は高い。 
上記CloudProvider誌の調査結果示すとおり、3位以下を大きく引き離す2位であり、少なくとも北米の市場においてはAmazon Web Servicesと型を並べる事が出来る唯一のクラウド(IaaS)企業である事が言える。 
 
下記は、Web Hosting Industry Review誌に掲載された、Josh Beil氏の比較表である。
素直に見ると、Rackspaceの方がエンタプライズ向けのSLA内容を提供しているといえる。
 
Josh Beilの分析によると、Amazonが使いやすさ、人を介さないSelf Service機能の整備、等に重点を置く一方、RackspaceはSLAを充実させる事に重点を置いている、という事である。


Rackspace – Cloud Servers

Amazon – EC2

Uptime / Availability Guarantee

100%

99.95%

Time span

Current period

"service year" or the preceding 365 days

Time-to-resolution

1 hour

Not specified

Credits

·         5% of the fees for each 30 minutes of network or data center downtime, up to 100% of the fees

·         5% of the fees for each additional hour of downtime past time-to-resolve, up to 100% of the fees

10% of bill per eligible credit period

Notification onus

Customer

Customer

Window

30 days after incident

30 days after incident


Rackspace – Cloud Files

Amazon – S3

Availability

99.9%

99.9%

Definition

(i) The Rackspace Cloud network is down, or (ii) the Cloud Files service returns a server error response to a valid user request during two or more consecutive 90 second intervals, or (iii) the Content Delivery Network fails to deliver an average download time for a 1-byte reference document of 0.3 seconds or less, as measured by The Rackspace Cloud's third party measuring service.

"Error Rate" means: (i) the total number of internal server errors returned by Amazon S3 as error status "InternalError" or "ServiceUnavailable" divided by (ii) the total number of requests during that five minute period. We will calculate the Error Rate for each Amazon S3 account as a percentage for each five minute period in the monthly billing cycle.

Credits

99.89% - 99.5%

10%

99.49% - 99.0%

25%

98.99% - 98.0%

40%

97.99% - 97.5%

55%

97.49% - 97.0%

70%

96.99% - 96.5%

85%

Less than 96.5%

100%

99 % - 99.9%

10%

Less than  99%

25%

 
一方、Amazonの強みは、3rd Party Softwareベンダーのサポートを受けるプラットホームを提供している事で、Amazon本体が提供しなくても、周辺ベンダーが管理、自動化、監視ツールを提供している点である(CloudKick、Rightscale、enStratus等)。  Rackspaceが数社の買収を通して機能強化をしている一方、このレイヤーでの総合的な戦略が問われるケースが多くなってきている。 

買収の動き:データセンタ事業者のBick Group社がBlue Mountain Labs社(bluemountain.com)社を買収

データセンタ事業者のBick Group社(bickgroup.com)がBlue Mountain Labs社(bluemountain.com)社を買収した、と発表された。
 
Blue Moutain社は、企業や政府向けのクラウドコンピューティング系のコンサルティングサービスを提供する会社。
 
一方、Bick Group社もグローバルにクラウドコンピューティング市場でデータセンタのデザイン、設計、建築を行う会社。 
 

2010年2月20日土曜日

新しいクラウド統合ベンダー:Makaraの登場: 今度はMark Andreessen氏のお墨付き

Marc Andressen出資の新規クラウドベンダー、Makara社の発進
 
クラウドインテグレーション系のアプリケーションやサービス事業が多く登場している今日、Marc Andreessen氏(Netscape社)、Ben Horowitz氏(Opsware社)の運営するVenture Capitalが投資をした、という事で話題を集めている。
 
Makara社は、元は両氏が昨年6月に起業した、webappVMという会社が名前を変えたもので、今回の発表で製品の概要、機能などが明確になってきている。 
 
 

Makara offers an application management tool for virtual environments that sits on top of the hypervisor and under the application stack, making it flexible and easy to port across cloud and virtual environments. CEO Isaac Roth and CTO Tobias Kunze Briseno compare their approach to a “capsule” that encloses the application, allowing developers to provision apps across clusters or even move between cloud providers.

Makara says its Cloud Application Platform supports Java, Flex, PHP, JBoss and Tomcat applications, and can run on Amazon EC2, Rackspace Cloud, Terremark vCloud Express, VMware ESX, VMware Workstation, VirtualBox and Xen.

同製品は、仮想環境におけるアプリケーションを、複数のクラウドや他の仮想化環境に移動できるアプリケーション管理プラットホームを提供する。  Java、Flex、PHP、JBoss、Tomcatアプリケーションをサポートし、Amazon EC2、Rackspace Cloud、Terremark vCloud Express、VMWare ESX、VMWareWorkstation、VirtualBoxやXen等が対象プラットホーム。  具体的なイメージとしては、アプリケーションに何らかのラッパーをつけ、カプセル化する事によってプラットホーム間の移動が可能になる、と説明している。 
 
価格は、開発者バージョンとエンタプライズバージョンが存在し、それぞれ価格も発表されている。 エンタプライズバージョンは、一ノードあたり、$2250〜$3000程度。 
 
こういったラッパー技術を利用したクラウド間のアプリ移行ツールは非常に数が増えているが、現実的に汎用性のあるものを探すのが難しい。  言語仕様、関連インタフェース(DB、通信、等)、性能関連の課題、等アプリケーション本体以外の課題が存在するため、複雑化するのである。 
 

2010年2月19日金曜日

ゲームの世界: 結構性能や可用性については真剣勝負なのだ:FarmVille社CEOとのインタビュー=>

FarmVilleが7500万ユーザ環境をどの様に対応しているのか
FarmVilleのCEOであるLuke Rajlich氏とのインタビューを通して、FarmVille社が如何に急激なユーザ成長に対応していったかを説明している。 
FarmVilleは、サービスを開始して4日目で100万人、60日目には1000万人のユーザ規模に急成長している。 発足当時、世間で一番ユーザ数の多いゲームは高々50万人程度。 現在、発足9ヶ月目にして、同ゲームは同時利用者の平均が2800万人、合計7500万人のユーザに達している。  事実上、世界最大のゲーム、世界最大のウェブプラットホームになる。 
そのような状況の中、同社はLamp Stackを利用して開発されたコアをオープンソースを中心としている。
FarmVilleは、そのプログラムの性格上、次のような特徴を持っている。
1)  他のFacebook、Googleアプリケーションと比較して、Readに対するWriteの比率が著しく高い(Read:Write=3:1)
2)  新しい機能を追加すると、利用者の急増が大きく、場合によっては50%跳ね上がる事があり、この対応が非常に重要になってい来る。
3)  Facebookプラットホームの上で稼動するため、性能上の課題が大きい。  この問題を解消するために、Facebookのデータを大量にキャッシュする方式を採用している。 FarmVilleとFacebook間で行われるデータ通信はピーク時には3Gb/秒+キャッシュ間通信で1.5Gb/秒が加わる。 
4)  オープンソースを積極的に採用:
    a)  警報: nagios
     b)  監視:  munin
     c)  構成管理:  puppet
     d)  システム状況:  Facebook DB、Memcache 
5) ゲームを構成するすべてのコンポーネントに障害が発生しうる事を認識し、その障害がシステム全体に影響を与えないようにするために、各コンポーネントを独立化する。
 
ゲームという固有の世界ではあるが、クラウドアプリケーションの中でも特にLatency(遅延)や障害に敏感な正確を持つこの業界でのソリューションはかなり真剣に取り組んでいる状況が分かる内容で在る。 
 

2010年2月17日水曜日

Share PointデータをGoogle Appsに移行するツール:クラウドが氾濫する2010年、こういったツール増えそうな気配です

LTech社がMicrosoft SharePointドキュメントをGoogle Appsへ移行するツール、CloudMoveを発表
LTech Cloud Moveという新製品は、Share Pointで生成したドキュメントとGoogle Appsに移行するツールとして発表されている。
価格はユーザ単位で、一人当たり 年間$10から開始。
クラウドが氾濫する2010年はこういったツールが多く登場する市場にもなる。 
 

Cisco、NetApp、VMWare社が共同で最適化されたシステム構築コンサルを24時間サポートで提供:プライベートクラウドを作りやすくする戦略

Cisco、NetApp、VMWare社のパートナーシップ強化、アーキテクチャの拡張
3社は、Secure Multi-Tenancy Architectureと称して、仮想化環境を進めるデータセンタ向けにインフラとアプリケーションをテナント毎に明確に分離できる仮想環境アーキテクチャを発表した。  さらに、顧客ニーズはサポートの厚さに集中している、と認識し、24時間体制のサポートサービスを3社が共同で提供する事としている。  
 
このアーキテクチャは、次の製品がベースになっている。
  • Cisco Nexus Series Switches
  • Cisco® Unified Computing System
  • NetApp FAS storage with MultiStore
  • VMware vSphere and vShield Zones
この製品の組み合わせによるアーキテクチャは3社の間でテストが行われており、稼動の保証だけではなく、性能やセキュリティの最適化などの保証もされている点で優位といえる。 
 
クラウド環境は何せ複数のベンダの技術を組み合わせることによって成立するため、最適化されたシステムを構築するのは、多くの経験と時間が必要になる。 パブリッククラウドの場合は問題にならないが、プライベートクラウドの場合はのこのノウハウを如何に導入するかが課題となっており、こういった複数企業のコラボレーションによるサービスの意味が出てくる、と思われる。 
 
当然、価格を維持するための戦略として有効になる、という事も十分に想定可能。
 
http://virtualization.com/featured/2010/01/28/cisco-netapp-and-vmware-expand-collaboration/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Virtualizationdotcom+%28Virtualization.com+-+Your+number+1+virtualization+resource%21%29
http://virtualization.sys-con.com/node/1265105?utm_source=twitterfeed&utm_medium=twitter

2010年2月16日火曜日

日本がアジアでSaaS市場の伸びでトップを走る、というレポート:でもSF.comとGoogleのおかげ。 それじゃいけないだろう!みんながんばりましょう!

Springboard Research社の調査によると、アジア諸国の中で、日本の市場が最もSaaS市場の成長が著しく、今後も年間24%の成長を見込んでいる、と報告している。
 
この成長規模は日本の他の産業をも大きく引き離している数字である。 
 
興味深いのは、この成長を支えているのは、GoogleとSalesforce.com、という2つの外資系企業である、という事。  当然、日本郵政がSalesforce.comの大規模導入を決めた事が大きな起点になっている。 
 
きっかけはどうであれ、SaaS市場、ひいてはクラウドコンピューティングの市場の認知度が高まるのは非常にいい事と評価している。 日本が引き続いてアジアをリードする牽引役になる事を期待したい。 
 
しかしながら、今後の成長は外資系の技術に頼ることなく、日本独自の技術が育つ事を祈るばかり。  日本独自の技術を育てるためのツールとして海外(殆どUSの技術)を利用するのは全然問題ないと思うが、最終的に製品/サービスとして打ち出すのは日本の看板をもって行う事が重要だと考える。 
 
そのためにも、今後のクラウド技術の焦点は、表面的なサービスを提供するベンダーとのお付き合いではなく、その下の様々な高速化、自動化、セキュリティ、高集約化、等を実現する管理ツールなどの技術、(オープンソースも多い世界です)について注目すべき、とここで提言したい。 
 
日本には紹介されないケースが多いけれど、実は、この層、結構厚いのです。
アメリカではベンダーの数がかなり多く、かなり競争も激しいので開発規模も相当進んでいるのが現状なのです。 
 
http://software.tekrati.com/research/10691/

2010年2月14日日曜日

世界中のクラウドの性能比較を単純なデータダウンロードで実施、興味深い結果が。

CloudHarmony.comというサイトが2ヶ月間かけて実施したテストの結果。
同サイトは、世界115カ国に散らばっている1,100人のユーザに対して、1MBのデータを夫々26箇所のクラウドサービスからダウンロードをしてもらう、という至極単純な作業を行った、というのがテストの中身。 
 
接続の遅い状況や、一日に一回だけのテスト、という条件付けを誌ながら、絞りこんだ結果の中から、合計で1300回のテスト結果を集計した。ぜんたいの6割がUSで行ったテスト。 
 
北米で行ったテスト結果は次の通り:
アメリカのAmazon EC2の上にイギリスのクラウドベンダーである、Linode社、Flexiscale社、がトップを飾っている点が非常に興味深い。
 
他にもCDNでのテスト、Pingdomのですと等、色々行っており、面白い結果が出ている。 
 
単純でありながらも、実ユースにあったやり方で評価をする、というのはある様でなかったので新鮮な気持ちで記事を読む事が出来る。 
 
このテスト、実際に走らせる事が出来る。
興味のある人は次のサイトにどうぞ。
 
ちなみに、CA州からの結果で一番地元のAmazon EC2の性能が著しく悪い、という結果が出ている。
 
 
 
 
Ippei Suzuki
VP of Technology Group
Takenaka Partners
801 S. Figueroa St., Suite 620,
Los Angeles, CA 90017
tel: (714) 930-5000
 

2010年2月11日木曜日

アメリカ政府のクラウド:NASAが科学技術系のアプリケーションをクラウド化、HPCクラウドの事例として注目

NASAの政府の進めるクラウド技術の採用に対して積極的に動き出した。 
NASAは、同省のエンジニアが利用するモデリングやシミュレーションのアプリケーションをクラウド上で運用するクラウドシステムの開発をParabon Computation社という会社に$600,000で発注した。
最初のアプリケーションは、気候シミュレーションアプリケーションである、との事。
Parabon Computation社の分析によると、NASA内のサーバ環境のCPU利用率10~20%、と非常に低く、これを改善するためにクラウド化は非常に有効であるとコメント。
NASA内で利用しているアプリケーションのクラウド化だけではなく、NASA内のアプリケーション開発環境もクラウドに搭載するPaaS環境の提供も計画に入っている。
NASAのクラウド化の大きな特長は、大量のデータの高速演算を要求するアプリケーションが多い、という点にあり、いわゆるHPC(High Performance Computing)アプリケーションのクラウド化、という動きの代表になる。
本案件が成功すると、他にもHPCアプリケーションを多く抱える政府省庁(国防省、等)が関心を示し、動き出す事が期待される。 

アメリカ政府のクラウド:IBMがUS Air Force(アメリカ空軍)向けのクラウドのテスト環境を構築、特にセキュリティを強化

IBMが米国空軍向けの個のクラウドシステム、空軍が従来省内で管理管理していた情報をクラウド上で管理し、省内のIT予算の削減に寄与しよう、というもの。 
IBM Federal Divisionは昨年、IBM内でも唯一売り上げを伸ばした部門で、現在でもIBMの収益の15%を占めているところ。  今後さらにこの事業に力を入れる、という意思が強く働いている、と思われる。 
クラウド化によるデータのセキュリティについては大きな懸念があり、空軍の要請により、データの盗用を防止するための分析機能を強化している、と発表している。 具体的な内容については公表されていない。 

アメリカ政府のクラウド:DoL(Department of Labor)がGCE社のソリューションで経理システムのクラウド化を実現

労働省がGCE社の技術を採用し、Oracle Financials Release 12をベースとした経理システムをクラウド上のサービスとして提供する仕組みを開始した。
様々なエンハンスがされており、FSIO準拠、OMB準拠、Treasury Guideline準拠、等の厳しい条件をクリアすると同時に、22の省庁や組織に共通に提供できるサービスが構築されている。 
クラウドを採用した理由は、これらの要件に対して、殆どハードウェア/ソフトウェアへの投資をせずに、たった18ヶ月間で稼動開始が出来た、という点である。 
今後この成功事例が政府主催のクラウドイベントへ大きくプロモートされる事が想定されており、他の象徴への影響も想定される。 

イギリス政府のクラウド:G-Cloud呼ばれるクラウド構想、3.2Bポンドの予算削減が目標

イギリス政府内も膨大なITコストを削減するための戦略として、1月にクラウド技術を採用する発表を行っている。 Government ICT Strategyと称する戦略の一部として、G-Cloud構想が位置づけられ、2014年までに総額、3.2Bポンドの予算削減を実現する、と宣言している。
構想のスケジュールとして、2月に基本デザインを完了し、2010年内に政府内の部門の数箇所が実際に採用を開始、システムは2013年までにフル稼働することが発表されている。
現在、政府内では10,000個のソフトウェアパッケージが利用されており、これらをすべてクラウド化することにより、削減、さらに、750箇所の公共団体が利用している130箇所のデータセンタを集約、事実上12箇所までに削減できる事が述べられている。 
ソフトウェアベンダにとって、政府向けにソフトウェアやサービスをライセンスする方式が大きく変わる事を意味しており、これから広く議論される事が想定される。

2010年2月4日木曜日

Azure登場に合わせて、AWSが値下げを断行: アマゾンをIT企業だと思ってはいけない!クラウド界のWalmartと見るべし=>

以前からこういう戦略は展開することは予測していた。
 
既にS3の値下げ戦略を昨年取り、多数登場しているStorage SaaSベンダーに大きな警告を出したようなもの。
 
先行して大きなインフラを立ち上げ、後続してくる競合を価格戦略で打ち落とす手法は、リテール業界では常套手段で、Walmartに代表される大手企業は、そうやって牙城を築き上げている。  Amazonはオンラインリテール業界の大手であるゆえ、このDNAは生まれ持っている、と評価できる。 
 
今回はMicrosoft社のAzureが20数カ国同時に本格稼動するタイミングを見計らって、新価格を発表している。  値下げ対象は、Amazon EC2, Amazon S3, Amazon SimpleDB, Amazon SQS, Amazon RDS and Amazon VPC、と広い範囲をカバー。 
 
Additionally, Amazon's AWS price reduction is going to spark a price war, commoditizing cloud infrastructure, Alvarez said, questioning how low prices can dip. Amazon keeps prices low by working closely with suppliers across its various businesses. Alvarez said that's a different tactic than traditional infrastructure vendors.
Amazonの戦略のもう一つの大きな特長は、さまざまな業界のベンダーをサプライヤーとして自社のプラットホーム上でのビジネスを奨励している、という点。 
 
これもWalmart商法に酷似している。  競合をも取り込んでしまう、という作戦である。 
 
日本のクラウドベンダー、今後もますます激しくなる価格競争に勝っていけるのか、AmazonのDNAがどこから来ているのか、をよく分析した上で事業戦略を進める必要性が大いにある、と提言すると共に、クラウドの価格競争時代の幕開けが到来した、と宣言できよう。 
 
一方では、Amazon Web Serviceは本当に採算が取れているのか、という疑問を持つ声も多い。  実際、Annual ReportではAWSだけを切り離した事業の経理報告は一切されておらず、本業のリテール業と混ぜて記載されている。  ウォールストリートとしては非常に興味あるところであるが、実際儲かっているのであれば、AWS単体で数字を公開し、株価上昇の種にするのが通常の発想である。  それをしないのは、あまり自慢できる数字で無いから、というのが憶測として出ている。 
 
 
 

Facebookの新規データセンタ、実は火力発電所の電力を利用:クリーン(CO2削減)よりグリーン(お金)を選んだ背景=>

豊かな水資源を活用した水力発電所の数が、全電力生産量の6割を占めるオレゴン州にデータセンタを最近建設したFacebook社、実のところ、利用する電力の供給は、火力発電所から受けている、という事が明らかになった。 
 
水力発電所の電力供給は主として、Bonneville Power Administration(BPA)社が行っているが、Facebookが建設しているデータセンタの地域は、Pacific Power社という、別の会社が管理しており、僅かな%をBPAより電力供給を受けながらも、主力供給源は石炭を燃やす火力発電所である、という事をSearchDataCenter誌が発見。 
"While Pacific Power gets some hydropower from BPA, its primary power-generation fuel is coal, according to Jason Carr, the manager of the Prineville office of economic development for Central Oregon."
 
 
また、BPA社は、自社のCO2 Cap & Tradeの関連で必要になるコストをカバーするために、複数段階をもった電力料金体系へ踏み切る、と発表している。

It turns out the BPA will soon be implementing a tiered pricing system in which new customers will pay a higher rate to offset the costs of non-hydro generation the BPA will purchase to meet growing demand.


恐らく、このコスト上昇を懸念して、上昇しながらもより価格が安定している火力発電所ベースの電力料金体系を選択した、というのがFacebookの内部での判断だったのではないか、と指摘している。
 
オレゴン州にデータセンタを建設する、というのは最近ではグリーン戦略としては非常に良いイメージを獲得できる、という点ではマーケティング戦略として使われるケースが多いようだが、実際には、グリーンでなければいけない、という企業の大方針が大きくそびえる中、コストとのジレンマに攻め悩まされる現実に直面するFacebookの姿は、他の企業にも同様にのしかかる課題として考える必要がある、と思う。 
 

Hybrid Cloudの意味を考える:単に2つのクラウドを繋げるだけでは×、「新しい価値:A+B=C」を生み出す事に注力すべき、と提言=>

CloudScalingと呼ばれるコンサルタント企業のCEO、Randy Bias氏のブログの興味深い記事から抜粋
 
ハイブリッドクラウド、と最近よく使われる言葉があり、通常、企業内のクラウド(プライベートクラウド)とパブリッククラウドの両方を利用して、その連携から従来無かった新しい価値を見出すことを目的としている。 
 
Wikipediaの定義にもあるとおり、ハイブリッドとは2つのものから、全く新しい物を作り上げることである。 つまり、

A + B = C

という事。
 
Hybrid cars have a single kind of new engine & power train that use gas or electricity. It's neither a gas engine, nor an electric engine; it's a new kind of engine: a hybrid engine.
 
そのもう一つの例として、ハイブリッドカーもガソリンのエンジンと電池を組み合わせて、新しい乗用車を作り上げている例である。  ハイブリッドで新しい価値を有無好例である。
 
Bias氏の主張していることは、最近のハイブリッドクラウドというものは、2種類のクラウドを 「統合する」 のではなく、ただ単に 「つなげている」 だけに留まっている、という事である。 

As used today in cloud computing, hybrid is abused to mean CONNECTING, not COMBINING two kinds of clouds:

  • Private + public clouds
  • Internal + external clouds
  • Physical servers + virtual servers

The fundamental issue with all of these is that the end result is not A + B = C, but rather:

 
つまり、

A + B = A + B

という事。
 
今後クラウド事業にSIの力がどんどんと活かされていく時代になるに当たり、ハイブリッドクラウドと称するビジネス、何が一体統合されて、一体どういう新しい価値が生み出されるのか、明確にすることが、まずはプロジェクトの最初にして最重要な課題なのでは、と考える。 
 
当然、コスト削減、アプリケーション開発期間の短縮、などの成果が挙げられるが、それはハイブリッドの成果ではなく、単純にクラウドのリソースを活用している事によって得られるもの、と考える。 
 
Cloud Bursting、Cloud Federation、Cloud Bridging等、新しい用語も多数登場する中、あまりキーワードに踊らされず、本質的に企業にとって何が 「新しい価値」 になるのかを見極めるのを支援するコンサルティングサービス、というのも登場する時期なのかもしれない。
 
クラウドもワッと盛り上がって、一段落したところでこの辺の議論が多くなることを期待する。
 

2010年2月2日火曜日

GoogleがWebサービスと連携するビジネスアプリストアを立ち上げる、と発表。 狙いは何か、という分析=>

Googleが自社のWeb Serviceに統合する形で、ビジネスアプリケーションをオンライ
ンで提供する、と発表した。

ソフトウェア提供者は3rdパーティであり、3月あたりから本格的に展開を開始する、
と言われている。

記事の内容によると、直接のターゲットはMicrosoftのようである。
SharePointやSQL Server、Dynamics、Visual Studio等、自社ソフト層の厚い
Microsoft社のユーザをGoogleに引き込みたくても、難航していた結果の戦略、と想
像される。 つまり、対策として、自社開発するのではなく、SharePoint, SQL
Server, Dynamics, Visual Studio競合ベンダに製品をGoogleプラットホームに移植
してもらい、対抗する、という戦略をとったのでは、と思われる。


ソフトベンダにとっては大変ありがたいプラットホームであることは確か。 やっと
Microsoftと同じ土俵で対抗できるようになるので。

今までのGoogleは、こういった足りないタマを積極的な買収戦略で調達してきたが、
上記のようなビジネスアプリケーションは勝ち組が誰なのか、まだ見えないのが課題
で、Googleも一社のベンダに投資するよりもプラットホームを作る道のがリスクが小
さい、と判断したのかもしれない。

Azureの立ち上がりをジ~ッと見ていたGoogle、.NetアプリケーションのSaaS化プラッ
トホームとしてAzureが大きな注目を集めていく状況を見て、それにブレーキを掛け
なければいけない、という危機感を感じ始めての行為である可能性もある。

2010年はPaaSの時代だ、という声が多いが、Googleが登場することによってさらに激
化する、という可能性が大きい。

Force.com, Opsource SaaS Enablement Program, NetSuite NS-BOS, VMWare vCloud,
等は厳しい競合に対する対策を発表する、と思われる。 また、Apprend,
Flexiscale, MorphLabs, Aptana, GigaSpace XAP等は事業存続が難しくなる可能性も
ある。

Amazon Web Serviceだけは、PaaSをあえて選ばない戦略をとっています。 この状況
を見据えてのことであれば、実に賢い戦略だと言える。

http://online.wsj.com/article/SB10001424052748704107204575039704126843676.ht
ml