2010年1月31日日曜日

Webホスティング事業者が続々クラウド事業を発表: 生存のために必要な戦略、という声がむしろ強い

Webホスティング事業が続々クラウドサービスの開始を発表している。
従来の事業の延長線上にクラウド上でのアプリケーションのサポート、データ管理をクラウドインフラで安く、スケーラブルに行いたい、というユーザの強いニーズに押されて開始しているケースが多い、という話が良く出てきている。
 
3つの事例の紹介。
 
1) Liquid Web
Liquid Web
Storm On DemandというIaaS事業を発表し、Amazon EC2と同等なサービスを展開開始。 GUIがEC2と比較して使いやすい、という点が特長。 また、スケーラビリティの点でサーバの規模をかなり自由に変更できる、という特徴を打ち出している。
 
2) 1&1 Internet
ホスティング事業者の大手、1&1 Internet社がDynamic Cloud Serverというサービスを開始、1~4台までの仮想プロセッサを、1~15GBのRAM+100~800GBのメモリを組み合わせて自由にシステム構築が可能になる。 さらに、Windows、Linuxをサポートし、自由にOSを入れ替えることが出来る。 
 
 
3) Flexiant
まだ新しい会社であるが、UKの会社で、Flexiscaleというクラウド事業を開始したXCalibreという会社が同社からスピンアウトしてFlexiantと合体した、という経緯がある。 Flexiscaleは欧州で初のクラウド事業として知られている。
 
 
 
何れのベンダーも、クラウド事業は収益の大きい部分を占める、と見ている。 新規ユーザの確保に重要な役割を担うと同時に、クラウド事業者の最もターゲットとしている顧客は、「システム管理を然程必要としないユーザ」、という考え方が共通している模様。 
 
通常のホスティングサービスの延長線上にクラウド事業を位置づける考え方は割りと新しく、Amazonのような Per-Hour Billingという一時的な使い方、開発Onlyの使い方、Burstingだけの使い方、では無く、長期間クラウドを利用する顧客を狙っている点、ユニークである。  そのため、価格帯も一時間あたりの価格設定ではなく、数ヶ月単位、という従来のWeb Hostingと同じ価格体系を提示している。 
 
クラウドも定着してくると、一時間当たり、という価格モデルは段々と亡くなってくる様にも感じる。 
 
 

Salesforce.comの2010年は3つの製品リリース

Salesforce.comによると、もう既に31代目になる新しいリリースは、次の3つの製品によって構成される。
  1. Sales Cloud 2
  2. Service Cloud 2
  3. Force.com: Spring '10
尚且つ、今回はGUIが相当変わる、と発表されている。
 
それぞれの製品概要は次の通り:
 
  1. Sales Cloud 2
    リアルタイムで見積もり(Quote)を自動作成する機能をサポートする。また、Spring'10と連動し、複数のQuoteをそれぞれのアカウント(Opportunity)に自動的に結びつける事が可能。
  2. Service Cloud 2
    Salesforce Answersという製品と共に、サービス契約の機能がサポートされる。 Salesforce Answersは、顧客との間とのさまざまなコミュニケーションを提供するためのコミュニティを作ることが出来る事と、それを通して顧客サービス機能を強化することが出来る。
  3. Force.com: Spring '10
    昨年10月に発表された、Adobe
    Flash Builder for Forceが実装される。 これによって、Flashで開発されたさまざまなクラウド系アプリケーションをForce.comで開発したアプリケーションに搭載することが可能になる。
Salesforce.comが機能エンハンスすると、すぐさまに競合が同様の機能で追いつく、というパターンはどうも定着しているようで、今後他のCRM製品がどの様に反応するかも含めて市場を継続的に見ていく必要がある。 

マイクロソフトのAzureがいよいよ課金開始

2008年に発表された、Azureは、今となっては他のクラウドサービスの後発になってしまうが、Windows開発環境との整合性を売りに、従来Windows開発をOn-Premiseで行っていたユーザ、ISVをターゲットに強い魅力があるのでは、と評価されている。 
 
価格帯は2種類あり、一つは単純に使った分だけ支払う、というPay As You Go方式、もう一つは、6ヶ月単位で契約すると少し割引が得られる、という方式。 
 
従来の高マージンOSライセンス事業と比較して、クラウド事業は非常にマージンが薄く、Microsoftとしてはどのような対応をするのか、という事が以前から問われている。  より広いユーザ層を狙う、という単純が回答しか出ていないが、その真意は2月1日の本格ビジネス開始時点ではっきりしてくる、という事。
 
 
 
 
 

クラウドストレージはまだ本格採用には課題が残る、というForresterの調査結果:バックアップが当面メインになるだろう。

Forrester Researchの最近のアンケートによると、ストレージSaaSのビジネスが多く登場しているにも関わらず、まだ課題が残っているために本格的な採用には時間がかかる、という市場の声をアンケートを通して拾い上げている。
http://www.networkcomputing.com/cloud-computing-chart.png
アンケートの結果、今後12ヶ月間の間にストレージSaaSを採用する、と決めているのは全体のたった3%しかいない。 又、約半数の43%はストレージSaaSに全く興味が無い、と応えている。
実際に領しているユーザに対してどの様な使い方を採用しているか、と聞くと、データのバックアップ、アーカイブ、email、の3つがあがってくる。
 
懸念している内容を聞くと、
セキュリティに対する懸念: 76%
信頼性: 66%
性能:52%
コスト:40%
 
ストレージ戦略の本質的なコストはストレージシステムにかかるITコストではなく、管理しているデータが紛失、もしくは盗まれた際に起きうる損害の方に大きな比重があり、そのリスク分析をし、SaaS化する際のコスト削減と比較すると、ペイできない、という判断に行き着くケースが多い、と思われる。 
 
バックアップのような、比較的単純であまり情報リスクの高くないデータを取り扱うアプリケーションにおいてストレージSaaSの伸びが当面期待される模様である。 
 

2010年1月30日土曜日

最近のクラウド市場での投資活動: 探せばまだ見つかる良質案件、ただし傾向が少し変わってきているのでは=>

クラウド関係のVC投資は落ち込んでいる、と言われながら、条件さえ整えばまだ活発な領域があることがジックリ観察していると見えてくる。 
 
共通項目としては、売り上げがある程度上がっている事と、成長曲線に乗っている、という事。 従来のVCのPre-Revenueを狙った投資ではなく、ある程度成熟したベンダをグローバル化、多様化、また競争激化の中でシェアを守るための戦略として追加投資をする、というパターンである。 
 
技術的にユニーク性を持っている事も当然重要であるが、あまり突飛なものではなく、Enterpriseの具体的なニーズに合致している事も大きなポイントになると思われる。
 
CORAID社が$10MのSeries A投資を完了
Scale-Out Storageと称して、従来のiSCSIやFibre Channelと比較して5~8倍の性能を発揮するSANシステムを構築できる技術。 ゲノムリサーチ等の科学技術計算アプリケーションでの採用が多く、世界で1100社顧客があるとの事。 今後こういったアプリケーションをクラウド化する際に活用できる技術として注目されている。
出資者はAllegis Capital、Azure Capital Partners等。
 
 
Unidesk社が$12MのSeries B投資を完了
仮想デスクトップベンダーである、Unidesk社はVMWare、Citrix、Microsoft等の複数VM環境上で仮想デスクトップを統合的に構築する機能を提供する数少ないベンダー。
出資者は、Matrix Partners、North Bridge Venture Partnersで、Series Aに引き続き投資。
http://virtualization.com/funding/2010/01/25/unidesk-scores-12-million-in-series-b-round/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed:+Virtualizationdotcom+(Virtualization.com+-+Your+number+1+virtualization+resource!)
 
 
Mimecast社が$21M のSeries B投資を完了
SaaSベースのemailアーカイブ、回復、セキュリティサービスを提供するベンダー。  同社はUKの企業で、大規模なストレージ+eDiscoveryサービス+セキュリティ、という、従来は個別に導入が必要だったアプリケーションを統合的にサービスとして提供する、という点で、欧州で急成長を遂げている。 
現在、グローバルに2500ユーザを持ち、広い範囲の業界をカバーしている。
出資者は、Index Ventures、Dawn Capital。 

BirSource誌がRackspace CloudとAmazon EC2との性能比較レポート: よく見るとRackspaceがスポンサー:それじゃ駄目だろう!!

BitSourceと呼ばれるオンライン技術情報誌が行ったこの比較、2ヶ月かけて、両社の提供するクラウドサービスを総合的に、特に性能面について行った、という内容。
 
CPU性能、I/Oスループット、などを対象に、複数のテストケースを5回ずつ、同じ構成の5つのインスタンスに対して行い、これをさらに一週間あけて2回行う、というテスト行っている。 クラウドの個々のアカウントがクラウド全体のワークロードから影響を受けないかどうかを評価するために同じようなテストを繰り返す行うことが理由。  (最近、AmazonがOversubscribeしている、という記事が多く、それを意識していると想定)
 
クラウドたるもの、どんな時間帯、どんな混みぐあいにおいても同じような性能結果が出るはず、というのが理想像であるが、実際にかなり異なる事が体験的に分かっており、どれだけの差異があるのかを正確に計測することもこの実験の大きな目標であった。 
 
実験の詳細の内容については記事を読み砕く必要がある。 非常に長い記事であるが、構成的には割りと読みやすい。
 
総合的には、RackspaceのCloud Serverの方が性能がいい、という結果が出ている。
 
ただ、このレポートの一番最後に、この実験はRackspace社が主催している、と短く述べている。  果たしてRackspaceに有利になるように操作されているかどうかはさておいて、Amazon Web Serviceサイドの人間がこれを見たら強く反論してくることは必至だろうなと感じる。 
 
結局、こういう性能比較みたいなレポート、報告書というのはマーケティング要素が非常に強く、あまり正直に信用してはいけない、という事を学ぶ事が出来る事例として評価。
 

2010年1月29日金曜日

最近の仮想化/クラウド市場の動き: 新しいクラウドビジネスはCisco/VMWare/EMC/NetAppを軸としたものが目立つ

Cisco/EMC/VMWare/NetAppの協業が発表されてしばらく経つが、具体的にこの連携を採用したクラウドビジネスが登場し始めている。  協業の4社はクラウド事業の前面で立たずに、インフラを提供するシステム業者としてのスタンスを明確にしていることが分析できる。 
 
Ciscoが、IaaS事業を開始。
VMWare/EMCとのアライアンス、さらにNetApp社との戦略的提携の一環と思われるこの発表、Cisco社が自社のIaaSサービスの提供開始する。 当然ながらアーキテクチャはCiscoのハードウェアに加え、EMC社のストレージでバイス、VMWareのvSphere 4.0ベースの仮想化プラットホームによって構成される。  AT&TやVerizon等のテレコム事業者や、Ingram Micro、Techdata等の大型IT系の代理店業者などもこのモデルをクラウドのみならず、ホスティングサービス全体に採用している。
Cisco_IaaS
対象となる顧客層はエンドユーザではなく、サービスプロバイダーである、という点に注目。 Cisco自身がAmazonと直接対抗するのではなく、Amazonに対抗するクラウドプロバイダーにOEM的なサービス提供をする、というビジネスモデルである。  このモデルは北米ではAT&T等のテレコム業者や、
 
 
新興企業、Pancetera社がクラウドストレージ管理の事業を開始
2009年に創業したばかりのベンダであるが、Hummer Winblad Ventures、ONSET Ventures等、著名なVCから投資を受け、マネジメントに元Thinstall(VMWareに買収)CEO、元DataDomain(EMCに買収)の幹部等、業界の見識者を確保したことが話題を集めている。 特徴としているのは、VMのストレージ管理技術であり、VMを一つのシステムと見た場合にストレージのバックアップ、回復などのソリューションを提供するものらしい。  Quest/Visioncore社、Veeam社等と競合する技術と思われるが、VMWareとの強い連携がビジネス面で有利になることも想定される。
http://www.virtualization.info/2010/01/pancetera-to-enter-virtualization.html?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed:+Virtualization_info+(virtualization.info)
 
 
USのITソリューションベンダー、Logicalis社がエンタプライズクラウドサービスを発足
Cooperative Enterprise Cloud Serviceと称するこの新しいビジネス、CiscoUCS/NetAppをベースとしたアーキテクチャ上で稼動するハイブリッドクラウドサービスである。  BeSpoke On-Site Cloud Serviceと呼ばれるプライベートクラウドサービスに加え、このCooperative Enterprise Cloud Serviceと呼ばれるパブリッククラウドが共通のアーキテクチャを通して、アプリケーション連携、データ連携を保証する、という内容。 ちなみにLogicalis社はUKに本社を置く企業。
 

Oracleは、Sunの進めていたクラウド事業を中断する、と宣言: Amazon Web Service対抗事業はなし

昨日、Oracle社のSun Microsystems買収作業が完了したことを記者会見した際に、Oracle社のChief Corporate ArchitectであるEdward Screven氏が発表した事。
 
SunはAmazon Web Servicesに対抗するIaaS事業を立ち上げ、新興企業をターゲットとしたクラウド事業を進めようとしていたが、この事業はOracleの「クラウドを運営するのではなく、クラウドを作る技術を提供する」、というビジネス戦略に沿って、中止に追い込まれた、という状況。
 
CEOのLarry Ellison氏は従来よりクラウドを"Hype"である、と明言し、自社の事業としてはクラウドは採用する意思は無いことをかなり明確にしている。 一方では、自社のデータベースシステムを特定の顧客に対してホスティングサービスとして提供する事業は行っており、プライベートクラウド的なサービス事業は提供している。 
 
SunはこのAmazon的なクラウド事業において、Linux、Windows、Solarisの3種のOSを、Sun Sparcベースのハードウェアシステムで稼動し、ZFSやCrossbowなどのオープンソースなどでファイル管理や仮想化管理を行う、と表明していた。
 

2010年1月28日木曜日

VMwareが次の買収戦略としてはミドルウェアを狙う、と表明=>

VMWareのQ4/2010の発表の場での発言によると、同社は今後の買収戦略として、過去に買収したオープンソース系のアプリケーション開発ツール、Springsource社の技術とvSphereの仮想化レイヤーを結びつけるMiddleware製品を狙う、と表明。
 
下記がCEO、Paul Maritz氏の回答:
Answer from Paul A. Maritz
We think there's an opportunity to have new middle ware offerings that essentially embody the SpringSource development model at the top end and which bind to the vSphere deployment and resource scheduling model at the bottom end. So, what you're missing today is sort of the layer of middle ware in between that will glue those two things together and that's what's coming down the pike.
 
具体的には、PaaS事業につなげるために必要なクラウドアプリケーション開発ツール、他のクラウドとの連携技術、などを狙っているのでは、と分析。  そうだとすると、おのずとターゲット企業の絞込みが出来ると思われる。  特にオープンソース系のベンダーでビジネスアプリケーションでの実績があるところに着目するとかなり絞り込まれる。 
 

セキュリティベンダー特集:けっこういっぱい登場、競争の激化が予想される

CRN誌によるクラウドセキュリティベンダー20社の紹介。
主としてWebサイトのセキュリティ検証、emailのセキュリティ、コンプライアンス向けの各種レポート作成のサポート、ウィルス/Malwareチェック、等の機能をSaaSとして提供するパターンが多い。
 
この市場は急激に立ち上がり、McAfee、TrendMicro等の大手が買収を通してこの事業に参入する傍ら、スタートアップがユニークな手法で参画するケースが多い。 セキュリティ事業で特徴を打ち出すのは非常に難しいが、恐らく顧客ベースをしっかり確保したベンダが買収の対象になる、というパターンが今後続きそうな気配である。 
 
 
AppRiver社
emailセキュリティを提供するSecureTide Spam and Virus Protection、コンプライアンス支援のCipherTrust サービスを提供するベンダー
 
Barracuda Networks
Purewire社の買収により、SaaS市場に参入。クラウド上でWebゲートウェイ機能を提供するサービス。
 
HP
CloudAssureと呼ばれるクラウド化支援のプログラムの一環として、HP Application Security Centerというセキュリティソリューションを各種提供している。
 
M86
MailMarshal SMTPというSaaSサービスを提供し、Malware対策などをサポート。
 
McAfee
去年9月にMX Logic社の買収により、emailのセキュリティ、アーカイブサービスを開始。
 
Panda Security
Panda Cloud ProtectionというSMB向けのサーバ、emailのセキュリティサービスを開始
 
Ping Identity
SaaSでID管理を提供
http://www.pingidentity.com/
 
Proofpoint
emailセキュリティを提供するサービスを展開。
 
Qualys
セキュリティリスクに加え、PCI等に対応したコンプライアンス管理のサービスを提供
 
ScanSafe
Webサイトのフィルタリングをサービスとして提供するベンダー。 2009年12月にCiscoに買収される。
 
StillSecure
ファイウォール、VPN、Intrusion Detection、Webセキュリティ、emailホスティングなど、総合的なセキュリティと管理をSaaSで提供するサービス。
 
Semantec
MessageLabsというベンダの買収により、Semantec Hosted Servicesという事業を展開
 
Symplified
Single Sign-On等、アクセス管理機能を提供するSaaSサービス。
http://www.symplified.com/
 
SyferLock
SaaSアプリケーションに対して、パスワード認証管理(パスワード変更ポリシー、ランダムパスワード、ワンタイムパスワード、等)サービスを提供するSaaS
 
TrendMicro
Smart Protection NetworkというSaaSを提供する、統合型のセキュリティサービス。
 
WatchGuard
BorderWare社の買収を通して、emailとWebアプリケーションセキュリティサービスを提供している。
 
Webroot
オンデマンドのWeb、Email、データアーカイブ、等のセキュリティサービスをクラウドサービスとして提供開始。
 
Websense
Security-as-a Serviceと称し、Webセキュリティ、emailセキュリティを提供するサービスを開始。
http://www.websense.com/content/security-as-a-service.aspx
 
WhiteHat
SaaSプラットホームやWebサイトののセキュリティ検証ツールを提供するサービス。 元Yahooのセキュリティ専門家が2001にスタートした企業。
 
Zscaler
統合的なWebセキュリティ、コンプライアンス支援、などのセキュリティサービスを提供する。
http://www.zscaler.com/
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

IaaSの進化:クラウド間の統合ツールの次は、その統合を商品として売る? ロングテールの市場は

カスタマイズを如何に少なくするか、がクラウドを採用する上で重要な要件になる。
 
複数のクラウドを統合することによって新しい価値を見出すことがIaaS (Integration as a Service)の目的としていることだが、その統合のプロセスがすべてカスタマイズありきのSI事業になってしまっては、結果的にコストが高くなり、クラウドの本質的な価値が消えてなくなる恐れがある。 
 
SnapLogicはクラウドインテグレーションのツールを提供するベンダーの中でも比較的新興企業であるが、自社の技術で開発したクラウド間の連携をSnapと呼び、さらにそれを商品として販売できるeCommerceサイトの立ち上げを行った。 
 
サイトはSnapStoreと呼ばれ、SnapLogicが自社で開発したSnapを始め、3rdパーティが開発したSnapも一緒に販売できるマーケットプレイスのようなもの。  各Snapのマーケティング、宣伝、販売、課金、回収、保守窓口などのすべての商流を一手に纏めているのも特徴。 
 
紹介記事はここ;
 
実際のサイトはここ;
 
同社は開発コミュニティに対してSnapの開発コンテストを開催しており、優勝者にはAmazon Kindleと賞金が与えられる。 
http://www.snaplogic.com/l/snapstore-developer-challenge
 

プライベートクラウドの価値について、有識者の異なる見方: でもそれには理由があった =>

James Hamilton氏、元はMicrosoftにてData Center FuturesチームのArchitectであったが、Amazon Web Serviceに移り、VP & Distinguished Engineerとして活躍。
 
一方、Michael Manos氏は、同様にMicrosoftのデータセンタ責任者であったのが昨年、データセンタ専門のREITの最大手であるDigital Realty Trust社に移っている。
 
両社共にデータセンタ、クラウド関係の見識者であり、それぞれのブログを通して発信される独自の見解が業界に大きな影響を与えている。 
 
その両者が、プライベートクラウドの価値について異なる意見を述べている。
 
Amazonの一員であるJames Hamilton氏はプライベートクラウドの価値を低く評価している。 同士によると、プライベートクラウドは一時的なトレンドであり、何れは、Shared Cloud(Public Cloudを軸としたIT戦略)に移行するだろう、と指摘している。  その原因として、プライベートクラウドが目指すものは、パブリッククラウドがすべて達成しており、その道のプロである、という一点に尽きる。 
 
James氏のブログはここ;
http://perspectives.mvdirona.com/2010/01/17/PrivateCloudsAreNotTheFuture.aspx
 
 
一方、Michael Manos氏はこれに反論、プライベートクラウドの価値は企業のIdentity重視、コストのコントロール、セキュリティリスクのコントロール、等、技術的な要件とは異なる面で重要視される、と指摘している。
 
Michael氏のブログ記事はここ;
 
 
両者が意識を共通にもっているのは、パブリッククラウドが、その大きな規模を元に安いコストで品質のいい、スケーラブルなITリソースを提供することに最適化されている、という点。 
 
意見が異なるのは、両者がMicrosoftを離れ、それぞれ異なるビジネスモデルの会社に所属している、という事が大きな要因ではないか、と思う。 Amazonの一員であれば当然パブリッククラウドOnlyのソリューションを目指すだろうし、Digitial Realty Trustのように企業向けのデータセンタを設計、建設する事業に携わっていれば、当然企業のOn-Premiseシステムにフォーカスするだろうし。

2010年1月26日火曜日

Reuven Cohen氏による、AmazonのOver Subcription手法について論じる:飛行機/ホテル業界との共通点=>

最近、Amazon Web Servicesのレスポンスタイムに問題がある、というブログ記事が多く、Cloudkickと呼ばれるクラウドの性能を測定するサービスの報告によると、AWSに対して行ったPingのLatencyを測定したところ、クリスマス以降、その数値が平均50msだったのが、1000msを超えるようになっている、との事。
 
この頃から各方面で、AmazonはOversubscription(キャパシティ以上に顧客登録すること)しているのでは、という疑いが出始めた。  最初は、alan williamson氏のブログにこのことが指摘されたが、その後いくつかの記事を経て、下記のReuben Cohen氏のブログに達している。 
 
Amazonはこの件に対して直ぐに反論し、障害を報告したユーザとは常に対策を提供すべく活動している、とコメントしている。 
 
下記記事によると、Amazon EC2は常習的にOversubscribeしていることを指摘しながら、この手法は別に珍しいことではなく、飛行機業界、ホテル業界でも常識的に採用されているテクニックである、と述べている。 
一方では、Oversubcribingのテクニックは、効果的な見積もりテクニックがあって初めて効果を出すものである、という事も指摘しており、現在急成長しているAmazonの市場において、この見積もりテクニックが上手く追いついていない事が最近の性能問題に連結しているのでは、と予測している。 
 
Amazon EC2のインスタンスを予約するときに、Quotaと呼ばれるサーバのグループをベースにされる事があるが(20台程度)、これも1ユーザあたりの利用サーバ数を見積もる上で非常に重要な手法になる。

Oversubscribing the Cloud

There's been a bit of a debate raging over whether or not Amazon EC2 has been oversubscribed and is suffering from performance problems because it. The discussion started when Alan Williamson wrote a blog post on Tuesday that said he was experiencing growing performance problems while running a large EC2 deployment for one of his customers. The post accused Amazon of oversubscribing their environment which in turn meant he needed to buy larger instances to maintain the same level of performance in turn increasing his client's costs. 

The debate hits at the heart of complexities involved in trying to deploy cost effective, revenue generating, public use infrastructure as a service platforms. I've been saying this for a while -- one of the hardest parts creating a public cloud service is estimating your customers demand while trying to remain competitive, which really means having prices that are on par or better then Amazon EC2.

Amazon was quick to respond saying "We do not have over-capacity issues. -- When customers report a problem they are having, we take it very seriously. Sometimes this means working with customers to tweak their configurations or it could mean making modifications in our services to assure maximum performance."

The problem with Amazon's vague response is it does very little to address a potentially major issue. In a sense they're saying we'll help you (if you're big enough) while providing no real insight into how their cloud is built, deployed or run. They do imply there are issues, but not relating to over-capacity, it's the fault of how their customers are deploying on EC2, not how their cloud itself is deployed or run. On one hand Amazon has stated they don't have "over-capacity issues", but on the other hand they are far from saying that they don't oversubscribe their environment. Let's be realistic, how else do you expect Amazon to achieve their ridiculously low price points? The very fact they can offer EC2 at such a low cost is to me indirect proof they do oversubscribe their environment. And hell, why not oversubscribe? In fact I'll go as far as to say that it is a good thing.

Amazon isn't alone in using oversubscribing or overbooking techniques for their service. The concept is common within a variety of industries where multiple users share a common resource. These resources can range from hotel rooms, to airline seats to more technical commodities such as bandwidth, storage, shared servers or even energy. The oversubscription model is dependent on the ratio of the allocated commodity which in turn is estimated on a per user / usage basis. The key is to have a well defined model which accounts for a standard deviation (or how much variation there is from the "average" usage). This typically guarantees the quality of a service for a particular user. Underlying the oversubscription model is the fact that statistically few users will attempt to utilize their full allotment of resources simultaneously. This allows you to offer more resources then you actually have available. The concept applies well to public cloud infrastructure environments, and probably is the most important aspect of any competitive pricing model. 

But there are problems with the oversubscription model. The problem occurs because there seems to be a non-linear relationship between the amount of capacity versus the amount of customer demand you have. Or to put it another way, just adding more servers as customer demand increases doesn't necessarily automatically guarantee the same level of service across your cloud deployment, something Amazon's recent dramatic growth & performance issues seems to prove.

This brings us to the concept of a quota's. Have you ever wondered why when you sign up for a "unlimited" cloud infrastructure service such as EC2, you are given an initial allotment of servers? For Ec2 it's something like 20 instances. The reason is simple, the hardest part of an oversubscription model is in capacity planning. That is the use of a quota system is an extremely important aspect in any cloud capacity / resource planning you will be doing when launching and running your own public cloud service. 

As an example, for the Enomaly ECP our quota system was developed to provide a predetermined level of deviation across a real or hypothetical pool of customers. Yes, it was developed to allow our hosting / cloud service provider customers to oversubscribe their environments. But it also allows for a variety of pricing & costing schemes to be implemented. Models such as tiers of usage, quality of service tiers, and even the ability to provide additional quota increases for "good behavior", like when you receive an automatic increase to your credit limit on your credit card. Without this type of quota functionality, it is practically impossible to adequately run a revenue positive public cloud service.

So the real question we need to ask Amazon is -- are their oversubscription models keeping up with the growth and scale of the underlying platform? Prove it.

Labels: , , , , 

ActivIdentity社がSaaS事業を開始:スマートカード/ PKIセキュリティベンダがクラウド事業に転換

ID管理ソリューションのベンダーの一つである、ActivIdentity社が自社のセキュリティソリューションをサービス化した、という内容の発表。 自社が買収したCoreStreetという会社の技術を適用する、との事。 
ActivIdentityは特に政府向け案件に強く、スマートカードセキュリティやPKIを使った認証サービスを提供していた。 この顧客層からSaaSにニーズを拾い上げてサービス事業への転換を図ったといえる。
 

ActivIdentity launches cloud computing security services


Updated: 2010-01-19

Authentication and credential management provider ActivIdentity announced Tuesday that it will launch new cloud computing services to help web-based security service providers defend against threats and identity fraud.

ActivIdentity recently acquired CoreStreet, an identity validation provider, and willintegrate that firm's offerings into its cloud computing services. Company representatives said that the security initiative's subscription-based service model could be an attractive option for businesses that are already facing budget constraints.

"Our cloud computing strategy was inspired by feedback from our customers and service providers, indicating a growing desire to move from security solutions to security services," said ActivIdentity chairman and chief executive Grant Evans.

The new web-based security services could appeal to vertical markets in a number of different sectors where identity validation and protection is essential, including government and financial services, the company noted.

A number of analysts have remarked on the quality of security services offered in the cloud. Gartner found in one study that SaaS-based security services have the potential to offer faster scalability at lower costs than equivalent-capacity onsite solutions.ADNFCR-2178-ID-19566629-ADNFCR

2010年1月25日月曜日

iTunesの時期リリースはクラウドをサポート:買収したLa La社の技術を利用し、ユーザがiTuneカタログをアップロード、他のAppleデバイスと共有できるとの事。

これをクラウドというのかどうか、という議論はさておいて、1人の持つAppleデバイスが2つ以上、という人も多い現代、この機能は何かと役に立つ、と思われる。

There were speculations that Apple Inc, (NASDAQ: AAPL) will start a monthly subscriptions service for its iTunes, rather than the current $1.29 per song business model.

Apple has put all these speculations to rest by stating that its acquisition of Lala Company was not to start iTunes subscriptions services but to provide cloud computing services for its iTunes users. Lala provides a personal music storage service which Apple will use for providing cloud computing services. The Lala setup process provides software to store a personal music library online and then play it from any web browser alongside web songs they sell.

The next version of iTunes will allow the users to upload their catalogs on the net and access these from any browser or net connected iPod/Touch/Tablet. This upgrade will be possible through Lala's technology. Once this technology is installed, users will be able to navigate and play their music, videos and playlists from their personal URL using a browser.

This way Apple will be freed from the hassles of device and region limitations and iTunes users can continue to buy music and videos which will automatically get uploaded on their browsers for anywhere access. Another advantage of this is that because users are in possession of the materials no new licenses are required from the record labels or publishers. So, acquisition of the Lala Company fits very well with Apple's long term strategy of being the first to exploit cloud computing technology.

Microsoft社がIntuit App CenterにてAzureアプリケーションを提供:拡販戦略の一つとして、270万社のQuickBooksユーザをターゲットにする。

Private Cloudには技術提供しない、という強いポリシーをもっているAzureであるが、他のPaaSプラットホームを経由して自社のAzureアプリケーションを提供する戦略は今後も積極的に展開する事が想定される。 
 
Intuitと組んだのは非常に興味深い点は次の通り。
1)  SaaSベンダーとしては恐らく世界最大にユーザ数(Salesforce.com以上のユーザを持っている)
2) 殆どがSMBもしくは個人事業者
3) 考えようによっては最もSaaSの浸透が大きい市場
 
ただ、見方を変えると、従来こういった市場に対する戦略を独自に持っていたはずのMicrosoft社、この協業をもって、それを諦めた、と見ることも出来る。  Excel、さらにそれをベースとしたアプリケーションでIntuit社のQuickBooksに対抗するものがいっぱいあったはずだが、それらの行く末はどうなるのでしょうか。 
 

Microsoft and Intuit Strike Cloud Computing Pact

The deal calls for Azure to be an Intuit preferred platform

 

BY MAUREEN O'GARA

JANUARY 24, 2010 07:00 PM EST

Azure Session at Cloud Expo

Microsoft and Intuit are going to join their clouds, Azure and the Intuit Partner Platform (IPP), so developers can deliver and market web applications to the 27 million QuickBooks-using small businesses through the Intuit App Center.

The integration also means that small businesses can use Microsoft's cloud-based productivity applications via the Intuit App Center, presumably heading off some losses to Google Apps and Zoho.

The deal calls for Azure to be an Intuit preferred platform.

There's a free Azure beta SDK that will federate applications developed on Azure with the go-to-market IPP already available athttp://developer.intuit.com/azure.

Integration is based on an extension of the QuickBooks data model and will provide APIs for single sign-on, billing, data integration and user management.

The companies expect a flood of SaaS apps to follow since together they have some 750,000 development firms and channel partners.

Azure launched February 1. Later this year, after they get the integrate just right and widgetry's formally out, Microsoft will make its Business Productivity Online Suite, including Exchange Online, SharePoint Online, Office Live Meeting and Office Communications Online, available for purchase in the Intuit App Center.

2010年1月19日火曜日

クラウドコンピューティングの価格の妥当性を誰が保証するのか?ユーザとサービスとの間にブローカが必要だ、という指摘記事=>

スマートメータの技術は、電力供給側が決める価格の変動を読み取って、各家庭にその情報を提供する、という機能をもつ。  これによって、各家庭は、ピーク時を避けて、電力料金の一番安い時間帯を見つけることできる。 

この仕組みを今後クラウドコンピューティングのインフラに導入できるのでは、という記事。 
Amazon Web ServiceのSpot Pricingのような価格変動制度が導入されると、ますますその必要性が出てくる、という発想は合意。

Who Do You Trust To Meter The Cloud?

So what has this subject got to do with Cloud Computing?


He quotes SmartMeters.com that:

Bakersfield residents believe their new smart meters are malfunctioning because their bills are much higher than before. PG&E claims higher bills are due to rate hikes, an unusually warm summer, and customers not shifting demand to off-peak times when rates are lower.
http://www.smartmeters.com/the-news/682-lawsuit-filed-against-pgae-for-smart-meter-overcharges.html

In the same story on smartmeters.com, State Senator Dean Florez, the Majority Leader in California, is quoted as saying “People think these meters are fraud meters. They feel they’re being defrauded. They’re getting no benefit from these things.”

This after $2.2b (yes, billion) was spent on the project.

Tom Raftery goes on to say:

One of the advantages of a smart grid is that the two way flow of information will allow utilities to alert customers to real-time electricity pricing via an in-home display. PG&E have not rolled out in-home displays with their smart meters, presumably for cost reasons. If they lose the class-action law suit, that may turn out to have been an unwise decision.
http://greenmonk.net/pge-smart-meter-communication-failure/

There is a better way, however:

What PG&E should have is a system where customers can see their electrical consumption in real-time (on their phone, on their computer, on their in-home display, etc.) but also, in the same way that credit card companies contact me if purchasing goes out of my normal pattern, PG&E should have a system in place to contact customers whose bills are going seriously out of kilter. Preferably a system which alerts people in realtime if they are consuming too much electricity when the price is high, through their in-home display, via sms,Twitter DM, whatever.
http://greenmonk.net/pge-smart-meter-communication-failure/

So what has this got to do with Cloud Computing? Quite a lot, actually. Customers of Cloud services right now depend on the "meters" being provided by the service providers themselves. Just like the PG&E customers in Bakersfield. This means that they depend on the service provider itself to tell them about usage and pricing. There isn't an independent audit trail of usage. The meter also locks the customer into the service provider.

Cloud Service Broker addresses these issues. It is not a coincidence that much Cloud Service Broker terminology carries over from the world of utilities - it is solving the same problem:

Data transfer to cloud computing environments must be controlled, to avoid unwarranted usage levels and unanticipated bills from over usage of cloud services. By providing local metering of cloud services' usage, local control is applied to cloud computing by internal IT and finance teams.
http://www.vordel.com/solutions/cloud.html

The Cloud Service Broker analyzes traffic and provides reports as well as an audit trail. Reports include usage information in real-time, per hour, per day, and per service. Reports are based on messages and based on data. Visibility is key. This is all independent of an individual Cloud service provider. It is easy to imagine how useful this would be in conjunction with Amazon's spot pricing (see a great analysis of Amazon's spot pricing by James Urquhart here).

The lesson from the Bakersfield debacle is that customers of services, whether utilities or Cloud services, need real-time visibility of their usage, real-time visibility of costs, as well as an independent audit trail. In the Cloud world, this is provided by a Cloud Service Broker.

AWS EC2が低価格を維持できるのは、オーバーブッキングしているから、という指摘

Amazon EC2がアレだけ安い値段を維持できるのは、基本的にオーバーブッキング(自分の許容範囲以上の客を受け付けること)を常習的に行っているから、という事を指摘した記事。  最近、EC2の性能問題が記事としてあげられる事が多く、どうもこのオーバーブッキングの見積もり違いが原因になっているのではないか、という事も指摘。  AWSが本件に対して明確な説明をしていないのが気になる、とも指摘。
ちなみにこれはEnomaly社のブログ。

Oversubscribing the Cloud

There's been a bit of a debate raging over whether or not Amazon EC2 has been oversubscribed and is suffering from performance problems because it. The discussion started when Alan Williamson wrote a blog post on Tuesday that said he was experiencing growing performance problems while running a large EC2 deployment for one of his customers. The post accused Amazon of oversubscribing their environment which in turn meant he needed to buy larger instances to maintain the same level of performance in turn increasing his client’s costs.

The debate hits at the heart of complexities involved in trying to deploy cost effective, revenue generating, public use infrastructure as a service platforms. I've been saying this for a while -- one of the hardest parts creating a public cloud service is estimating your customers demand while trying to remain competitive, which really means having prices that are on par or better then Amazon EC2.

Amazon was quick to respond saying “We do not have over-capacity issues. -- When customers report a problem they are having, we take it very seriously. Sometimes this means working with customers to tweak their configurations or it could mean making modifications in our services to assure maximum performance.”

The problem with Amazon's vague response is it does very little to address a potentially major issue. In a sense they're saying we'll help you (if you're big enough) while providing no real insight into how their cloud is built, deployed or run. They do imply there are issues, but not relating to over-capacity, it's the fault of how their customers are deploying on EC2, not how their cloud itself is deployed or run. On one hand Amazon has stated they don't have "over-capacity issues", but on the other hand they are far from saying that they don't oversubscribe their environment. Let's be realistic, how else do you expect Amazon to achieve their ridiculously low price points? The very fact they can offer EC2 at such a low cost is to me indirect proof they do oversubscribe their environment. And hell, why not oversubscribe? In fact I'll go as far as to say that it is a good thing.

Amazon isn't alone in using oversubscribing or overbooking techniques for their service. The concept is common within a variety of industries where multiple users share a common resource. These resources can range from hotel rooms, to airline seats to more technical commodities such as bandwidth, storage, shared servers or even energy. The oversubscription model is dependent on the ratio of the allocated commodity which in turn is estimated on a per user / usage basis. The key is to have a well defined model which accounts for a standard deviation (or how much variation there is from the "average" usage). This typically guarantees the quality of a service for a particular user. Underlying the oversubscription model is the fact that statistically few users will attempt to utilize their full allotment of resources simultaneously. This allows you to offer more resources then you actually have available. The concept applies well to public cloud infrastructure environments, and probably is the most important aspect of any competitive pricing model.

But there are problems with the oversubscription model. The problem occurs because there seems to be a non-linear relationship between the amount of capacity versus the amount of customer demand you have. Or to put it another way, just adding more servers as customer demand increases doesn't necessarily automatically guarantee the same level of service across your cloud deployment, something Amazon's recent dramatic growth & performance issues seems to prove.

This brings us to the concept of a quota's. Have you ever wondered why when you sign up for a "unlimited" cloud infrastructure service such as EC2, you are given an initial allotment of servers? For Ec2 it's something like 20 instances. The reason is simple, the hardest part of an oversubscription model is in capacity planning. That is the use of a quota system is an extremely important aspect in any cloud capacity / resource planning you will be doing when launching and running your own public cloud service.

As an example, for the Enomaly ECP our quota system was developed to provide a predetermined level of deviation across a real or hypothetical pool of customers. Yes, it was developed to allow our hosting / cloud service provider customers to oversubscribe their environments. But it also allows for a variety of pricing & costing schemes to be implemented. Models such as tiers of usage, quality of service tiers, and even the ability to provide additional quota increases for "good behavior", like when you receive an automatic increase to your credit limit on your credit card. Without this type of quota functionality, it is practically impossible to adequately run a revenue positive public cloud service.

So the real question we need to ask Amazon is -- are their oversubscription models keeping up with the growth and scale of the underlying platform? Prove it.

2010年1月15日金曜日

非構造型データが5年間でRDBの3倍の伸び:IDC予測

非構造型データとは、要するにRDBに向かない構造を持っているデータを基本的に指す。 email、ブログなどを始め、現在Web上に存在するデータの多くはこういった非構造型のデータベースである、といわれている。 このフォーマットのデータが今後5年間、構造型データベースが20%延びると予測される中、60%という驚くべき伸びを見せる、という予測がIDCから出ている。
クラウドの位置づけはこの大量に増加するデータを管理する手法として採用すべし、と提示している。

What Big Data Will Mean to IT

Applications designed to take advantage of new computing capabilities and respond to the needs of huge data

We’ve all heard and read about the enormous pace ofgrowth of the cloud – being experienced now and for the future.

And I think that what will drive growth, most powerfully, will be the ever expanding need for data storage.

A recent piece in the San Francisco Gate quoted a study done by analysts IDC last year about enterprise storage needs.

The study said that, over the next five years, structured data (the traditional row-and-column information contained in relational databases), will grow more than 20%. Meanwhile, unstructured data will rise at an astounding 60% compounded rate. That means structured data storage requirements will double, while unstructured data storage requirements will increase seven times. So application scale is dramatically growing.

So what does this mean for the future of IT? Basically, a big skill for IT folks will revolve around being able to stay on top of load variation. “The ability to respond to dynamic app load by rapidly altering application topology will be a fundamental IT skill,” says the article, written by Bernard Golden is CEO of consulting firm HyperStratus.

This is called dynamic scaling, and the demand for it will outstrip what most IT organizations do today – keeping application environments stable and occasional modifying topology through manual intervention by sys administrators.

Cloud providers offer orchestration (defining computing capacity in a single transaction, with the underlying infrastructure of the orchestration software obtaining the necessary individual resources to produce that capacity). But what will be needed for the volume of tomorrow’s applications is dynamism – the ability to rapidly, seamlessly, and transparently adjust resource consumption, all without human intervention, notes the story.

Without it, you’ve got a “buggy whip processes in a motorized world.” There is no way, in my mind, that I can see masses of IT admins on the job 24/7 adjusting computing resource levels.

I think the cloud is the answer here, and so does the author: “There’s no question that cloud computing, whether a public or private/internal variant, is the future of computing. ” But there are and will be challenges dealing with the demands of infinite scalability and highly variable demand.

Golden says that what’s expected for this new world of bid data and ever-increasing computing demand is:

1. A need for highly-automated operations tools that require little initial configuration and subsequent “tuning” because they operate on AI-based rules

2. A huge amount of turmoil as sunk investment in outmoded tools must be written off in favor of new offerings better suited to the new computing environment

3. A change in the necessary skill sets of operations personnel from individual system management to automated system monitoring and inventory management

4. A new generation of applications designed to take advantage of new computing capabilities and respond to the needs of huge data.

As we’re transforming the way companies compute and changing the infrastructure that’ll be needed for the days of big data, I believe it’ll be more essential than ever for companies to employ assistance in measuring database capacity usage. Indeed, that’s why we’re seeing such an explosion of growth for cloud monitoring services that can measure usage and alert companies when they’re approaching their thresholds.

Read the original blog entry...