*

COHO DataStream のCinder連携

公開日: 最終更新日:2017/05/08  |  By  |  Cloud, OpenStack

OpenStack Cinder のストレージバックエンドとしてはCephが採用されているケースが多く、このブログでも紹介していますが、運用負荷やラック/サーバ台数の制限などから、アプライアンスストレージが適する場面も多いと思います。
今回、NFS接続が可能なアプライアンスストレージCOHO DataStream を評価する機会を得ましたので、OpenStack Cinder バックエンドとして接続し、いろいろな機能を試してみました。

  • COHO DataStreamとは
    仮想環境に特化したストレージソリューションです。高速IO、高いスケーラビリティと耐障害性、運用負荷の軽減を実現する製品と紹介されています。詳細は代理店さんの紹介ページを参照ください。
  • セットアップ/設定
    COHOはNFSストレージです。
    セットアップは非常に簡単でした。大まかに言うとCOHO自体の管理IP,接続IPを設定し、NFSのエクスポートを設定するのみでした。

    img-000029

    ネットワークの設定

    img-000030

    エクスポートの作成

    逆に難しい設定をしたい場合には物足りなささえ感じるかもしれません。

  • Juju でデプロイしたOpenStack環境での利用
    • nfs-common パッケージのインストール
      COHOが公開しているアーキテクチャ図を見て分るとおり、ComputeノードとCinder Volume ノードはCOHOストレージをNFSマウントします。
      そのため、この二つのノードへは nfs-common パッケージがインストールされている必要がありました。
    • cinder applicationの物理サーバへのデプロイ
      また、同様の理由により cinder アプリケーションは lxd ノードではなく物理サーバにデプロイする必要がありました。
      ※ lxd コンテナからはnfsマウントができないため
  • OpenStack Cinder バックエンドとしての接続設定
    手順は OpenStackのDocumentとして公開されており、非常に簡単です。Driver もUpstreamにマージされています。Github上のCinderDriverを見てみると、基本はNFSDriverを継承しており、Driverのつくりも非常にシンプルに見えます。
  • パフォーマンス
    紹介ページでは180KIOPSを実現しているとあります。パフォーマンス計測の結果を簡単に紹介します。
    結論から言うと、Cephでは出しにくいWriteのパフォーマンスが簡単にでるので、Writeが必要な場合は一考の余地があるのではないかと思います。

    • fio での測定結果(VM60台による 8kデータ へのIOPS測定結果(合計))
      OpenStackコンピュートホスト2台上に60台のVMを用意し、8k サイズのデータで 4パターンの負荷を掛けました。
      Read/Write 共に数万IOPSが出ていることが簡単に確認できました。
      ※これは限界値ではありません。ホストの台数を増やせばもっとIOが出ることと思います。coho_iops
    • COHO側のGUIでの確認
      COHOではWebインタフェース上でストレージの状態を確認できます。上記の計測を行った時のグラフをWeb上で確認すると以下のような結果でした。
      ※上記の計測は4パターンを連続して行うスクリプトを各VMで同時に実行開始した結果です。各VMの実行タイミングのずれにより
      ストレージ側ではread / writeが同時に発生していたようです。
      coho_iops_web

 

  • その他の機能について
    • VM単位でのIOの確認
      OpenStack の Adminアカウントの情報を設定してやると、VM毎の情報を確認することが出来ます。設定はこのような画面から行います。
      OpenStackのほかにVMwareが選択できます。(そちらの事例の方が多いそうです。)
      coho_virtualization_management
      上記の設定を行うことにより以下のような画面でVM側の状態を確認することが出来ます。
      coho_pervm
    • Cinder QOS
      OpenStackのDocumentをみると QOSにも既に対応されています。
    • API
      APIもあるという事でしたが、今回は時間が取れずAPIでの操作は確認できませんでした。
    • 耐障害性
      もちろんディスクやシャーシ単位で冗長構成になっているので、故障発生時にデータが失われることはありません。
      今回試した環境では、ディスク除去時などにIOへの影響もほぼ感じられませんでした。物理の状況も以下のような画面で確認できます。
      img-000021

私はこれまでCephの利用方法、運用方法を検証、実用してきましたが、やはり運用負荷がかかるという点は否めません。
ストレージに特別手間を掛けられないような状況ではこのようなアプライアンスストレージを利用するというのもよいと思います。

関連記事

no image

Swift 1.11.0 CHANGELOG の翻訳

by You Yamagata 2013.1.23(Swift関連の記事の一覧は インデッ

記事を読む

519RhQeJZML._SL500_AA300_

OpenStack Swift 書籍の出版のお知らせ

by You Yamagata 2014.04.02山縣です。 この度、インプレスR&D社よ

記事を読む

検証構成

RDOを使用したOpenStack Juno環境の構築

ビットアイル総合研究所 田波です。 今回はRDOを使用してOpenStack Juno環境を構築し

記事を読む

no image

Nova Availability Zone と Cinder Availability Zone

OpenStack 担当 石川です。 実際に自分が使うか使わないかは置いておき、気になったオプ

記事を読む

howtocontribute

OpenStackコントリビューターへの道(OpenStack Advent Calendar 2014 12/12)

by Ikuo Kumagai (@kumagai19o) この記事はOpenStack Ad

記事を読む

DSC_0584

vForum 2012

by kumagai 2012/11/7初めまして。ビットアイル総研の熊谷です。今日は11月6日、7

記事を読む

no image

Swift 1.12.0 CHANGELOG の翻訳

by You Yamagata 2013.02.04ビットアイル総研の山縣です。Swift の ve

記事を読む

no image

Swift のグローバルクラスタ (3) Icehouse 開発版でのテスト結果

2014.4.14 by You Yamagata 山縣です。 前回・前々回でグローバルクラスタ対応

記事を読む

obj_pool_osd

Ceph アーキテクチャ 解説 (Ceph Clientによるデータの分割)

by kumagai(@kumagai19o) 2014/6/24 毎度ご無沙汰しています。ビ

記事を読む

DSC_000001_opening

OpenStack Summit Tokyo

ついにOpenStack Summit が 10/27-30 に東京で開催されました。 弊研究

記事を読む

no image

ビットアイル総合研究所は、クラウド技術に関する調査&研究を通して、社会と会社に寄与していくことを目的に、ビットアイル・エクイニクスの企業内研究所として2011年8月に設立されました。

openstack-figure1-2x
COHO DataStream のCinder連携

OpenStack Cinder のストレージバックエンドとしてはCe

blog-ocata
Jujuで Ocataを含む様々なバージョンのOpenStack をデプロイする方法

祝OpenStack Ocata リリース!! ということで、早速デプ

newton
Juju Manual Cloud で OpenStack 環境構築

本当にご無沙汰しております。 この投稿はOpenStack Adve

top
HACK! THE Juju/MAAS

6/8~6/10まで幕張メッセで開催されたInterop 2016。皆

dpdk
OpenStack OVS VXLAN ネットワークの高速化

少し前の話になりますが、3月2日に開催された 日本仮想化技術株式会社様

→もっと見る

PAGE TOP ↑