※ このエントリは、はてなグループ終了に伴う、サブブログからの引越エントリ(2011/02)です。 ※ 情報が古い可能性もありますので、ご留意ください。 # virsh console vm-name error: Failed to get local hostname"/etc/hosts" に物理ホストのhostnameを追記したらエラーが解消された。 127.0.0.1 localhost.localdomain localhost hostname-dayoこんな感じで。
※ このエントリは、はてなグループ終了に伴う、サブブログからの引越エントリ(2010/10)です。 ※ 情報が古い可能性もありますので、ご留意ください。 ホストノードの情報を確認 # virsh nodeinfo CPU モデル: x86_64 CPU: 4 CPU 周波数: 2333 MHz CPU ソケット: 1 ソケットあたりのコア数: 4 コアあたりのスレッド数: 1 NUMA セル: 1 メモリーサイズ: 24666436 kB 仮想ノードの情報を確認 # virsh dominfo guest-vm-name Id: 3 名前: guest-vm-name UUID: xxxxc36e-2fxx-90xx-3exx-4f83dd34xxxx OS タイプ: hvm 状態: 実行中 CPU: 2 CPU 時間: 591.6s 最大メモリー: 2097152 kB 使用メモリー:
RHEL7/CentOS7では、virshコマンドから仮想マシンに対するリソース割り当てを制御できるようになっていますので、そのあたりを説明します。 CPU Pinning 仮想マシンに割り当てた仮想CPUごとに、その仮想CPUが使用する物理コア(その仮想CPUの処理に割り当てられる物理コア)を制限することができます。 たとえば、物理4コアの環境で、仮想CPUを2個割り当てた仮想マシン「vm01」を作成します。デフォルトでは、すべての仮想CPUは、すべての物理コアを使用することができます。 # virsh vcpuinfo vm01 VCPU: 0 CPU: 0 状態: 実行中 CPU 時間: 24.2s CPU アフィニティー: yyyy VCPU: 1 CPU: 3 状態: 実行中 CPU 時間: 5.8s CPU アフィニティー: yyyy上記の「CPUアフィニティー」が、4個の物理
numadの利用(2ソケット以上のハードウェアを利用する場合) 複数ソケットのサーバはNUMA構成なので、できるだけ他ノードへのアクセスを減らしてやるとよい。CPU使用率が高くなるとたまたまちょっとヒマになったCPUにマイグレーションする可能性があがるためnuma nodeにVMを割りあててやりたい。 従来はベンチマークなどでvCPUのpinningなどが使われていたが、人間が指定するのではダイナミックに変化する状況に対応できないためあまり実用的で はなかった。numadはワークロードを見て、メモリとCPUの割り当てをnuma nodeに寄せる作業を自動的におこなってくれる。 起動直後に即座に影響がないのでちょっと気持ちわるい CPUのオーバーコミットをする場合、Xeon 7500/6500 + RHEL 6.2以降の利用(Pause-Loop Exiting対応) あたらしい世代だとどの
表題の動作確認が取れました。公式マニュアルには手順の記載はありませんが、virshコマンドから実行可能です。 2012/10/11追記 残念ながら、この機能はRHEL6では正式サポートされない事が決定しました。この記事ではRHEL6.1を使用していますが、RHEL6.2以降では、そもそもこの機能が利用できなくなっている可能性もあります。m(_ _)m ここでいうストレージ・ライブマイグレーションとは 共有ディスクを持たない2台のKVMホスト間で、ゲストのライブマイグレーションを行う機能です。仮想マシンのメモリイメージに加えて、ローカルディスク上のディスイメージをネットワーク経由でコピーすることで、これを実現しています。 利用手順 RHEL6.1のKVMホストを2台用意します。物理CPUの互換性の確認、仮想マシンが接続する仮想ネットワークを共通に構成するなど、(共有ディスクを使用すること以外
virt-clone コマンドって便利ですよね。 これ確かにスゲー便利なんですが、30回も40回も同じこと繰り返してると、スゲー疲れるわけです。 具体的に何に疲れるかって言うと、 待ち時間 ネットワークの再設定 待ち時間に関しては、シェルスクリプトにしておくなりスパースでやるオプションを付けておけば"ある程度”我慢できるけど、ネットワークの再設定に関してはスゲータルい。 なんせ1回はゲストに入らなきゃいけない。 コレを回避するには、ゲストをクローンしたときのMACアドを、DHCPサーバに書いて決め打ちにすること。 そうすればある程度は管理できる。 …のはずだったけど、RHEL6系からは新しく追加されたネットワークデバイスは自動的に な仕様にかわったので、そもそも立ち上がらないし、RHEL5系だと、すでにeth0があった場合、インクリメントされてeth1としてアタッチ
レッドハットが3年ぶりのメジャーバージョンアップとなる「Red Hat Enterprise Linux 6」をリリースした。仮想化機能はリソースの拡張性とネットワークのパフォーマンス性能を強化している。 2010年11月16日、レッドハットは新版OS「Red Hat Enterprise Linux 6」(RHEL 6)の国内向け出荷開始を発表した。発表会の冒頭で挨拶に立った同社の廣川裕司代表取締役社長は、何度となく繰り返しこう発言した。「RHELの仮想化機能である『KVM』は、ヴイエムウェアの仮想化ソフト『VMware』をしのいだ」(写真1)。 廣川社長が「VMwareをしのいだ」とする、メジャーバージョンアップによる強化ポイントは2つある。 1つは、CPUやメモリーといったリソースをより多く実装できるようにしたことだ。もう1つは、10Gビット/秒という高速なネットワークリソースであっ
この文書について 色々な理由でXenのイメージファイルをマウントしたくなった時の参考に。勿論、対象のdomUは停止した状態でマウントしましょう。 追加パッケージ kpartxとutil-linuxが必要ですが、きっと入っているでしょう。 確認 Xenのイメージファイルは、デフォルトでは/var/lib/xen/imagesにあります。 fileコマンドで確認すると、以下のようになります。 # file xen.img xen.img: x86 boot sector; partition 1: ID=0x83, active, starthead 1, startsector 63, 208782 sectors; partition 2: ID=0x8e, starthead 0, startsector 208845, 20755980 sectors, code offset 0x4
Linuxの仮想化技術であるKVMが広まりつつあります。昨年の今頃はWindowsゲストが起動しただけで感動してましたが、今や多くのディストリビューションで動くようになりました。 デスクトップ内の開発環境として使う場合はオールインワンですぐ使えることが大事ですが、サーバとして使う場合は事前によく考えて設計します。止まらないサーバとして運用していくためには、後で手間を掛けないよう環境を設計することが大事です。 ここでは、KVMで仮想化環境を構築する時のポイントを紹介します。 1. ログ管理や認証の共通化 Webサーバ、プライベートWebサーバ、DBサーバというようにVMゲストが増えていくと、それらを管理する手間が半端なくなります。うちでは下記の項目を共通サーバで集中管理しています。 項目 VMゲスト 共通サーバ 認証 LDAP認証(nss_ldap) LDAPサーバ(OpenLDAP) ログ
KVM = Kernel-based Virtual Machine の中核は Linux カーネルのローダブルモジュールで、QEMU と協力してホストOS上で仮想マシンを実行することができる。Xen と異なるのは、Xen が Nemesis という異種OS をハイパーバイザとし、ホストOS はその上で動く特権ゲストと位置づけられるのに対して、KVM では Linux ホストOS 自体がハイパーバイザとなり、個々のゲストプラットフォームが各々ひとつのプロセスとして実行される点だ。また、Xen がフルバーチャライゼーション (完全仮想化) とパラバーチャライゼーション (準仮想化) の両方を提供しているのに対して、KVM はフルバーチャライゼーション専用。そのため、ゲストOS のカーネルを Xen 用に改変してハイパーバイザとの話し方を教えてやるというようなことが必要ない。完全仮想化によるオ
Find answers, get step-by-step guidance, and learn how to use Red Hat products. Red Hat Enterprise LinuxSupport application deployments—from on premise to the cloud to the edge—in a flexible operating environment. Red Hat OpenShift Container PlatformQuickly build and deploy applications at scale, while you modernize the ones you already have. Red Hat Ansible Automation PlatformCreate, manage, and
アナウンス後わずか2カ月でLinux Kernelにマージされたことで一躍注目を浴びることになった仮想化技術「KVM」。しかし、その具体的な仕組みや使用方法となると、意外と知られていないのではないでしょうか。この連載ではそんなKVMについて紹介します(編集部) 前回「Linux標準の仮想化技術『KVM』の仕組み」では、、KVM(Kernel-based Virtual Machine)の概要について説明しました。今回はそれを踏まえて、基本的な使い方を説明します。KVMはGUIツールで操作することもできますが、今回は基本を押さえるため、すべてコマンドラインで行ってみましょう。 実際にKVMを使う場合にはGUIツールを使うことが想定されますが、コマンドラインでの操作を押さえておけば、GUIツールの裏側で実際に何をやっているのかを理解できるかと思います。 今回の話の流れは以下のとおりです。
どちらのサーバも、秒間数十の HTTP 接続をハンドリングしている状態で、ping -c 100 で測定した平均値。 ホスト ゲスト XenServer*1 0.138 1.295 KVM*2 0.130 10.590 KVM のゲストだけが遅い。常に遅いっていうんじゃなくて、時々ひっかかる感じ。ping の出力 (rtt min/avg/max/mdev) を並べてみると以下のとおり。RTT で 0.1 秒以上かかったりする (しかもそういう状態が続く) ので、ssh を使ってると、まるで海外のサーバにつないでるみたいな感じになったり。 xen host: 0.095/0.138/1.238/0.116 ms xen guest: 0.111/1.295/42.471/6.023 ms kvm host: 0.060/0.130/0.334/0.070 ms kvm guest: 0.2
測定環境は下記のとおり。 Ubuntu 9.10 server AMD Opteron 2218 x2 nVidia MCP55Pro Hitachi HDS72101 ゲストは LVM 上に構築 4並列でのランダムアクセス (16KB) ホスト ゲスト (cache=writethrough) ゲスト (cache=none) Read 207.7 138.3 187.4 Write 137.6 122.6 133.8 単位は IOPS。測定に使ったのは randombench.cc。 7200rpm のディスクなので、ホストでの read 時と、ゲスト (cache=none) での read 時に NCQ が効いていることがわかる。この程度の落ち込みなら OK かな。 シーケンシャルアクセス ホスト ゲスト (cache=none) Read 72.4 57.5 Write 28.1
アナウンス後わずか2カ月でLinux Kernelにマージされたことで一躍注目を浴びることになった仮想化技術「KVM」。しかし、その具体的な仕組みや使用方法となると、意外と知られていないのではないでしょうか。この連載ではそんなKVMについて紹介します(編集部) KVMは、Linux Kernel自体をハイパーバイザとする仕組みで、正式名称を「Kernel-based Virtual Machine」といいます。KVMは現時点では、Intel VT-xやAMD-VといったCPUの仮想化支援機能を必要とし、完全仮想化によりOSの仮想化環境を提供します。 この記事では、「KVMの名前は聞いたことはあるが詳しくは知らない」という方、「興味はあるけど使い方がよく分からない」という方を想定し、全3回でKVMの概要と基本的な使い方、今後の課題について紹介したいと思います。 OS仮想化技術のおさらい サー
Linuxカーネルに組み込まれている仮想マシン環境として注目されている「Linux KVM」ですが、動作中の仮想マシンを別のホストに無停止で移動させる「ライブマイグレーション」もサポートされています。本稿では、2台のLinux KVMホストを使ったライブマイグレーション環境の構築方法について解説します。Linux KVM環境の基本的な構築方法は『実践!仮想化ソフトウェア 2009』の第5回『Linux KVMを使ってみよう』を参照してください。 構築する環境について 仮想マシンホスト ライブマイグレーションは2台の仮想マシンホストの間を仮想マシンが行ったり来たりするので、最低2台の仮想マシンホストが必要になります。Linux KVMはCPUの仮想化支援機能が必要となるので、サポートされている物理マシンを2台用意する必要があります。 ストレージ ライブマイグレーションは仮想マシンホスト間を行
GT Nitro: Car Game Drag Raceは、典型的なカーゲームではありません。これはスピード、パワー、スキル全開のカーレースゲームです。ブレーキは忘れて、これはドラッグレース、ベイビー!古典的なクラシックから未来的なビーストまで、最もクールで速い車とカーレースできます。スティックシフトをマスターし、ニトロを賢く使って競争を打ち破る必要があります。このカーレースゲームはそのリアルな物理学と素晴らしいグラフィックスであなたの心を爆発させます。これまでプレイしたことのないようなものです。 GT Nitroは、リフレックスとタイミングを試すカーレースゲームです。正しい瞬間にギアをシフトし、ガスを思い切り踏む必要があります。また、大物たちと競いつつ、車のチューニングとアップグレードも行わなければなりません。世界中で最高のドライバーと車とカーレースに挑むことになり、ドラッグレースの王冠
「KVMはXenよりも大幅にパフォーマンスがアップしている。なにより、LinuxカーネルにマージされているKVMは、Linuxカーネルで追加される新しい機能を享受できる」、そう語るのは、Red Hatが開発を進めているハイパーバイザーKVMの開発者で、メインメンテナーのアヴィ・キヴィティ氏。アヴィ・キヴィティ氏は、KVMの開発を行っていたイスラエルのQumranetに在籍し、QumranetがRed Hatに買収された後も、KVMの開発、メンテナンスを続けている。 普及という面では、Xenに一歩遅れていたKVMだが、NTTコミュニケーションズのクラウドサービス「BizCITY」で採用されるなど、徐々に採用が始まっている。今回、アヴィ・キヴィティ氏およびレッドハット株式会社 マーケティング本部 部長の中井雅也氏に、KVMの特長と今後のスケジュールなどを伺った。 ■Linuxの仮想化スタンダー
本連載では、これまでVMwareの「VMware ESX/ESXi」、マイクロソフトの「Hyper-V」、シトリックスの「XenServer」などを取り上げてきた。今回は、第4のハイパーバイザーといえる米Red Hatの「KVM」を紹介する。 ■Linuxカーネルに統合されたKVM Red Hatは、6月中旬から企業ユーザー限定で「Red Hat Enterprise Virtualization(以下、RHEV)」のβテストを始めた。RHEVは、昨年Red Hatが買収したQumranet(クムラネット)のKVMをハイパーバイザーとしたものだ。 Linuxのハイパーバイザーとしては、米Citrixに買収されたXenが有名だ。しかし、Red Hatは、今後KVMがLinuxのハイパーバイザーとして主流になっていくと考えている。 米Red Hat、Executive Vice Preside
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く