Формат qcow2 что это
Русские Блоги
Управление дисками виртуальной машины KVM, управление снимками и клонирование виртуальных машин-04
Введение в формат KVM-диска
Типы виртуальных дисков, поддерживаемые KVM: raw, qcow2
Формат прост и поддерживает преобразование зеркального формата, и он обычно используется при преобразовании промежуточного формата.
Поддержка увеличения и уменьшения емкости диска
Не поддерживает создание снимков (снимков виртуальных машин),
Он не хранит метаданные, поэтому его можно использовать в качестве кандидата для обеспечения совместимости виртуальных машин. Однако, поскольку он не хранит метаданные, он не может поддерживать некоторые расширенные функции, такие как моментальные снимки и сжатие.
Введение в разреженный файл: разреженный файл в основном такой же, как и другие обычные файлы, разница в том, что часть данных в файле равна 0, и эта часть данных не занимает места на диске
После разговора о форматах raw и qcow2 давайте разберемся с форматом диска vmdk
Создавать диски в формате raw и qcow2
Создать диск в формате raw, формат, используемый kvm по умолчанию
]# qemu-img create /kvm/data/rawtest-01.raw 5G
Formatting ‘/kvm/data/rawtest-01.raw’, fmt=raw size=5368709120
[[email protected]
]# qemu-img info /kvm/data/rawtest-01.raw
image: /kvm/data/rawtest-01.raw
file format: raw
virtual size: 5.0G (5368709120 bytes)
disk size: 0
Создать диск формата qcow2
]# qemu-img info /kvm/data/qcow2-test01.qcow2
image: /kvm/data/qcow2-test01.qcow2
file format: qcow2
virtual size: 5.0G (5368709120 bytes)
disk size: 196K
cluster_size: 65536
Format specific information:
compat: 1.1
lazy refcounts: false
Затем мы изменяем файл конфигурации виртуальной машины, и виртуальная машина вызывает файл диска qcow2
Запускаем виртуальную машину Centos7.4-01
В настоящее время мы можем удалить файлы в необработанном формате диска предыдущей виртуальной машины.
Управление снимками виртуальной машины
Создавайте снимки с использованием необработанного формата диска
[[email protected] data]# virsh snapshot-create vmtest02
Ошибка: неподдерживаемая конфигурация: внутренний моментальный снимок для диска vda не поддерживается для типа хранилища raw
При создании снимка это сообщение указывает на то, что формат текущей виртуальной машины является необработанным, и формат диска необходимо преобразовать в формат qcow2
Создайте снимок, используя формат диска qcow2
Следует отметить, что после создания снимка дисковое пространство станет больше, потому что снимок будет занимать дисковое пространство, поэтому это внутренний снимок. После завершения создания будет создано имя снимка, этот снимок Имя создается на основе метки времени Unix.
Формат синтаксиса: virsh snapshot-create
Посмотреть список снимков
Удалить указанный снимок
RAW, QCOW2, LVM — что выбрать?
Статья была написана 21 ноября 2010 г. Перенесена из старого блога.
На сегодняшний день технологии виртуализации способны решать широкий круг задач. Начиная от консолидации серверов заканчивая облочными вычислениями и виртуализацией рабочих мест.
Одним из преимуществ виртуализации является то, что виртуальные машины «отвязаны» от физического железа на котором они работают. Во многих статьях посвященных виртуализации можно встретить подобную фразу «Виртуальные машины — это обычные файлы которые можно просто скопировать на любой другой физический сервер и без проблем запустить!». В действительности, так и есть. Но у многих, как и у меня в свое время возник вопрос, какой же из форматов этих «обычных файлов» выбрать?
Краткое описание форматов
На мой взгляд, для машин работающих в KVM-окружении самыми популярными и практически востребованными форматами дисков, являются; RAW, QCOW2 и LVM-тома.
LVM(Logical Volume Manager) — LVM-тома представляют собой блочные устройства такие же как дисковае разделы или диски целиком и очень часто используются вместо образов дисков или совместно.
Основным преимуществом LVM-томов является производительность, большая чем у RAW-дисков, гибкость масштабирования, поддержка снапшотов без остановки гостевой системы. Размер LVM-тома можно легко увеличеть или уменьшить. С помощью снапшотов можно получить доступ к файловой системе виртуальной машины и делать бекап данных не останавливая гостевую систему. LVM-тома не подвержены фрагментации.
К минусам LVM-томов можно отнести затруднительность переноса LVM-тома между несколькими физическими машинами а так же не самая простая настройка для начинающих.
Практическое использование.
На самом деле каждый из описанных форматов очень хорош а где то и лучше своих конкурентов. Я считаю, что нельзя отрекаясь от всех использовать только один единственный формат для решения всех поставленных задач.
Например для домашней тестовой лаборатории или для небольшой организации с 1,2-мя физическими серверами без общего хранилища, где не критична производительность идеально подойдет QCOW2. Здесь QCOW2 позволит с экономить дисковое пространство и позволит с легкостью и за меньшее время перемещать образы виртуальных машин между физическими. Например с сервера на сервер по витой паре, из дома на работу на флешке или даже по Интернету. Стоит добавить, что использование снапшотов очень полезно в домашней лаборатории.
Напротив, в условия где нужна максимальная производительность и высокая доступность виртуальных машин(24×7), гибкость управления ресурсами и «живой» бекап должны использоваться только LVM-тома. Будь то в рамках единого сервера или в сети из 10-ка серверов с единым сетевых хранилище типа NAS, SAN приимущества LVM-томов очевидны. В данном случае нет необходимость в перемещении образов дисков так как используется единое хранилище, бекап данных по средствам снапшотов или агентов в виртуальных машинах выполняется на выделенный сервер. Вся инфраструктура заточена на максимальную производительность.
Ну и RAW, как я уже говорил универсальный формат. На мой взгляд он наиболее подходит в относительно бюджетных системах, где в место высокопроизводительных сетевых хранилищ используют NFS-сервера, но при этом хотят выжать как можно больше из дисковой подсистемы.
Так же очень эффективно использование RAW-дисков в организациях использующих виртуальные рабочие столы и без дисковые клиенты вместо классических рабочих станций. В таких ситуациях используется большое количество различных образов, с различными операционными системами, и динамическое их перемещение.
В общем форматов много, и все они разработаны не зря!
В следующей статье напишу о том как из хост системы получить доступ к файловой системе виртуальной машины.
VMmanager: Сравнение производительности локальных хранилищ
Наши клиенты часто задают вопросы о том, какое из поддерживаемых в VMmanager типов хранилищ данных самое лучшее, самое быстрое, и какое выбрать в их случае. К сожалению, ответить на этот вопрос просто так не получится.
Поэтому мы решили провести тестирование производительности хранилищ данных.
Компания ISPsystem еще в начале марта 2013 анонсировала выход нового программного продукта для управления виртуализацией — VMmanager. Решение адаптировано как для хостинга виртуальных машин, так и для построения облака.
Параметры fio были следующие:
Тестирование чтения:
[readtest]
blocksize=128k
filename=/dev/vdb
rw=randread
direct=1
buffered=0
ioengine=libaio
iodepth=16
Тестирование записи:
[writetest]
blocksize=128k
size=100%
filename=/dev/vdb
rw=randwrite
direct=1
buffered=0
ioengine=libaio
iodepth=16
Так как тестирование производилось на том же физическом массиве, где установлена операционная система, то системные приложения могли влиять на полученные значения. Поэтому в качестве результирующего значение бралось медиана. Так как при некоторых запусках значение отличалось на порядок.
Для тестирования создавался виртуальный диск размером 50000 МБ. Размер взят не случайно. Как наиболее ходовой размер диска для виртуальных серверов. Все диски к виртуальным машинами подключались с использование драйвера virtio. Паравиртуальные драйвера (virtio) используются при работе с основными устройствами в виртуальном окружении. Использование этих драйверов в общем случае повышает производительность виртуальной дисковой подсистемы. Эти драйвера присутствуют в ядре Linux начиная с 2.6.25 версии.
При первом способе тестирования использовался sda4 (на котором позже и создавался как LVM, так и диски для виртуальных машин) с добавлением в параметрах fio — size=50G.
Для тестирования при втором способе создавалась LVM группа томов, и в этой группе LVM раздел размером 500000 МБ, как для виртуальной машины.
При тестировании хранилища DIR c форматами RAW и Qcow2 сами образы дисков располагались в виде файлов в файловой системе ext4 в директории /vm.
В пятом способе тестирования делался один проход и заполнение диска “нулями” не проводилось. Так как интересовала производительность как раз сразу после создания снимка файловой системы.
Расширение файла QCOW2
QEMU Copy-On-Write
Что такое файл QCOW2?
QCOW2 суффикс имени файла в основном используется для QEMU Copy-On-Write файлов. David T Reynolds определил стандарт формата QEMU Copy-On-Write. QCOW2 файлы поддерживаются программными приложениями, доступными для устройств под управлением Linux, Windows. QCOW2 файл относится к категории Другие файлы так же, как #NUMEXTENSIONS # других расширений файлов, перечисленных в нашей базе данных. Qemu Manager поддерживает QCOW2 файлы и является наиболее часто используемой программой для обработки таких файлов, но 1 могут также использоваться другие инструменты. Программное обеспечение Qemu Manager было разработано David T Reynolds, и на его официальном веб-сайте вы можете найти дополнительную информацию о файлах QCOW2 или программном обеспечении Qemu Manager.
Программы, которые поддерживают QCOW2 расширение файла
Ниже вы найдете указатель программ, которые можно использовать для открытия файлов QCOW2, разделенных на категории 2 в соответствии с поддерживаемой системной платформой. QCOW2 файлы можно встретить на всех системных платформах, включая мобильные, но нет гарантии, что каждый из них будет должным образом поддерживать такие файлы.
Программы, обслуживающие файл QCOW2
Как открыть файл QCOW2?
Причин, по которым у вас возникают проблемы с открытием файлов QCOW2 в данной системе, может быть несколько. К счастью, наиболее распространенные проблемы с файлами QCOW2 могут быть решены без глубоких знаний в области ИТ, а главное, за считанные минуты. Приведенный ниже список проведет вас через процесс решения возникшей проблемы.
Шаг 1. Установите Qemu Manager программное обеспечение
Шаг 2. Проверьте версию Qemu Manager и обновите при необходимости
Если проблемы с открытием файлов QCOW2 по-прежнему возникают даже после установки Qemu Manager, возможно, у вас устаревшая версия программного обеспечения. Проверьте веб-сайт разработчика, доступна ли более новая версия Qemu Manager. Может также случиться, что создатели программного обеспечения, обновляя свои приложения, добавляют совместимость с другими, более новыми форматами файлов. Это может быть одной из причин, по которой QCOW2 файлы не совместимы с Qemu Manager. Последняя версия Qemu Manager должна поддерживать все форматы файлов, которые совместимы со старыми версиями программного обеспечения.
Шаг 3. Назначьте Qemu Manager для QCOW2 файлов
Если проблема не была решена на предыдущем шаге, вам следует связать QCOW2 файлы с последней версией Qemu Manager, установленной на вашем устройстве. Процесс связывания форматов файлов с приложением по умолчанию может отличаться в деталях в зависимости от платформы, но основная процедура очень похожа.
Выбор приложения первого выбора в Windows
Выбор приложения первого выбора в Mac OS
Шаг 4. Проверьте QCOW2 на наличие ошибок
Если проблема по-прежнему возникает после выполнения шагов 1-3, проверьте, является ли файл QCOW2 действительным. Отсутствие доступа к файлу может быть связано с различными проблемами.
Если QCOW2 действительно заражен, возможно, вредоносное ПО блокирует его открытие. Немедленно просканируйте файл с помощью антивирусного инструмента или просмотрите всю систему, чтобы убедиться, что вся система безопасна. QCOW2 файл инфицирован вредоносным ПО? Следуйте инструкциям антивирусного программного обеспечения.
2. Убедитесь, что файл с расширением QCOW2 завершен и не содержит ошибок
Если вы получили проблемный файл QCOW2 от третьего лица, попросите его предоставить вам еще одну копию. В процессе копирования файла могут возникнуть ошибки, делающие файл неполным или поврежденным. Это может быть источником проблем с файлом. Это может произойти, если процесс загрузки файла с расширением QCOW2 был прерван и данные файла повреждены. Загрузите файл снова из того же источника.
3. Проверьте, есть ли у пользователя, вошедшего в систему, права администратора.
Некоторые файлы требуют повышенных прав доступа для их открытия. Переключитесь на учетную запись с необходимыми привилегиями и попробуйте снова открыть файл QEMU Copy-On-Write.
4. Убедитесь, что в системе достаточно ресурсов для запуска Qemu Manager
Если система перегружена, она может не справиться с программой, которую вы используете для открытия файлов с расширением QCOW2. В этом случае закройте другие приложения.
5. Убедитесь, что ваша операционная система и драйверы обновлены
Современная система и драйверы не только делают ваш компьютер более безопасным, но также могут решить проблемы с файлом QEMU Copy-On-Write. Возможно, файлы QCOW2 работают правильно с обновленным программным обеспечением, которое устраняет некоторые системные ошибки.
Вы хотите помочь?
Если у Вас есть дополнительная информация о расширение файла QCOW2 мы будем признательны, если Вы поделитесь ею с пользователями нашего сайта. Воспользуйтесь формуляром, находящимся здесь и отправьте нам свою информацию о файле QCOW2.
Глава 4. Системы хранения
Содержание
Система хранения является средой хранения данных для одновременного доступа к ним множества устройств или узлов в сетевой среде. По мере того, как виртуализация серверов и рабочих мест становятся обычными, надлежащая, стабильная система хранения сегодня становится самым критичным местом для виртуальной среды. В терминологии Proxmox система хранения является тем местом, в котором лежат образы виртуальных дисков как для виртуальных машин на основе KVM, так и для базирующихся на контейнерах.
Сопоставление локальных и совместно используемых хранилищ
Типы образов виртуального диска
Поддерживаемые Proxmox типы хранения
Варианты совместного хранения коммерческие и свободно распространяемые
FreeNAS как вариант совместного хранилища с низкой стоимостью
Будь она локальной или совместно используемой, система хранения является жизненно важной компонентой кластера Proxmox. Система хранения является именно тем местом, в котором расположены все виртуальные машины. Кроме того, более глубокое понимание различных систем хранения позволит администратору надлежащим образом планировать требования хранения для любого кластерного окружения.
Сопоставление локального хранилища с совместно используемым
Совместное используемое хранилище не является чем- то абсолютно необходимым в Proxmox, однако несомненно, оно делает управление хранением более простой задачей. В какой- то небольшой бизнес- среде может быть вполне допустимым не иметь времени работы в режиме 24/7 со 100% надёжностью, поэтому какой- то локальной системы хранения может оказаться вполне достаточно. В большинстве корпоративных виртуальных сред с критически важными данными совместно используемые хранилища сегодня являются единственным логичным выбором благодаря тем преимущества, которые они привносят во всю работу кластера. Ниже перечислены общепризнанные преимущества применения совместного хранилища:
Миграция виртуальных машин в реальном времени
Бесшовное расширение пространства хранения со множеством узлов
Централизованное резервное копирование
Многоуровневое кэширование данных
Централизованное управление хранением
Миграция виртуальных машин в реальном времени
Вероятно, это одна из самых важных пользующихся спросом причин для перехода на совместно используемые системы хранения. Миграция в реальном времени ( Live migration ) это когда некая виртуальная машина может перемещаться на другой узел без её предварительного останова. Миграция в отключённом состоянии ( Offline migration ) это когда данная виртуальная машина выключается перед осуществлением её перемещения. Имеющиеся оборудование и операционные системы узлов Proxmox нуждаются в обновлениях, исправлениях, а также замене время от времени. Некоторые обновления требуют немедленной перезагрузки, в то время как прочие обходятся без неё. Основной задачей узлов Proxmox является исполнение виртуальных машин. Когда некий узел требует перезагрузки, все работающие в нём виртуальные машины должны быть остановлены либо осуществить миграцию на иные узлы. Затем, после того как первоначальный узе выполнит полный цикл отключения- включения, выполняется обратная миграция. В Proxmox некая включённая ВМ не может выполнить свою миграцию в реальном времени без её предварительного отключения если она расположена на локальном диске в запрашиваемом узле. Если вдруг по любой причине происходит полный отказ узла Proxmox, все те ВМ, которые хранятся на этом узле будут полностью недоступными пока этот узел не будет исправлен или заменён. Это происходит по той причине, что доступ к этим ВМ не может быть перемещён на другой узел пока не будет включён такой проблемный узел.
В большинстве случаев отключение всех имеющихся ВМ для простой перезагрузки их хоста не является допустимым вариантом. В таком случае слишком длительное время простоя зависит от общего числа обслуживаемых данным хостом ВМ. Для выполнения миграции локально хранимых ВМ они должны быть вначале остановлены и после этого миграция должна быть инициирована из GUI Proxmox. Миграция с одного локального хранилища на другое локальное хранилище отнимает много времени, которое зависит от общего размера самой ВМ, так как Proxmox перемещает файл образа целиком с применением rsync для размещения этой ВМ на другом узле. Давайте взглянем на следующую схему кластера с 40 локально хранимыми ВМ, с размещением по 10 на каждом из четырёх узлов Proxmox:
Рисунок 4-1
В приведённой выше чрезвычайно упрощённой схеме присутствуют четыре узла Proxmox с 10 виртуальными машинами в каждом из них. Если node 01 потребует перезагрузки для применения обновлений, все его 10 виртуальных машин должны быть остановлены, так как сам узел нуждается в перезагрузке, а затем все эти виртуальные машины должны быть выключены. Если же node 01 полностью отказал, все его 10 виртуальных машин будут недоступными пока node 01 не вернётся обратно вновь.
Таким образом очевидно, что установка кластера с локальным хранением виртуальных машин может вызывать нежелательное время простоя когда возникает необходимость в миграции. Теперь давайте взглянем на следующую схему, в которой четыре узла Proxmox с 40 виртуальными машинами хранятся в некоторой совместно используемой системе хранения:
Рисунок 4-2
Мы также можем воспользоваться мощью другой функциональности в Proxmox, именуемой высокой доступностью, для автоматизации переноса такого файла настроек ВМ в процессе падения узла. Для изучения данной функциональности обратитесь к Главе 10, Высокая доступность Proxmox.
rsync является программой с открытым исходным кодом и сетевым протоколом для систем, основанных на Unix. Она предоставляет инкрементальный обмен с одного узла на другой файлами как в не шифрованном, так и в зашифрованном виде.
При миграции виртуальных машин в реальном времени имейте в виду, что чем больше оперативной памяти (RAM) выделено конкретной ВМ, тем больше времени потребует сама миграция в реальном времени включённой виртуальной машины, так как этот процесс миграции потребует копирования всего содержимого оперативной памяти. Отказ в исполнении этого может повлечь разрушение данных, поскольку имеющиеся в оперативной памяти данные могут быть не записанными в имеющемся образе диска.
Следует обратить внимание, что совместное хранилище может стать единой точкой отказа в случае, когда установлено некое решение хранения с единственным узлом в основе, таким как FreeNAS или NAS4Free без настроек с высокой доступностью. Применение совместно используемых хранилищ со множеством узлов или распределённых, например, Ceph, Gluster или DRBD, может исключить единую точку отказа. При совместном хранении данных на единственном узле все виртуальные машины находятся на одном узле. Если возникает ситуация отказа этого узла, данное хранилище становится недоступным для кластера Proxmox, что приводит к невозможности использования всех исполняемых виртуальных машин.
В Proxmox VE 5.0, контейнеры LXC не могут выполнять миграцию в реальном времени. Они должны выключаться для фиксации миграции в выключенном состоянии. ВМ KVM могут выполнять миграцию в реальном времени.
Бесшовное расширение пространства хранения со множеством узлов
Цифровые данные в нашем сегодняшнем подключённом в режиме 24/7 современном мире растут даже быстрее чем ранее. Этот рост стал экспоненциальным с момента появления виртуализации. Поскольку намного проще моментально устанавливать виртуальный сервер, администратор может просто клонировать шаблон виртуального сервера и буквально через несколько минут новый сервер становится поднятым и работающим при потреблении пространства хранения. Если оставить это без проверок, такое регулярное создание и отстранение может заставить компанию вырасти выше пределов доступного пространства хранения. Любая распределённая совместно используемая система хранения разрабатывается с учётом в уме этого очень специфичного требования.
В некоторой корпоративной среде пространство хранения должно расти по запросу без отключения или прерывания работы критически важных узлов или виртуальных машин. Применяя совместно используемые системы хранения со множеством узлов или распределением, виртуальные машины теперь могут выходить за пределы кластеров в несколько узлов и для рассеяния по множеству узлов разбросанных к тому же по множеству географических регионов. К примеру, Ceph или Gluster могут распространяться на несколько стоек и надлежащим образом составлять более нескольких Петабайт используемого пространства хранения. Просто добавляйте новый узел целиком наполненный дисками и после этого сообщайте кластеру о необходимости распозначать новый узел для увеличения пространства хранения всего имеющегося кластера. Так как совместно используемое хранилище отделено от имеющихся узлов хостов виртуальных машин, хранилище может увеличиваться или уменьшаться без оказания существенного воздействия на какие бы то ни было исполняющиеся виртуальные машины. В Главе 5, Установка и настройка Ceph мы увидим как мы можем интегрировать Ceph в свой кластер Proxmox.
Централизованное резервное копирование
Совместно используемое хранилище делает возможным централизованное резервное копирование, позволяя каждому хосту виртуальных машин создавать резервную копию в одном централизованном местоположении. Это помогает диспетчеру резервных копий или администратору реализовывать основательный план резервного копирования и управлять имеющимися резервными копиями. Поскольку отказ некоторого узла Proxmox не приводит к падению всей совместно используемой системы хранения, виртуальные машины запросто могут быть восстановлены в некий новый узел для снижения времени простоя.
Для целей резервного копирования всегда применяйте отдельный узел. Хранения и самой виртуальной машины и её резервной копии не будет мудрым решением.
Многоуровневое кэширование данных
Многоуровневость данных является подходом, при котором различные файлы могут содержаться в различных пулах хранения на основе их требований к производительности. К примеру, виртуальный файловый сервер может предоставлять очень быстрое обслуживание если его ВМ содержатся в некотором пуле на SSD, в то время как виртуальный сервер резервных копий может располагаться на более медленных хранилищах HDD, так как файлы резервного копирования не часто подвержены доступу и, следовательно, не требуют очень быстрого I/O. Множество уровней может быть установлено с применением различных узлов совместного хранилища с различными уровнями производительности. Оно также может быть настроено в рамках одного и того же узла путём выделения томов или пулов в особые наборы дисков.
Централизованное управление хранением
Отделяя кластеры совместного хранения от основного кластера Proxmox, мы можем управлять двумя кластерами без их взаимного воздействия друг на друга. Поскольку совместно используемые системы хранения могут быть установлены с отдельными узлами и физическими коммутаторами, управление ими на основе различных авторизаций и полномочий становится более простой задачей. NAS, SAN и прочие типы решений совместного хранения поступают со своими собственными программами управления, в которых администратор или оператор может проверять жизнеспособность хранилищ кластера, состояние дисков, свободное пространство и тому подобное. Хранилище Ceph настраивается посредством CLI, однако Proxmox интегрировал большую часть опций управления Ceph вовнутрь GUI Proxmox, что делает более простым управление кластером Ceph. Применяя имеющийся API Proxmox может теперь собирать все данные кластера Ceph и отображать из с помощью GUI Proxmox, как это показано на приводимом ниже снимке экрана:
Рисунок 4-3
Другие решения NAS, такие как FreeNAS, OpenMediaVault и NAS4Free также имеют GUI, которые упрощают управление. Представленный ниже снимок экрана является примером отображения состояний жёстких дисков в окне GUI FreeNAS/
Рисунок 4-4
Сравнение локального и совместно используемого хранилищ
приводимая здесь таблица является сопоставлением локального и совместно используемого хранилищ для болучения быстрой справки:
Свойство | Локальное хранилище | Разделяемое хранилище | |||||||||
---|---|---|---|---|---|---|---|---|---|---|---|
Тип образа | Поддерживаемые хранилища | Сильные стороны | Слабые стороны | ||||
---|---|---|---|---|---|---|---|
Тип шины/ устройства | Максимум допустимых | ||||
---|---|---|---|---|---|
Команда | Функция | ||
---|---|---|---|
Опция кэшировнаия | Описание |
---|---|
Тип RAID | Применяемая строка опции |
---|---|