Ну как не процитировать? :)
<CoolCold> i've even tested online migration
<jayeola> and?
<CoolCold> not for busy server, our local company jabber server and it works fine
* jayeola is known as nosey and curious
<jayeola> still a noob at this and wonders is virtualisation can be used for redundancy
<CoolCold> users sended messages and didn't noticed any migration :)
<jayeola> cool
<CoolCold> yeah
<CoolCold> this is like black magic ;)
Page Summary
![]() ![]() ![]() |
a quote from #openvz IRC
там с этим всё хорошо. всё мигрирует. с точки зрения пользователя выглядит как несколькосекундные тормоза на сервере. Да, впечатляет. С кем-то мы это уже обсуждали. Нет такого софта, load balancing надо делать ручками. Ну, возможно, нагрузка, это да, тут все не так просто, хотя если считать за продолжительное время и не пытаться из кластера выжать последние 5 процентов, то думаю, что вполне можно сделать систему, которая при добавлении новой машины в кластер автоматически перетащит не нее соответствующий набор виртуалок чтобы уровнять средние. Смотря какая поломка. Если, скажем, ошибки ECC, сбои на диске и т.п. — то бишь не критические ошибки, то можно перетащить всё спокойно на другую железяку. Если критические (к примеру, выдернули шнур питания, сгорел CPU и т.п.) — поможет только вышеописанный HA cluster. не знаю
нужно ли это вашим юзерам, но в VMware VI3 эти средства есть, называются HA и DRS, работают поверх VMotion. Т.е если все один раз настроить (по большей части клацая мышкой..) то далее оно само разруливает куда запихать VM в зависимости от сработавшего триггера, при падении железа перезапускает их на ближайшем свободном. Но включение VMotion требует некислых ресурсов, по мануалу наличия гигабитной подсети, выделеннго физического интерфейса только под эти задачи, ну и естественно общего хранилища, желательно SAN, хотя и NAS тоже подойдет.. Да и сами инструменты стоят денег. Правда сравнивать VMware и Virtuozzo не совсем правильно, все таки разные продукты, работающие в разных сегментах и на разных уровнях абстракции. Наиболее близкая к Virtuozzo технология, как мне кажется Solaris Containers/Zones. Re: не знаю
Но включение VMotion требует некислых ресурсов Всё правильно пишешь, и насчёт гигабита, и насчёт SAN. И денег оно стоит совсем даже отдельных. А в виртуозе аналогичная функциональность (то бишь live migration) включена в базовый комплект, и это, в общем-то, GNU GPL, то бишь доступно и в OpenVZ, открытый код и т.п. Наиболее близкая к Virtuozzo технология, как мне кажется Solaris Containers/Zones. Так, только у нас с ресурс менеджментом чуток получше. Re: не знаю
Недавно был на семинаре Sun, где они про свои технологии виртуализации рассказывали. Много было всякого разного и пока на платформе х86/х64 есть только VMware. Но они биют себя пяткой в грудь что в этом году помогут довести до ума и промышленного применения Xen, который вроде как тоже открытый, только под какой лицензией я что-то с налету на xensource.com не нашел.. По концепции должно быть лучше и шустрее VMware, но до недавнего времени требовало модификации ядра ОС для совместимости с гипервизором Xen. Сейчас вроде как не требует, но нужен проц с поддержкой или Intel VT или AMD Pacifica, а их для сегмента десктопов пока не выпускают. Для платформы Sparc они также в этом году обещают доделать свой гипервизор похожий на Xen, но работать он будет только на процах поколения Т. В общем поживем увидим, там глядишь вы OpenVZ на Sparc/Solaris портируете.. хотя опять таки нишы у софта разные и я как-то не встречал хостеров раздающих доступ к солярке.. У меня была идея миграцию для девелопмента использовать: пока сидишь дома, держишь VEшки на мощном десктопе, где всё компилируется быстро, а как собрался куда-нибудь ехать - сложил на ноутбук, дабы, если выдатся время, пописать чего-нибудь. У каждой ВЕ свой виртуальный сетевой интерфейс (venet), соответственно, ВЕ вместе с ним и мигрирует. При этом, чтобы коннективити было, обе физические ноды должны быть в одной IP сети (при этом, если ходить в VE, скажем, по SSH или VNC, то ты ничего и не заметишь по большому счёту). Re: Reply to your comment...
Это всё понятно. Непонятно другое. Re: Reply to your comment...
вопрос: venet-интерфейс с каким IP-шником с любым, как я понимаю. можно оставить и старый. на хост-системе для каждой ВЕ создаётся запись в табл. маршрутизации, типа: 10.50.0.x dev venet0 scope link Re: Reply to your comment...
Как я понял, можно что-то похожее на правду сделать на veth-девайсах, ибо они выглядят, как честный ppp, и дополнительного интерфейса для вешания не требуют. Но готового solution'а за десять минут настругать не получилось :( |