Proxmox¶
- Proxmox тюнинг zfs
- PveSh
- QEMU Guest Agent for FreeBSD
- Копирование дисков на другой хост gzip
- Миграция VM с ESXI на Proxmox c LVM
- Настройка DM-Multipath
- Настройка восстановление и удаление кластера Proxmox
- Первоначальная настройка
nfs:
zfs set sharenfs="no_root_squash,rw=@192.168.14.0/24" data/share
Time Synchronization¶
File /etc/systemd/timesyncd.conf
[Time]
NTP=ntp1.example.com ntp2.example.com ntp3.example.com ntp4.example.com
After restarting the synchronization service (systemctl restart systemd-timesyncd) you should verify that your newly configured NTP servers are used by checking the journal (journalctl --since -1h -u systemd-timesyncd)
Кластер¶
# stop service
systemctl stop pvestatd.service
systemctl stop pvedaemon.service
systemctl stop pve-cluster.service
# edit through sqlite, check, delete, verify
sqlite3 /var/lib/pve-cluster/config.db
select * from tree where name = 'corosync.conf';
delete from tree where name = 'corosync.conf';
select * from tree where name = 'corosync.conf';
.quit
# start service
systemctl start pve-cluster.service
systemctl start pvestatd.service
systemctl start pvedaemon.service
ZFS¶
zfs set atime=off rpool
zfs set compression=lz4 rpool
zfs set dedup=off rpool
zfs set snapdir=visible rpool
zfs set primarycache=all rpool
zfs set aclinherit=passthrough rpool
zfs inherit acltype rpool
zfs get -r acltype rpool
zfs get all rpool | grep compressratio
zfs set atime=off data
zfs set compression=lz4 data
zfs set dedup=off data
zfs set snapdir=visible data
zfs set primarycache=all data
zfs set aclinherit=passthrough data
zfs inherit acltype data
zfs get -r acltype data
zfs get all data | grep compressratio
# ZFS RAID10 kraftway
root@proxmox-kraft-02:/data/data# dd if=/dev/zero of=test count=10000000
10000000+0 records in
10000000+0 records out
5120000000 bytes (5.1 GB, 4.8 GiB) copied, 109.459 s, 46.8 MB/s
# ZFS RAID10 kraftway
root@proxmox-kraft-04:/data/data# dd if=/dev/zero of=test count=10000000
10000000+0 records in
10000000+0 records out
5120000000 bytes (5.1 GB, 4.8 GiB) copied, 95.8309 s, 53.4 MB/s
# ZFS NO RAID SSD
[00:04][root@asus:~]#dd if=/dev/zero of=test count=10000000
10000000+0 records in
10000000+0 records out
5120000000 bytes transferred in 175.408514 secs (29189005 bytes/sec)
# ZFS RAID5 vm
[00:06][root@mx:vmail]#dd if=/dev/zero of=test count=10000000
10000000+0 records in
10000000+0 records out
5120000000 bytes transferred in 82.510525 secs (62052689 bytes/sec)
# UFS RAID10 vm
[root@drweb ~]# dd if=/dev/zero of=test count=10000000
10000000+0 records in
10000000+0 records out
5120000000 bytes transferred in 30.483297 secs (167960837 bytes/sec)
# EXT4 RAID10 kraftway
root@proxmox-kraft-01:/mnt/pve/data# dd if=/dev/zero of=test count=10000000
10000000+0 records in
10000000+0 records out
5120000000 bytes (5.1 GB, 4.8 GiB) copied, 47.5769 s, 108 MB/s
Mode 0 (balance-rr) Round robin (карусельная)
Передача пакетов происходит последовательно от первого к последнему участвующим сетевым интерфейсам. Это предоставляет балансировку нагрузки и устойчивость к отказам.
Mode 1 (active-backup) Active backup (активное резервное копирование)
Только один участвующий интерфейс является активным. Следующий интерфейс становится активным при отказе предыдущего. Это предоставляет только устойчивость к отказам.
Mode 2 (balance-xor) XOR (исключающее ИЛИ)
Этот режим выбирает один и тот же интерфейс участника для каждого адреса MAC получателя. Передача имеет место на основе сцепленных сетевых интерфейсов адресов MAC, сравнивающихся по исключающему ИЛИ с адресом MAC получателя. Это предоставляет и балансировку нагрузки, и устойчивость к отказам.
Mode 3 (broadcast) Broadcast (широковещательная)
Передача осуществляется по всем участвующим в сцеплении сетевым интерфейсам. Это предоставляет только устойчивость к отказам.
Mode 4 (802.3ad) Динамичное соединение связей
Все интерфейсы- участники в группе агрегации совместно используют одни и те же установки скорости и дуплекса. Все интерфейсы используются в соответствии со спецификацией 802.3ad. Необходим сетевой коммутатор с поддержкой 802.3ad или функциональностью LACP. Это предоставляет устойчивость к отказам.
Mode 5 (balance-tlb) Балансировка нагрузки адаптивным обменом
Исходящие пакеты распределяются согласно текущей нагрузке на каждом участвующем интерфейсе. Входящие пакеты принимаются текущим интерфейсом, а если этот интерфейс отказывает, тогда вступает в дело следующий интерфейс. Это предоставляет устойчивость к отказам и балансировку нагрузки только для исходящих пакетов.
Mode 6 (balance-alb) Адаптивная балансировка нагрузки
Аналогична balance-tlb с включением балансировки нагрузки входящих пакетов для всех интерфейсов.Это предоставляет устойчивость к отказам и балансировку нагрузки как для входящих, так и для исходящих пакетов.