本环境为刚搭建的空环境,未创建VM,已配置CEPH存储。上图箭头所指就是要修改的名字。
1、安装WinSCP,WinSCP登陆两台节点(或者SSH登陆,使用VI编辑器修改)
分别修改下方四个文件里的主机名并保存,推荐使用Notepad3编辑器(勿用记事本修改)。
/etc/hostname /etc/hosts /etc/postfix/mail.cf /etc/pve/corosync.conf
方案是用zfs做raid0,并且把zfs作为proxmox的根文件系统。那现在问题就来了,想实现这一套方案的话,安装proxmox就只能用iso来装了,但是这机器没有ipmi,咋办呢?
好在kimsufi后台还提供了一个基于debian的救援系统!我们可以在这个救援系统里面安装kvm然后把硬盘直通给虚拟机来安装proxmox。这里就记录一下折腾的过程。
首先登录到kimsufi的后台,把这个监控关了:
这里说下为啥要把这个关了,因为如果你开着这个,到时候装系统要是配置哪里出了问题导致机器网络不通的话,你在后台执行硬重启会卡很久,因为它这个监控会ping你的机器ip,如果不通的话就会卡很久才有反应,很浪费时间,所以这里先关了,后面等配置全部好了后再打开。
接着点右上角的Netboot,在里面选择Rescue,然后点Next:
点Confirm:
再点右上角的Restart执行硬重启,等待片刻,邮箱里面会收到救援系统的ssh登录ip/账号/密码。
登录到救援系统内,首先查看硬盘的基本情况:
lsblk
可以看到之前系统做了raid1:
查看阵列状态:
mdadm --detail /dev/md127
可以看到这个阵列当前正在工作:
我们需要先停止这个阵列:
mdadm --stop /dev/md127
然后删除两块硬盘的分区表:
wipefs -a /dev/sda wipefs -a /dev/sdb
在这个救援系统内查看机器的公网ip,并记录备用:
ip a
回显类似:
eth0:... link/ether ... inet xx.xx.xx.xx ...
查看网关ip:
ip route list
回显类似:
default via xx.xx.xx.xx dev eth0
查看dns:
cat /etc/resolv.conf
回显类似:
nameserver 213.186.33.99
查看机器的ipv6地址:
ip -6 a
回显类似:
查看机器的ipv6网关:
ip -6 route list
回显类似:
kimsufi的网站上虽然标明每台机器只有/128的ipv6,但实际可用应该是/64,为了后续的步骤能够正常进行,这里先简单检查一下机器到底能用多少个ipv6,可以先往机器的主网卡接口添加一个ipv6测试:
ip addr add 2001:41d0:x:xxxx::2/128 dev eno1
在别的机器上能p
今天新装了台pve设备,发现安装ufw后小鸡无法正常联网及解析域名,后来尝试调整UFW配置文件,解决了这个问题,具体方法如下:
在PVE母鸡编辑UFW配置:
nano /etc/default/ufw
将DEFAULT_FORWARD_POLICY="DROP"
改为DEFAULT_FORWARD_POLICY="ACCEPT"
更改默认的策略,允许UFW接受网络转发数据包
本环境为刚搭建的空环境,未创建VM,已配置CEPH存储。上图箭头所指就是要修改的名字。
分别修改下方四个文件里的主机名并保存,推荐使用Notepad3编辑器(勿用记事本修改)。
/etc/hostname /etc/hosts /etc/postfix/mail.cf /etc/pve/corosync.conf
首先在待隔离节点上停止 pve-cluster 服务:
systemctl stop pve-cluster.service systemctl stop corosync.service
然后将待隔离节点的集群文件系统设置为本地模式:
pmxcfs -l
接下来删除 corosync 配置文件:
rm /etc/pve/corosync.conf rm -rf /etc/corosync/*
最后重新启动集群文件系统服务:
killall pmxcfs systemctl start pve-cluster.service
重启pveproxy服务
systemctl restart pveproxy
可以使用pct工具直通lxc容器内,进行操作:
#List all lxc container: pct list #Enter into a container (without password) pct enter <VMID>
或使用lxc-attach命令
lxc-attach <VMID>
最近在配置zfs RAM Cache 大小时,不小心在/etc/modprobe.d/zfs.conf文件中多输入了一行换行,导致重启后服务器无法正常载入ZFS模块,进不去系统了。
查了好久资料,以下为具体的操作记录:
这里直接删除/etc/modprobe.d/zfs.conf这个文件
rm -rf /etc/modprobe.d/zfs.conf
modprobe zfs zpool import -N rpool
zpool import
看一下id,然后zpool impot id -N导入)update-initramfs -u
更新grub:
update-grub
为保证数据安全,在进行调整前建议对LXC容器先进行备份
风险点:目前使用此方法对硬盘缩减后,无法正常创建快照、备份失败的问题,请谨慎操作
环境都是在 Proxmox VE 虚拟系统上架设,都是以 LXC 模式为主,除非有特殊状况会告知使用 VM 模式
系统环境: Proxmox VE 7.2
1、通过命令行接入到 PVE 主机,列出 zfs 清单确认 lxc 容器存储路径,此处我们拿编号200的lxc容器进行演示
zfs list
2、对指定 LXC 存储空间进行缩减,原本 800G 要缩减成 300G
zfs set quota=300G rpool/data/subvol-200-disk-0 zfs set refquota=300G rpool/data/subvol-200-disk-0
3、修改指定 LXC 的配置文件 vim /etc/pve/lxc/200.conf
# 修改前 rootfs: local-zfs:subvol-200-disk-0,size=300G # 修改後 rootfs: local-zfs:subvol-200-disk-0,size=300G
注意:如果进行缩减操作时,lxc还在运行中,则在修改后,需要手动重启容器
4、最后启动 LXC 容器确认是否可以正常运行,使用 pct enter 200
进到容器中,确认总空间是否已经缩减至 300G
完美!接下来,要开始继续缩减另一台空间为8T的lxc容器啦~
参考链接:
https://wiki.freedomstu.com/books/proxmox-ve-%E8%99%9B%E6%93%AC%E7%B3%BB%E7%B5%B1%E8%A8%98%E9%8C%84/page/lxc-WDA