8下实现磁盘配置配额,迁移home到独立分区
分类:pc28.am神测网

2018-8-29 dynalist 配额

CentOS6.8下促成配置配额

  Linux系统是援助多客商的,即允许三个客户同期选拔linux系统,普通客户在/home/目录下均有友好的家目录,在暗许状态下,种种客商能够在和睦的家目录下任性创造文件,而不用惦记内部存款和储蓄器。作为系统一管理理员,为了防止万一各样客户占用太多的上空,可感觉顺序普通客商设置配置分配的定额,即设置各种客户的文书占用的半空中尺寸。

 

       本文以硬盘/dev/sdb为例设置配置分配的定额:

试验背景:
Linux是个多顾客多职分系统,出于安全等原因,对区别的客商我们平时做肯定的权位管理。空间分配的定额限制正是个中一个亟待思索的点。分配的定额是依赖分区配置的,制止客户数据占用太多磁盘空间,大家平时把home目录单独划分二个分区,然后对两样客户设定分配的定额。

centos7的xfs配置,centos7xfs配置

XFS是扩充性高、高质量的文件系统。也是rhel7/centos7的暗许文件系统。
XFS协理metadata journaling,那使其能从crash中更迅捷的上涨。
它也帮衬在挂载和平运动动的景况下张开零散整理和扩大容积。
透过延迟分配,XFS 赢得了比比较多机会来优化写质量。
可经过工具xfsdump和xfsrestore来备份和回复xfs文件系统,
xfsdump可接纳dump品级来形成增量备份,还可透过size,subtree,inode flags来扫除文件。
也支持user、group、project配额。

上面将介绍如何创造xfs文件系统,分配分配的定额以及对其扩大体量:
###############################################################################
将/dev/sdb分区(2G),并启动LVM功能

[[email protected] zhongq]#parted /dev/sdb                               
GNU Parted 3.1
Using /dev/sdb
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) mkpart primary 4 2048
(parted) set 1 lvm on                                                    
(parted) p                                                             
Model: VMware, VMware Virtual S (scsi)
Disk /dev/sdb: 2147MB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags: 

Number  Start   End     Size    File system  Name     Flags
 1      4194kB  2048MB  2044MB               primary  lvm

 

###############################################################################
创建PV

[[email protected] zhongq]# pvcreate /dev/sdb1
  Physical volume "/dev/sdb1" successfully created

[[email protected] zhongq]# pvdisplay
  --- Physical volume ---
  PV Name               /dev/sda2
  VG Name               centos
  PV Size               24.51 GiB / not usable 3.00 MiB
  Allocatable           yes (but full)
  PE Size               4.00 MiB
  Total PE              6274
  Free PE               0
  Allocated PE          6274
  PV UUID               9hp8U7-IJM6-bwbP-G9Vn-IVuJ-yvE8-AkFjcB

  "/dev/sdb1" is a new physical volume of "1.90 GiB"
  --- NEW Physical volume ---
  PV Name               /dev/sdb1
  VG Name               
  PV Size               1.90 GiB
  Allocatable           NO
  PE Size               0   
  Total PE              0
  Free PE               0
  Allocated PE          0
  PV UUID               bu7yIH-1440-BPy1-APG2-FpvX-ejLS-2MIlA8

###############################################################################
将/dev/sdb1分配到名称叫xfsgroup00的VG

[[email protected] zhongq]# vgcreate  xfsgroup00 /dev/sdb1
 Volume group "xfsgroup00" successfully created
[[email protected] zhongq]# vgdisplay
 --- Volume group ---
  VG Name               centos
  System ID             
  Format                lvm2
  Metadata Areas        1
  Metadata Sequence No  3
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                2
  Open LV               2
  Max PV                0
  Cur PV                1
  Act PV                1
  VG Size               24.51 GiB
  PE Size               4.00 MiB
  Total PE              6274
  Alloc PE / Size       6274 / 24.51 GiB
  Free  PE / Size       0 / 0   
  VG UUID               T3Ryyg-R0rn-2i5r-7L5o-AZKG-yFkh-CDzhKm

  --- Volume group ---
  VG Name               xfsgroup00
  System ID             
  Format                lvm2
  Metadata Areas        1
  Metadata Sequence No  1
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                0
  Open LV               0
  Max PV                0
  Cur PV                1
  Act PV                1
  VG Size               1.90 GiB
  PE Size               4.00 MiB
  Total PE              487
  Alloc PE / Size       0 / 0   
  Free  PE / Size       487 / 1.90 GiB
  VG UUID               ejuwcc-sVES-MWWB-3Mup-n1wB-Kd0g-u7jm0H

###############################################################################
采用命令lvcreate来创立xfsgroup00组大小为1G的名字为xfsdata的LV

[[email protected] zhongq]# lvcreate -L 1024M -n xfsdata xfsgroup00
WARNING: xfs signature detected on /dev/xfsgroup00/xfsdata at offset 0. Wipe it? [y/n] y
  Wiping xfs signature on /dev/xfsgroup00/xfsdata.
  Logical volume "xfsdata" created
[[email protected] zhongq]# lvdisplay
  --- Logical volume ---
  LV Path                /dev/centos/swap
  LV Name                swap
  VG Name                centos
  LV UUID                EnW3at-KlFG-XGaQ-DOoH-cGPP-8pSf-teSVbh
  LV Write Access        read/write
  LV Creation host, time localhost, 2014-08-18 20:15:25  0800
  LV Status              available
  # open                 2
  LV Size                2.03 GiB
  Current LE             520
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     8192
  Block device           253:0

  --- Logical volume ---
  LV Path                /dev/centos/root
  LV Name                root
  VG Name                centos
  LV UUID                zmZGkv-Ln4W-B8AY-oDnD-BEk2-6VWL-L0cZOv
  LV Write Access        read/write
  LV Creation host, time localhost, 2014-08-18 20:15:26  0800
  LV Status              available
  # open                 1
  LV Size                22.48 GiB
  Current LE             5754
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     8192
  Block device           253:1

  --- Logical volume ---
  LV Path                /dev/xfsgroup00/xfsdata
  LV Name                xfsdata
  VG Name                xfsgroup00
  LV UUID                O4yvoY-XGcD-0zPm-eilR-3JJP-updU-rRCSlJ
  LV Write Access        read/write
  LV Creation host, time localhost.localdomain, 2014-09-23 15:50:19  0800
  LV Status              available
  # open                 0
  LV Size                1.00 GiB
  Current LE             256
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     8192
  Block device           253:3

###############################################################################
格式化分区为xfs文件系统。
留神:xfs被创制后,其size将无法降低,但可以透过xfs_growfs来增大

[[email protected] zhongq]# mkfs.xfs /dev/xfsgroup00/xfsdata 
meta-data=/dev/xfsgroup00/xfsdata isize=256    agcount=4, agsize=65536 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=0
data     =                       bsize=4096   blocks=262144, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=0
log      =internal log           bsize=4096   blocks=2560, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0

###############################################################################
挂载xfs系统一分配区到钦定目录,并经过参数uquota,gquota开启文件系统分配的定额。

[[email protected] zhongq]# mkdir /xfsdata
[[email protected] zhongq]# mount -o uquota,gquota /dev/xfsgroup00/xfsdata /xfsdata
[[email protected] zhongq]# chmod 777 /xfsdata
[[email protected] zhongq]# mount|grep xfsdata
/dev/mapper/xfsgroup00-xfsdata on /xfsdata type xfs (rw,relatime,attr2,inode64,usrquota,grpquota)

###############################################################################
使用xfs_quota命令来查看分配的定额音信以及为客商和目录分配分配的定额,并证实分配的定额限制是不是见效。

[[email protected] zhongq]# xfs_quota -x -c 'report' /xfsdata
User quota on /xfsdata (/dev/mapper/xfsgroup00-xfsdata)
                               Blocks                     
User ID          Used       Soft       Hard    Warn/Grace     
---------- -------------------------------------------------- 
root                0          0          0     00 [--------]

Group quota on /xfsdata (/dev/mapper/xfsgroup00-xfsdata)
                               Blocks                     
Group ID         Used       Soft       Hard    Warn/Grace     
---------- -------------------------------------------------- 
root                0          0          0     00 [--------]

[[email protected] zhongq]# xfs_quota -x -c 'limit bsoft=100M bhard=120M zhongq' /xfsdata
[[email protected] zhongq]#xfs_quota -x -c 'report' /xfsdata
User quota on /xfsdata (/dev/mapper/xfsgroup00-xfsdata)
                               Blocks                     
User ID          Used       Soft       Hard    Warn/Grace     
---------- -------------------------------------------------- 
root                0          0          0     00 [--------]
zhongq              0     102400     122880     00 [--------]

Group quota on /xfsdata (/dev/mapper/xfsgroup00-xfsdata)
                               Blocks                     
Group ID         Used       Soft       Hard    Warn/Grace     
---------- -------------------------------------------------- 
root                0          0          0     00 [--------]

[[email protected] zhongq]# su zhongq
[[email protected] ~]$ dd if=/dev/zero of=/xfsdata/zq00 bs=1M count=100
100 0 records in
100 0 records out
104857600 bytes (105 MB) copied, 28.9833 s, 3.6 MB/s
[[email protected] ~]$ dd if=/dev/zero of=/xfsdata/zq01 bs=1M count=100
dd: error writing ‘/xfsdata/zq01’: Disk quota exceeded
21 0 records in
20 0 records out
20971520 bytes (21 MB) copied, 4.18921 s, 5.0 MB/s

[[email protected] ~]$ exit

[[email protected] zhongq]# xfs_quota 
xfs_quota> help
df [-bir] [-hn] [-f file] -- show free and used counts for blocks and inodes
help [command] -- help for one or all commands
print -- list known mount points and projects
quit -- exit the program
quota [-bir] [-gpu] [-hnNv] [-f file] [id|name]... -- show usage and limits

Use 'help commandname' for extended help.
xfs_quota> print
Filesystem          Pathname
/                   /dev/mapper/centos-root
/boot               /dev/sda1
/var/lib/docker     /dev/mapper/centos-root
/xfsdata            /dev/mapper/xfsgroup00-xfsdata (uquota, gquota)
xfs_quota> quota -u zhongq
Disk quotas for User zhongq (1000)
Filesystem                        Blocks      Quota      Limit  Warn/Time      Mounted on
/dev/mapper/xfsgroup00-xfsdata    122880     102400     122880   00  [6 days]   /xfsdata

###############################################################################
先利用命令lvextend将LV扩张为1.5G(开始体积是1G),然后利用命令xfs_growfs来对xfs文件系统扩大体量(这里以block计数)

[[email protected] zhongq]# lvextend -L 1.5G /dev/xfsgroup00/xfsdata 
  Extending logical volume xfsdata to 1.50 GiB
  Logical volume xfsdata successfully resized

[[email protected] zhongq]# xfs_growfs /dev/xfsgroup00/xfsdata -D 393216
meta-data=/dev/mapper/xfsgroup00-xfsdata isize=256    agcount=4, agsize=65536 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=0
data     =                       bsize=4096   blocks=262144, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=0
log      =internal               bsize=4096   blocks=2560, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
data blocks changed from 262144 to 393216

[[email protected] zhongq]# df -h|grep xfsdata
/dev/mapper/xfsgroup00-xfsdata  1.5G  153M  1.4G  10% /xfsdata

提醒有三个G的分配的定额 正是运用的流量用光了.只有1个G 

实验

  1.增多一块硬盘/dev/sdb,大小20G, 也足以用大学一年级些的硬盘,分区成20G

 

1.  [root@linuxidc-pc ~]#lsblk /dev/sdb     

2.  NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT   

3.  sdb    8:16   0  20G  0 disk   

 

  2. 格式化硬盘(假如你使用分区,就直接格式化分区)

 

1.  [root@linuxidc-pc ~]#mkfs.ext4 /dev/sdb   

  3.  开立挂载目录

 

1.  [root@linuxidc-pc ~]#mkdir /mnt/sdb 

 

  4. 挂载文件系统

 

  修改/etc/fstab目录,把/dev/sdb 挂载上,注意加多usrquota挂载选项,该选项意为永葆顾客分配的定额

1.  UUID=fa2f12ad-6195-47fe-8792-a8a9000cd44c /   ext4  defaults  1 1 

2.  UUID=cd3afad0-4731-442d-8fc2-d9ae95f1a1cc /boot   ext4   defaults    1 2 

3.  UUID=6afc5ea4-27c7-4d52-bd0f-ca410a2da379 /home  ext4   defaults  1 2 

4.  UUID=daaff10f-aa8b-43d8-bc06-e4b82a905886 /mnt/sdb  ext4  usrquota   0 0 

 

 

  使用mount –a 让挂载生效,使用df –h 命令查看是还是不是见效

 

1.  [root@linuxidc-pc ~]#df -h 

2.  Filesystem      Size  Used Avail Use% Mounted on 

3.  /dev/sda6       166G  3.6G  154G   3% / 

4.  tmpfs           491M   72K  491M   1% /dev/shm 

5.  /dev/sda1       190M   34M  147M  19% /boot 

6.  /dev/sda2        20G   44M   19G   1% /data 

7.  /dev/sda3       9.8G  130M  9.1G   2% /home 

8.  /dev/sdb         20G   44M   19G   1% /mnt/sdb 

//第8行展现 /dev/sdb文件系统已挂载在/mnt/sdb目录上

 

  5. 对/mnt/sdb设置配置分配的定额,终于快邻近尾声了,-> ->

       

    • 初步化分配的定额数据库

1.    [root@linuxidc-pc ~]#quotacheck /mnt/sdb/ 

    • 翻开数据库是或不是生成成功,是或不是生成aquota.user文件

1.    [root@linuxidc-pc sdb]#ls /mnt/sdb/ 

2.  aquota.user  lost found 

    • 编纂配置数据库
    •  设置linuxidc的配置分配的定额

 

1.  [root@linuxidc-pc sdb]#edquota linuxidc 

 

1.  Disk quotas for user linuxidc (uid 500): 

2.    Filesystem   blocks   soft   hard   inodes     soft     hard 

3.    /dev/sdb       0     50000   60000     0       30        40 

#  设置:使用block数目达到40000kb时,发送警告,到达50000kb时,禁止加多内容

#  同样,当inode使用数据到达30,发送警告,到达40,禁止新建文件

Filesystem: 文件系统

blocks:已使用的块大小,以kb为单位

inode:已运用的inode个数

soft:块设备(或inode)使用数据,预先警告额度   

hard: 块设备(或inode)使用数据,禁止额度

 

    • 敞开配置限额

1.  [root@linuxidc-pc sdb]#quotaon /dev/sdb   

 

 

试验情状:
CentOS7.3

centos7中xfs 是什格式

和ext3 ext4同样 是一种文件系统,然而被称作海量存款和储蓄
质量相比较see also
www.cnblogs.com/...7.html  

测试

  • 在/mnt/sdb/目录下创办linuxidc_f/目录,且属主为linuxidc,切换来linuxidc用

 

1.  [linuxidc@linuxidc-pc sdb]$pwd            #  查看当前目录

2.  /mnt/sdb                       

3.  [linuxidc@linuxidc-pc sdb]$whoami      #   查看当前顾客,必得是计划配额设定的顾客

4.  linuxidc 

5.  [linuxidc@linuxidc-pc sdb]$ll         

6.      #  查看linuxidc客户可以选取的目录,确定保障linuxidc能够在该目录或其子目录中写入数据

7.  total 28 

8.  -rw------- 1 root  root   7168 Apr 17 17:43 aquota.user 

9.  drwx------ 2 root  root  16384 Apr 17 17:07 lost found 

  1. drwxr-xr-x 2 linuxidc linuxidc  4096 Apr 17 18:05 linuxidc_f  # 该目录属主为linuxidc

  2. [linuxidc@linuxidc-pc sdb]$cd linuxidc_f/ 

 

  • 应用edquota USE中华V 能够查看、设置客户USE陆风X8的分配的定额限度和利用进程

 

1.  [linuxidc@linuxidc-pc linuxidc_f]$edquota linuxidc 

 

  查看结果

1.  Disk quotas for user linuxidc (uid 500): 

2.    Filesystem    blocks       soft       hard     inodes     soft     hard 

3.    /dev/sdb      4           50000      60000          2       30       40 

4.  # block设备使用量为4kb

 

  •  品尝创设file文件,并写入40M数目

 

1.  [linuxidc@linuxidc-pc linuxidc_f]$dd if=/dev/zero of=file bs=1M count=40 

2.  40 0 records in 

3.  40 0 records out 

4.  41943040 bytes (42 MB) copied, 0.0380665 s, 1.1 GB/s 

5.  ## 使用dd命令写文本,成立八个文本file,写入1M*40=40M文件,写入成功

 

    查看分配的定额限度和应用进程

5.  Disk quotas for user linuxidc (uid 500): 

6.    Filesystem    blocks       soft       hard     inodes     soft     hard 

7.    /dev/sdb      40964      50000      60000          2       30       40 

8.  ## 使用了40964kb

 

 

 

  • 尝试创制file文件,并写入50M数据

1.  [linuxidc@linuxidc-pc linuxidc_f]$dd if=/dev/zero of=file bs=1M count=50 

2.  sdb: warning, user block quota exceeded. 

3.  50 0 records in 

4.  50 0 records out 

5.  52428800 bytes (52 MB) copied, 0.046946 s, 1.1 GB/s 

6.  # 写入1M*50=50M文件成功,但发生警告warning

  查看分配的定额限度和使用进度

1.  Disk quotas for user linuxidc (uid 500): 

2.    Filesystem      blocks    soft       hard     inodes     soft     hard 

3.    /dev/sdb        51204      50000      60000          2       30       40 

4.   ## 使用额度51204kb,超越预先警告额度 此时要么能够写入文件的

5.     

 

  • 品味创造file文件,并写入60M数据

 

1.  [linuxidc@linuxidc-pc linuxidc_f]$dd if=/dev/zero of=file bs=1M count=60 

2.  sdb: warning, user block quota exceeded. 

3.  sdb: write failed, user block limit reached. 

4.  dd: writing `file': Disk quota exceeded 

5.  59 0 records in 

6.  58 0 records out 

7.  61435904 bytes (61 MB) copied, 0.101161 s, 607 MB/s 

8.  #  显示写入60M数目失利 

 

翻看quota分配的定额使用量:

1.  Disk quotas for user linuxidc (uid 500): 

2.      Filesystem   blocks       soft       hard     inodes     soft     hard 

3.      /dev/sdb       60000      50000      60000          2       30       40 

尝试往file中写入内容:

1.  [linuxidc@linuxidc-pc linuxidc_f]$echo "heih" >> file   

2.  -bash: echo: write error: Disk quota exceeded    #  写入错误

3.  [linuxidc@linuxidc-pc linuxidc_f]$touch a                #  创制文件成功

4.  [linuxidc@linuxidc-pc linuxidc_f]$ 

 

理所必然也足以测验inode使用数据,这里不再赘言。

尝试内容:
一、迁移home到独门分区
二、对客户设定分配的定额

对于LINUX中的XFS文件系统难点

先用命令看一看内核辅助XFS文件系统啊?
grep "CONFIG_XFS_FS" /boot/config-*

拜谒上面一条命令的输出是什么样?小编的Computer是突显如下 :
[[email protected] ~]# grep "CONFIG_XFS_FS" /boot/config-*
/boot/config-2.6.18-348.1.1.el5:CONFIG_XFS_FS=m
/boot/config-2.6.18-348.el5:CONFIG_XFS_FS=m  

XFS是扩展性高、高质量的文件系统。也是rhel7/centos7的私下认可文件系统。 XFS协理metadata journaling,那使其能从crash中...

总结

  1. 安顿分配的定额是为了越来越好的分红文件系统使用空间,而对普通顾客或群组限制使用额度。
  2. 配备配额是依附挂载文件来说,即必得使用挂载选项usrquota and/or grpquota。
  3. 陈设分配的定额可以独立限于普通顾客,也能够独自限于群组,也能够何况对群组和顾客进行限定。
  4. 布局配额能够对文件大小(block)实行界定,也足以对文件数量(inode)举办限制

正文永恒更新链接地址:http://www.linuxidc.com/Linux/2017-10/148086.htm

图片 1

实施命令:

  • lsblk、fdisk、mkfs.ext4、blkid、cp、du、vim、mount
  • setenforce、quotaon、edquota、su、dd

一、迁移home到独门分区

1、划分分区

先用lsblk命令看一下当下机械的硬盘使用状态:

[root@CentOS7 ~]#lsblk
NAME   MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sda      8:0    0  200G  0 disk 
├─sda1   8:1    0    1G  0 part /boot
├─sda2   8:2    0 97.7G  0 part /
├─sda3   8:3    0 48.8G  0 part /app
├─sda4   8:4    0    1K  0 part 
└─sda5   8:5    0    2G  0 part [SWAP]
sr0     11:0    1  7.7G  0 rom  

从地方能够看来,磁盘还也许有大概50G的空间未利用。能够选择那50G增添三个新分区。这里自个儿分开二个10G的新分区作为home的单身分区:

[root@CentOS7 ~]#fdisk /dev/sda
Welcome to fdisk (util-linux 2.23.2).
Changes will remain in memory only, until you decide to write them.
Be careful before using the write command.

Command (m for help): n
All primary partitions are in use
Adding logical partition 6
First sector (313497600-419430399, default 313497600): 
Using default value 313497600
Last sector,  sectors or  size{K,M,G} (313497600-419430399, default 419430399):  10G
Partition 6 of type Linux and of size 10 GiB is set

Command (m for help): w
The partition table has been altered!
Calling ioctl() to re-read partition table.

WARNING: Re-reading the partition table failed with error 16: Device or resource busy.
The kernel still uses the old table. The new table will be used at
the next reboot or after you run partprobe(8) or kpartx(8)
Syncing disks.

那边有个warming。大家按提示使用partprobe /dev/sda一声令下刷新一下内存的分区表。

2、格式化新分区

[root@CentOS7 ~]#mkfs.ext4 /dev/sda6
mke2fs 1.42.9 (28-Dec-2013)
...
[root@CentOS7 ~]#blkid
/dev/sda1: UUID="4e02b896-3f74-4592-a44f-43a79a74627d" TYPE="xfs" 
/dev/sda2: UUID="3b254514-1df1-4322-bf30-d14075937249" TYPE="xfs" 
/dev/sda3: UUID="6b05345c-d2b7-42ed-bc15-411ffc962fe3" TYPE="xfs" 
/dev/sda5: UUID="52074f6b-cdf3-49fd-bea2-09c0d5c92793" TYPE="swap" 
/dev/sr0: UUID="2016-12-05-13-52-39-00" LABEL="CentOS 7 x86_64" TYPE="iso9660" PTTYPE="dos" 
/dev/sda6: UUID="4530b0f0-a686-4dbe-80a1-5d425c40f3b9" TYPE="ext4" 

新分区/dev/sda6,UUID="4530b0f0-a686-4dbe-80a1-5d425c40f3b9"

3、备份/home目录

备份/home目录到/app

  [root@CentOS7 ~]#cp -a /home /app

4、确认一下备份数据

[root@CentOS7 ~]#du -sh /home /app/home
3.7M    /home
3.7M    /app/home
[root@CentOS7 ~]#ls /app/home
hyma  luo  
[root@CentOS7 ~]#ls /home
hyma  luo

5、删除/home目录数据

[root@CentOS7 ~]#rm -rf /home
rm: cannot remove ‘/home’: Device or resource busy

去除/home目录时提醒目录在运用中。这种情景大家能够切换成单客户格局操作。
注意!单客商方式会中断网络连接的顶点,只好在机械前操作,请慎用。

6、配置/etc/fstab

[root@CentOS7 ~]#vim /etc/fstab 


#
# /etc/fstab
# Created by anaconda on Wed May 17 14:26:36 2017
#
# Accessible filesystems, by reference, are maintained under '/dev/disk'
# See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info
#
UUID=3b254514-1df1-4322-bf30-d14075937249 /                       xfs     defaults        0 0
UUID=6b05345c-d2b7-42ed-bc15-411ffc962fe3 /app                    xfs     defaults        0 0
UUID=4e02b896-3f74-4592-a44f-43a79a74627d /boot                   xfs     defaults        0 0
UUID=52074f6b-cdf3-49fd-bea2-09c0d5c92793 swap                    swap    defaults        0 0
UUID=4e02b896-3f74-4592-a44f-43a79a74627d /boot                   xfs     defaults        0 0
UUID=4530b0f0-a686-4dbe-80a1-5d425c40f3b9 /home                   ext4    defaults        0 0

7、挂载/dev/sda6到/home目录下

[root@CentOS7 ~]#mount -a
[root@CentOS7 ~]#df
Filesystem     1K-blocks    Used Available Use% Mounted on
/dev/sda2      102350000 4563984  97786016   5% /
devtmpfs          485296       0    485296   0% /dev
tmpfs             499968       4    499964   1% /dev/shm
tmpfs             499968   13524    486444   3% /run
tmpfs             499968       0    499968   0% /sys/fs/cgroup
/dev/sda3       51175000   36776  51138224   1% /app
/dev/sda1        1038336  172120    866216  17% /boot
tmpfs              99996       8     99988   1% /run/user/0
/dev/sr0         8086368 8086368         0 100% /run/media/root/CentOS 7 x86_64
/dev/sda6       10190100   36888   9612540   1% /home

8、把备份在/app/home的文件拷贝到/home目录下

[root@CentOS7 ~]#cp -a  /app/home/* /home


二、对客户设定分配的定额

1、使能分区quota

小编们透过配置/etc/fstab落成,格式如下:
UUID=4530b0f0-a686-4dbe-80a1-5d425c40f3b9 /home ext4 defaults,usrquota,grpquota 0 0

[luo@CentOS7 ~]$vim /etc/fstab

# /etc/fstab
# Created by anaconda on Wed May 17 14:26:36 2017
#
# Accessible filesystems, by reference, are maintained under '/dev/disk'
# See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info
#
UUID=3b254514-1df1-4322-bf30-d14075937249 /           xfs     defaults        0 0
UUID=6b05345c-d2b7-42ed-bc15-411ffc962fe3 /app        xfs     defaults        0 0
UUID=4e02b896-3f74-4592-a44f-43a79a74627d /boot       xfs     defaults        0 0
UUID=52074f6b-cdf3-49fd-bea2-09c0d5c92793 swap        swap    defaults        0 0
UUID=4e02b896-3f74-4592-a44f-43a79a74627d /boot       xfs     defaults        0 0
UUID=4530b0f0-a686-4dbe-80a1-5d425c40f3b9 /home       ext4    defaults,usrquota,grpquota  0 0

2、重新挂载磁盘

[root@CentOS7 ~]#mount -o remount /home 

3、创立磁盘quota数据库

[root@CentOS7 ~]#setenforce 0
[root@CentOS7 ~]#quotacheck -cug /home

4、激活/home目录分配的定额成效

[root@CentOS7 ~]#quotaon  /home
[root@CentOS7 ~]#quotaon -p /home
group quota on /home (/dev/sda6) is on
user quota on /home (/dev/sda6) is on

5、设定顾客分配的定额

此地本身对客户luo设定分配的定额,设定分配的定额空间100M

[root@CentOS7 ~]#edquota luo

Disk quotas for user luo (uid 1001):
  Filesystem                   blocks       soft       hard     inodes     soft     hard
  /dev/sda6                        52          0     100000         13        0        0

6、验证

请留心切换到客户luo,在/home目录下创办理文件件

[root@CentOS7 ~]#su - luo
Last login: Sat Jun 24 09:09:08 CST 2017 on pts/0
[luo@CentOS7 ~]$dd if=/dev/zero of=/home/luo/quotatest bs=1M count=50
50 0 records in
50 0 records out
52428800 bytes (52 MB) copied, 0.0537142 s, 976 MB/s
[luo@CentOS7 ~]$dd if=/dev/zero of=/home/luo/quotatest bs=1M count=110
sda6: write failed, user block limit reached.
dd: error writing ‘/home/luo/quotatest’: Disk quota exceeded
98 0 records in
97 0 records out
102346752 bytes (102 MB) copied, 1.56307 s, 65.5 MB/s

当客户luo写入50M时,写入符合规律
当用户luo写入100M时,提示“write failed, user block limit reached.”

本文由pc28.am发布于pc28.am神测网,转载请注明出处:8下实现磁盘配置配额,迁移home到独立分区

上一篇:mac远程桌面连接显示window证书或有关链接无效, 下一篇:没有了
猜你喜欢
热门排行
精彩图文