User Tools

Site Tools


storage:netapp:ontap9

This is an old revision of the document!


Netapp ONTAP9

Diese Doku wurde erstellt unter ONTAP 9.x (9.3 und 9.4)

Globales

Anzeigen der ONTAP Version

version


Anzeigen der Seriennummer

system node show -node <Nodename>


Anzeigen der Mode Settings der FC/Netzwerk Ports

ucadmin show
ucadmin show -c


Anzeigen der FC/Netz Devices in der NetApp

ucadmin show


NTP Anzeigen

cluster time-service ntp server show


NTP Sync anzeigen (diag mode)

cluster time-service ntp status show


NTP setzten

cluster time-service ntp server modify -server <server> -version auto

Beispiel:
cluster time-service ntp server modify -server 192.168.0.11 -version auto


NTP Sync anzeigen (diag mode)

cluster time-service ntp status show


Timezone anzeigen

timezone


Timezone wechseln

timezone -timezone Europe/Vienna


Wechseln in den diag Mode

set diag


Wechseln in den Admin Mode

set admin


Anzeigen aller Lizenzen

license show
license show-status


Lizenz hinzufügen

license add


Service Prozessor

Infos zum Service Prozessor

system service-processor show


Anmelden am Server Prozessor

TBD


Netzwerk vom Service Prozessor

Netzwerk vom SP Aneigen

system service-processor show
system service-processor network show


Vergeben der Netzwerkeinstellungen

system service-processor network modify -node storage01-01 -address-family IPv4 -enable true -ip-address 10.0.0.11 -netmask 255.255.255.0 -gateway 10.0.0.1

Update vom Service Prozessor

Anzeigen der BMC Version

system service-processor show
system service-processor image show
system service-processor image show -instance


Anzeigen ob Autopatch aktiviert ist

system service-processor image show -fields autoupdate


Herunterladen eines neuen SP/BMC Images
Es muss ein neues Image von der NetApp Webseite runter geladen werden. Dies muss via eines WebServers der im Netz des Managements steht zur verfügung gestellt wird.

set -privilege advanced
system node image get -node <node> -package <url>

Beispiel:
Storage01::> set -privilege advanced
Storage01::*> system node image get -node Storage01n1 -package http://10.0.0.115/netapp/308-03872_A0_11.3P2_BMC_FW.zip
Storage01::*> system node image package show


Update des Images am SP
Wenn Autoupdate auf true steht sollte innerhalb der nächsten 30 Minuten das Update automatisch durchgeführt werden.
Wenn Autoupdate auf false steht oder man nicht so lange warten möchte kann man dies auch manuell starten.

Wenn Autoupdate auf true steht man jedoch trotzdem nicht warten möchte kann man das Update auch manuell durchführen.

system service-processor image update -node <node> -package <filename>

Beispiel:
Storage01::*> system service-processor image update -node Storage01n1 -package 308-03872_A0_11.3P2_BMC_FW.zip


Anzeigen des Updatestatus

system service-processor image update-progress show


Anzeigen der Version nach dem Update

system service-processor show


Danach sollte man sich am Service Prozessor via SSH anmelden und checken ob der Switch noch ein Update braucht. Hier ist es am besten man folgt den Update-Pfad auf der NetApp Seite den man bekommt wenn man das Image runter lädt.

Interfaces

Anzeigen der Netzwerkkarten und Devices

network port show


Interface Group anzeigen

ifgrp show


Interface Group anlegen

ifgrp create -node <node> -ifgrp a0a –distr-func ip –mode multimode_lacp


Interfaces in ifgrp legen

ifgrp add-port -node <node> -ifgrp <ifgrp-name> -port <port>

Beispiel:
ifgrp add-port -node storage01n1 -ifgrp a0a -port e0c
ifgrp add-port -node storage01n1 -ifgrp a0a -port e0d


VLANs anzeigen

vlan show


VLAN einrichten

vlan create -node <node> -vlan-name <interface>-<vlan-id>

Beispiel:
vlan create -node rtp-nau-01 -vlan-name a0a-44


LANs löschen

vlan delete -node <node> -vlan-name <interface>-<vlan-id>
\\

Beispiel:
vlan delete -node rtp-nau-01 -vlan-name a0a-44


Ipspaces

Möchte man mit IP Spaces arbeiten muss dieser angelegt werden bevor man einen SVM anlegt.

Anzeigen der IP Spaces

ipspace show


Anlegen eines IP Space

ipspace create -ipspace <name>


Broadcast Domain

Dies ist eine Gruppe von Ports in ONTAP.
Ein physischer oder auch virtueller Netzwerk Port kann immer nur in einer Broadcast Domain enthalten sein. Dies wird gerne verwendet wenn ein Hosting Provider die Kunden separieren möchte und einzelne Interfaces für einen Kunden reservieren möchte.

Anzeigen der Broadcast Domains

broadcast-domain show


Mehr Infos gibt es dazu von mir noch nicht. Ist aber ganz einfach ;-)

Lifs

Es können bei einem bestehenden LIF keine Protokolle mehr hinzugefügt werden. Daher lieber vorher denken oder etwas offener anlegen und die Protokoll dann später im SVM einschränken ;-)

Anzeigen der Lifs bzw. der Storage Netzwerk Interfaces. Hier sind alle physischen und virtuellen (LIF) angeführt

network interface show


Anlegen eines Lifs

network interface create -vserver <name> -lif <name> -role data -data-protocol <protokoll> -home-node <name_home_node> <interface>

Beispiel (anlegen eines Lifs für FiberChannel für ESX Server)
network interface create -vserver esx_fc -lif lif_esx_fc_01 -role data -data-protocol fcp -home-node netapp-207-01 0c


Lif zwischen Nodes migrieren

network interface revert -vserver <vserver_name> -lif <lif_name>

Beispiel (Lif zur Homenode migrieren)
network interface revert -vserver netapp-213 -lif cluster_mgmt


Löschen eines Lifs

network interface modify -vserver snapmirror -lif lif_snap_01 -status-admin down
network interface delete  -vserver snapmirror -lif lif_snap_01


Failover Policies https://library.netapp.com/ecmdocs/ECMP1636021/html/GUID-92CC5F58-5EB8-4E2D-88F0-FA2F740062E0.html

Failover Groups anzeigen

failover-groups show


DNS / Hostname File

vserver services name-services dns hosts create –vserver <vserver> -address <ip> -hostname <hostname> -alias <alias>


Fibre Channel

Globaler Status zu den Adaptern

fcp adapter show


Genaue Infos zu einem FC Port

fcp adapter show -instance -node <nodename> -adapter <adapter>
Bespiel:
fcp adapter show -instance -node netapp-ssh-01 -adapter 0c


Adapter aktivieren / deaktivieren

network fcp adapter modify -node <node> -adapter <adapter> -status-admin <up|down>

Beispiel: 
network fcp adapter modify -node netapp-207-01 -adapter 0c -status-admin 


SVM (Storage Virtual Maschine)

Vserver werden benötigt bzw. verwendet um den Client Traffic von echten NetApp Kopf abzuschirmen. Will man also ein Volume anlegen und dieses via NFS oder FC präsentieren muss dies in einem Vserver erfolgen.

Anlegen eines Vservers

vserver create -vserver <name> -subtype default -rootvolume <name> -rootvolume-security-style unix -language C.UTF-8 -snapshot-policy default -is-repository false -foreground true -aggregate <name> -allowed-protocols <proto> -comment <kommentar will man will>

Beispiel: (anlegen eines Vservers für ESX Server die via FC angebunden werden)
vserver create -vserver esx_fc -subtype default -rootvolume root_esx_fc -rootvolume-security-style unix -language C.UTF-8 -snapshot-policy default -is-repository false -foreground true -aggregate aggr_sas_01 -allowed-protocols fcp -comment vserver_for_esx_fiberchannel


Verserver DNS Settings anzeigen

vserver services dns show


Vserver DNS Settings setzten

(wird für AD Join benötigt)

vserver services dns create -vserver presseshare -domains domain.loc -name-servers 192.168.13.100,192.168.13.88,192.168.13.77


Vserver in das AD Join

cifs create -vserver <vserver> -cifs-server <servername> -domain <windows domain>

Beispiel:
cifs create -vserver net23_pu_cifs_medialib_01 -cifs-server MEDIALIB -domain supergeiledomain.loc


Einem Vserver ein Aggr zuteilen

Dies wird zB für Trident benötigt. Kann online durchgeführt werden und das Aggr muss nicht dezidiert sein.

vserver modify -vserver <vserver> -aggr-list <aggr1,aggr2>

Beispiel:
vserver modify -vserver trident_test -aggr-list aggr_sata_01_n1
vserver modify -vserver trident_test -aggr-list aggr_sata_01_n1,aggr_sata_02_n1

vserver show -vserver <vserver>


Aggr einem Vserver wieder wegnehmen

vserver remove-aggregates -vserver <vserver> -aggregates <aggr>

Beispiel:
vserver remove-aggregates -vserver trident_test -aggregates aggr_sata_01_n1



Export Policy


Anzeigen der Policy

vserver export-policy show


Anzeigen der Berechtigungen einer Policy

vserver export-policy rule show


Erstellen einer Export Policy

vserver export-policy create -vserver esx_pu_nfs_02 -policyname esx


Hinzufügen von rules zur Policy

vserver export-policy rule create -vserver esx_pu_nfs_02 -policyname esx -clientmatch <IP ADDRESS> -rorule any -rwrule any -allow-suid true -allow-dev true -protocol <any|nfs|nfs3|nfs4|cifs> -superuser any -ruleindex 1


Hinzufügen von IPs zur rule

vserver export-policy rule add-clientmatches -policyname esx -ruleindex 1 -clientmatches <IP ADDRESS>


Disken

Der Befehl “storage disk” kann auch abgekürzt werden durch “disk”

Anzeigen der aller Disks

storage disk show


Anzeigen aller Disk Optionen eines Node

storage disk option show
storage disk option show -node <nodename>


Auto Assign Option verändern

storage disk option modify -autoassign <off|on>


Globale Handling mit Disken

storage disk show 


Anzeigen der Spare Disken

storage aggregate show-spare-disks
disk show -container-type spare


Anzeigen unassigned Platten

disk show -container-type unassigned


Anzeigen defekter Disken

storage disk show -state broken
disk show -container-type broken
disk show -broken


Anzeigen der Partner Disken

storage disk show -state partner


Anzeigen aller Disken eines Aggr

storage disk show -aggregate <aggr>


Anzeigen der Ownership der Disks

storage disk show -ownership


Disk auto Assign

disk option show


Disk einen Kopf zuweisen

storage disk assign -disk <disk> -owner <nodename>
Beispiel:
storage disk assign -disk NET-1.1 -owner sim-cluster-01


Disk einem Kopf wegnehmen

storage disk removeowner -disk <disk>
storage disk removeowner -disk <disk01,disk02,disk03>
Beispiel:
storage disk removeowner -disk NET-1.1,NET-1.2,NET-1.3,NET-1.4
<\code>
\\

**Disk blinken lassen**
<code>
storage disk set-led -action blink -duration <time> -disk <disk>
Beispiel Disk blinkt für 5 Minuten:
storage disk set-led -action blink -duration 5 -disk NET-1.1


Disk blinken deaktivieren

storage disk set-led blinkoff -disk NET-1.1
</ode>
\\

**Disk mit einer anderen ersetzten (Daten kopieren)**
<code>
storage disk replace -disk <disk> -action start -replacement <disk>


Disk löschen (zero)

disk zerospares -owner netapp-ssh-01


Disk zero Prozess anzeigen

disk show -state zeroing


Disk Pfade anzeigen

storage array disk paths show
node run -node <node> -command storage show disk -p


Aggregate

Der Befehl “storage aggregate” kann auch abgekürzt werden durch “aggr”

Anzeigen aller Aggr

storage aggregate show


Anzeigen der Auslastung der Aggr

df -A -autosize


Anzeigen der Status Infos eines Aggr

storage aggregate show-status


Anzeigen der Speicherplatzes in einem Aggr (Details)

storage aggregate show-space


Anzeigen aller Optionen eines Aggr

aggr show <aggr>


Anzeigen aller Aggr die nicht online sind

storage aggregate show -state !online


Anlegen eines neuen Aggr

storage aggregate create -aggregate <aggr_name> -diskcount <anz_disken> -raidtype <raidtype> -maxraidsize <max_anz_disk> -disksize <disksize_in_Gb>
Beispiel: 
storage aggregate create -aggregate aggr_test01 -diskcount 5 -raidtype raid_dp -maxraidsize 6 -disksize 1


Erweitern eines Aggr Hier muss man gut aufpassen bezüglicher der Performance! Thema Rebalance!

storage aggregat add-disks -aggregate <aggr_name> -diskcount <disken#> -disksize <disksize_in_GB>
Beispiel:
storage aggregat add-disks -aggregate aggr_test01 -diskcount 1 -disksize 1


Löschen eines Aggr

aggr offline -aggregate aggr_test01


Raidsize im Aggr ändern

aggr modify -aggregate aggr_test01 -maxraidsize 14


Umbenennen eines Aggr

storage aggregate rename -aggregate <name> <newname>
Beispiel:
storage aggregate rename -aggregate aggr_test01 aggr_test_01


Anzeigen ob alle Plex online sind (Metrocluster)

storage aggregate plex show -fields aggregate,status,is-online,Plex,pool


Hybride Aggr

Anlegen eines normalen Aggr

aggr create -aggregate aggr_test01 -diskcount 5 -raidtype raid_dp -maxraidsize 16 -disktype FCAL -node svl-nau-01


Anzeigen ob ein Aggr als Hybride eingestellt ist aggr show -fields hybrid-enabled </code>

Setzten der Hybride Option

aggr modify -aggregate aggr_test01 -hybrid-enabled true


SSDs hinzufügen in das Hybride Aggr

aggr add -aggregate aggr_test01 -raidtype raid4 -diskcount 3 -disktype ssd


Anzeigen der des Status des Aggr

aggr show-status aggr_test01


FabricPool Aggr

Dies geht nur mit SSD Aggr.
Hier werden Daten die normal lokal liegen in die Cloud ausgelagert.
Hier kann die Entscheidung von der Storage getroffen werden via Policy wann und was ausgelagert werden soll.
Storagegrid ist gratis dabei. Wenn AWS oder die MS Cloud verwendet wird muss eine Lizenz gekauft werden.

Volume

Normales FlexVol

Anlegen eines Volumes

Beispiel: (Volume für ESX via FC und Snapshots täglich für drei Tage)
volume create -vserver <vservername> -volume <name> -aggregate <name> -size <größe> -state online -policy <policy> -unix-permissions ---rwxr-xr-x -type RW -snapshot-policy <policy> -foreground true -space-guarantee volume -percent-snapshot-space 0

Beispiel:
volume create -volume vol_srv_01 -aggregate aggr_sas_01 -size 1t -state online -policy default -unix-permissions ---rwxr-xr-x -type RW -snapshot-policy rt_3_days -foreground true -space-guarantee volume -percent-snapshot-space 0


Volumes anzeigen

df -V -autosize
df -V -h
volume show


Volumes anzeigen die nicht online sind

volume show -state !online


Volumes anlegen

vol create -vserver <svn> -volume <volume> -aggregate <aggr> -size <size> -state online -policy <policy> -unix-permissions ---rwxr-xr-x -type RW -snapshot-policy <policy> -foreground true

Beispiel für alles default
vol create -vserver svm_red -volume test01 -aggregate svl01_data_001 -size 5G -state online -policy default -unix-permissions ---rwxr-xr-x -type RW -snapshot-policy default -foreground true


Volumes löschen

volume  offline -vserver svm_red -volume test01
volume delete -vserver svm_red -volume test01


Nach dem löschen eines Volumes wird der Speicher noch nicht sofort freigegeben. Es gibt eine Recovery-Queue die das Volume per default noch für 12 Stunden aufhebt und dann automatisch löscht.
Benötigt man den Speicher sofort kann man im Diag Modus diese Queue löschen.

netapp-001::> set diagnostic
netapp-001::> vol show
netapp-001::*> vol recovery-queue show
netapp-001::*> vol recovery-queue purge-all -vserver svm_01


Volumes verschieben

volume move start -vserver <vserver> -volume <vol> -destination-aggregate <new_aggr> -perform-validation-only false

Beispiel:
volume move start -vserver svm_red -volume vol_move -destination-aggregate svl01_data_001 -perform-validation-only false


Volume Move Status

volume move show

Beispiel:
svl-nau::> vol move show
Vserver   Volume     State    Move Phase Percent-Complete Time-To-Complete
--------- ---------- -------- ---------- ---------------- ----------------
svm_red   vol_move   healthy  replicating
                                         31%              Wed Nov 28 09:15:06 2018


Volume Rehost Verschiebt Volumes zwischen SVM's. Dies geht nur offline.

Volume Clone

Beispiel:
vol clone create -flexclone vol_iso_03 -type RW -parent-vserver esx_fc_213 -parent-volume vol_iso_02 -foreground true -parent-snapshot daily.2018-12-03_0010


Volume Clone Split

Bespiel:
vol clone split start -flexclone vol_iso_03 -vserver esx_fc_213 -foreground true


Inodes eines Volumes Anzeigen der Max und verbrauchten Inodes

vol show <vol> -fields files,files-used

Beispiel:
storage01::> vol show app_sata_01 -fields files,files-used
vserver    volume             files    files-used
---------- ------------------ -------- ----------
app_nfs_01 app_sata_01 21251126 20205424


Vergrößern der Inodes

vol modify -vserver <vserver> <vol> -files 30000000


FlexGroup Volume

Ein Volume kann nur maximal 100Tb groß werden. Durch Flex Group Vol können mehrere Volumes zu einer Gruppe verbaut werden.

Anlegen FlexGroup Volume über Deloy (ich mach dies lieber manuell)

flexgroup deploy -vserver svm_red -size 5G -type RW 


Anlegen FlexGroup Volume manuell

vol create -vserver svm_red -volume <name> -aggr-list <aggr1 aggr2 …> -aggr-list-multiplier 4 -size 5G

Beispiel:
vol create -vserver svm_red -volume vol_gr1 -aggr-list svl01_data_001 svl02_data_001 -aggr-list-multiplier 4 -size 5G


AnzeigenFlexGroup Volume der einzelnen Stücke

volume show -vserver svm_red -volume vol_gr* -is-constituent true


Vergrößern FlexGroup Volume (hinzufügen neuer Volumes)

vol expand -vserver svm_red -volume vol_gr1 -aggr-list svl01_data_003,svl02_data_002 -aggr-list-multiplier 1 -foreground true


Vergrößern FlexGroup Volume (einzelne Volumes vergrößern)

vol modify -vserver svm_red -volume vol_gr1 -size 8G
vol modify -vserver svm_red -volume vol_gr1 -size +1G


ACHTUNG! Verkleiner ist NICHT möglich!

Löschen FlexGroup Volumes

vol offline -vserver svm_red -volume vol_gr1
vol delete -vserver svm_red -volume vol_gr1


Quota

Quotas können auf User / Gruppen / Qtrees gesetzt werden.

Quota Policy anlegen - legt nur eine leer Policy an
Man kann nur eine Policy pro vServer anlegen.

vol quota policy create -vserver <vserver> -policy-name <policy>

Beispiel: 
vol quota policy create -vserver esx_pu_nfs_01 -policy-name appserver1


Quota Rule auf die Policy legen - hinterlegt das Regelwerk

vol quota policy rule create -vserver <vserver> -policy-name <policy> -volume <volume> -type <tree/user/group> -target <targetname or "" for no target> -soft-disk-limit <size> -disk-limit <size>

Beispiel:
vol quota policy rule create -vserver esx_tu_nfs_01 -policy-name appserver1 -volume tu_sata_nfs_01 -type tree -target qt_appserver1 -soft-disk-limit 10G -disk-limit 12G


Quota Policy dem vServer zuweisen

vserver modify -vserver <vserver> -quota-policy <policy>

Beispiel:
vserver modify -vserver esx_tu_nfs_01 -quota-policy appserver1


Quota auf dem Volume aktivieren

vol quota on -vserver <vserver> -volume <volume>

Beispiel:
vol quota on -vserver esx_tu_nfs_01 -volume tu_sata_nfs_01


Quota Report von einem vServer anzeigen

vol quota report -vserver <vserver>

Beispiel:
vol quota report -vserver esx_tu_nfs_01

Quota Regel anpassen / ändern

vol quota policy rule modify -vserver <vserver> -policy-name <policy> -volume <volume> -type tree -target <qtree> -soft-disk-limit <size> -disk-limit <size>
vol quota resize -vserver <vserver> -volume <volume> -foreground


Beispiel:
vol quota policy rule modify -vserver esx_tu_nfs_01 -policy-name appserver1 -volume tu_sata_nfs_01 -type tree -target qt_appserver1 -soft-disk-limit 18G -disk-limit 20G
vol quota resize -vserver esx_tu_nfs_01 -volume tu_sata_nfs_01 -foreground
vol quota report -vserver esx_tu_nfs_01


Snapshots

Volume Snapshots werden mittels snapshot policies gesteuert. In den snapshot policies sind die schedules konfiguriert.

Anzeigen der Snapshot policies

snapshot policy show 

Vserver: EC-Nearstore01
                         Number of Is
Policy Name              Schedules Enabled Comment
------------------------ --------- ------- ----------------------------------
default                          3 true    Default policy with hourly, daily & weekly schedules.
    Schedule               Count     Prefix                 SnapMirror Label
    ---------------------- -----     ---------------------- -------------------
    hourly                     6     hourly                 -
    daily                      2     daily                  daily
    weekly                     2     weekly                 weekly

default-1weekly                  3 true    Default policy with 6 hourly, 2 daily & 1 weekly schedule.
    Schedule               Count     Prefix                 SnapMirror Label
    ---------------------- -----     ---------------------- -------------------
    hourly                     6     hourly                 -
    daily                      2     daily                  -
    weekly                     1     weekly                 -

none                             0 false   Policy for no automatic snapshots.
    Schedule               Count     Prefix                 SnapMirror Label
    ---------------------- -----     ---------------------- -------------------
    -                          -     -                      -

3 entries were displayed.

Anzeigen der Volume Snapshot Policy

volume show -vserver backup_iscsi  -fields snapshot-policy,volume 
         
vserver      volume            snapshot-policy 
------------ ----------------- --------------- 
backup_iscsi ecs01veeam_RC0_01 none            
backup_iscsi ecs01veeam_RC1_01 none            
backup_iscsi ecs01veeam_RC2_01 none            
backup_iscsi ecs02veeam_RC0_01 none            
backup_iscsi ecs02veeam_RC1_01 none            
backup_iscsi ecs02veeam_RC2_01 none            
backup_iscsi root_backup_iscsi default         
backup_iscsi veeam_tape_01     none            
8 entries were displayed.

Disable Volume Snapshots

volume modify -vserver backup_iscsi -volume ecs02veeam_RC2_01 -snapshot-policy none

Delete Volume Snapshots

snapshot delete -vserver backup_iscsi -volume ecs02veeam_RC2_01 -snapshot <name>

snapshot delete -vserver backup_iscsi -volume ecs02veeam_RC2_01 -snapshot *


Erstellen einer Snapshot Policy

snapshot policy create -policy <name> -count1 <count> -enabled true -schedule1 <sched_wann>

Beispiel:
snapshot policy create -policy rt_5_days -count1 5 -enabled true -schedule1 daily


Snapspot Verzeichnis
So kann man die Sichtbarkeit des .snapshot Verzeichnisses ein und ausschalten

vol modify -vserver <vserver> -volume <volume> -snapdir-access <true|false>


Snapshot Schedule anlegen

Anlegen eines Jobs

job schedule cron create -name 12hour -minute 10 -hour 0,12


Anlegen einer Snapshot Policy

snapshot policy create -policy rt_5_days_2hours -enabled true -schedule1 12hour -count1 5

netapp::> snapshot policy show  -policy rt_5_days_2hours
Vserver: netapp-ssh
                         Number of Is
Policy Name              Schedules Enabled Comment
------------------------ --------- ------- ----------------------------------
rt_5_days_2hours                 1 true    -
    Schedule               Count     Prefix                 SnapMirror Label
    ---------------------- -----     ---------------------- -------------------
    12hour                     5     12hour                 -


LUN

Erstellen einer Lun

lun create -path <lun_path> -size <size> -ostype <vmware|windows_2008|windows|linux> -space-reserve <enable|disabled> -space-allocation <enable|disabled> -class regular -vserver <vserver_name>

Beispiel:
lun create -path /vol/vol_lin_01/lun_lin_01 -size 500G -ostype vmware -space-reserve disabled -space-allocation disabled -class regular -vserver esx_fc


Lun mappen

lun map -path <lun_path> -igroup <igroup>

Beispiel:
lun map -path /vol/vol_lin_01/lun_lin_01 -igroup ESX_01


Unmap einer Lun

lun unmap -path <lun_path> -igroup *

Beispiel:
lun unmap -path /vol/vol_lin_01/FAS207_SRV_01 -igroup *


Löschen einer Lun

lun delete <lun_path>


Deduplication

Status Dedup

sis status
volume efficiency show -vserver esx_fc -volume <volume_name>


Dedup auf einem Volume aktivieren (nicht inline sondern per Schedule)

volume efficiency on -volume <volume_name> -vserver <vserver_name>
volume efficiency modify -volume <volume_name> -policy default

Optional:
volume efficiency modify -volume <volume_name> -schedule mon-sun@2


Anzeigen der Jobs und dessen Details

vol efficiency show
vol efficiency show -instance 
vol efficiency show -instance -vserver esx_pu_nfs_02 -volume pu_sas_winRC0_01


Anzeigen der Ersparnis aller Volumes

df -V -h -s


Cross Volume Inline Deddup

Parameter -cross-volume-inline-dedup


Inline Dedup auf FAS (nicht AFF Systemen). Inline Dedup macht aktuell NUR auf SSD's sinn. Hier wird auf SSD's IO's und schreibe Zyklen gespart dafür belastet es den Kopf. Normal kann man dies nur auf AFF Systemen setzten. Hat man jedoch eine FAS mit SSD's kann man dies auch aktivieren. Dazu ist jedoch davor ein wichtiger Schritt nötig.

Storage04::> set -privilege diag
Storage04::*> system node run -node Storage04n1 
Type 'exit' or 'Ctrl-D' to return to the CLI

Storage04n1> priv set diag
Warning: These diagnostic commands are for use by NetApp personnel only.
 
Storage04n1*> options sis.idedup_allow_non_aff_hya on

Storage04n1*> options sis
sis.do_idedup_policy_check   off        
sis.idedup_allow_non_aff_hya on         
sis.max_vfiler_active_ops    8

Storage04::*> set -privilege admin

Storage04::> volume efficiency modify -vserver esx_pu_nfs_02 -volume pu_ssd_oraRC1_01 -inline-dedupe true -policy default


Komprimierung

Es gibt zwei verschiedene Arten

Adaptive
Es werden immer 8 Blöcke komprimiert Hier wird das System nicht so stark belastet jedoch wird nicht stark komprimiert.
Diese Variante sollte man für Daten verwenden die stark unter Last sind. Auch viele Random Reads funktionieren hier sehr viel flotter als unter “Secondary”.

Secondary
Es werden immer 32 Blöcke komprimiert. Hier wird das System stärker belastet jedoch wird auch mehr komprimiert. Sollte nur in speziellen Fällen verwendet werden.

Post Compression
Wird via Schedule gestartet und das Volume wird nach den Veränderungen gescannt.
Diese Art der Compression ist geeignet für FAS Systeme mit SATA und SAS Disken.

Inline Compression
Wird wie der Name schon sagt Inline gemacht. Sprich bevor ein IO geschrieben wird, wird dieser schon versucht im Ram der Storage zu komprimieren. Damit spart man sich IO und geht schonend mit SSDs um.
Diese Art der Compression ist geeignet für FAS und AFF Systeme mit SSDs. Über Hybride Aggr kann man auch noch nachdenken.

Aktivieren der normalen Adaptive Post Komprimierung mit dem default Schedule

vol efficiency modify -vserver <vserver> -volume <volume> -compression true 


Aktivieren der normalen Adaptive Post + der Inline Komprimierung mit dem default Schedule

vol efficiency modify -vserver <vserver> -volume <volume> -compression true -inline-compression true 


Diese Befehle lassen sich natürlich auch noch wie immer mit einer Policy und einem Schedule versehen.


Compaction

Hier werden nicht volle 4k WAFL Blöcke mit anderen nicht vollen Blöcken gefüllt so das man möglichst volle 4k Blöcke erreicht. Geht nur für Thin Volume's.

Snapmirror

Um einen Snapmirror einzurichten der den lokalen Cluster verlässt muss ein Intercluster Peering durchgeführt werden.

ACHTUNG!
Snapmirror wird in der Shell anders behandelt als im Systemmanger bzw GUI.
Shell: Es wird immer alles auf der Destination gestartet bzw. angezeigt.
Systemmanger: Es wird immer alles auf der Source angezeigt und gestartet.

Intercluster Peering

NetApp Offiziell

In diesem Beispiel ist Cluster01 (HA Pärchen) der Source und Cluster02 (Single Node) die Destination

Lif's erstellen

Lif erstellen auf Knoten 1 im Cluster 1

cluster1::> network interface create -vserver cluster1 -lif inter1_1 -role intercluster -home-node cluster1-01 -home-port e0f -address 192.168.1.101 -netmask 255.255.255.0 -status-admin up -failover-policy local-only -firewall-policy intercluster


Lif erstellen auf Knoten 2 im Cluster 1

cluster1::> network interface create -vserver cluster1 -lif inter1_2 -role intercluster -home-node cluster1-02 -home-port e0f -address 192.168.1.102 -netmask 255.255.255.0 -status-admin up -failover-policy local-only -firewall-policy intercluster 


Lif erstellen auf dem Knoten 1 im Cluster 2

cluster2::> network interface create -vserver cluster2 -lif inter1_1 -role intercluster -home-node cluster2-01 -home-port e0f -address 192.168.1.110 -netmask 255.255.255.0 -status-admin up -failover-policy local-only -firewall-policy intercluster


Cluster Peering


Cluster Peer Anfrage auf von Cluster1 auf Cluster2 stellen (PW setzten – irgendwas wird nur einmal gebraucht)

cluster1::> cluster peer create -peer-addrs <ip>

Beispiel:
onstore03::> cluster peer create -peer-addrs 172.25.1.21,172.25.1.22 -generate-passphrase -offer-expiration 2days

Notice: 
         Passphrase: gapasdfjleigSgVyk+79WEby 
         Expiration Time: 12/20/2019 16:09:08 +01:00 
         Initial Allowed Vserver Peers: - 
         Intercluster LIF IP: 172.25.1.24 
         Peer Cluster Name: estore 
        
         Warning: make a note of the passphrase - it cannot be displayed again.


Cluster Peer Anfrage von Cluster2 auf Cluster1 stellen (PW muss gleich sein)

cluster2::> cluster peer create -peer-addrs <ip>

Beispiel:
estore::> cluster peer create -peer-addrs 172.25.1.23,172.25.1.24

Notice: Use a generated passphrase or choose a passphrase of 8 or more characters. To ensure the
        authenticity of the peering relationship, use a phrase or sequence of characters that would be
        hard to guess.

Enter the passphrase: 
Confirm the passphrase:


Anzeigen des Cluster Peerings

cluster1::> cluster peer show
Peer Cluster Name         Cluster Serial Number Availability   Authentication
------------------------- --------------------- -------------- --------------
cluster2                  1-80-000008           Available      ok
 
cluster2::> cluster peer show
Peer Cluster Name         Cluster Serial Number Availability   Authentication
------------------------- --------------------- -------------- --------------
cluster1  


Anzeigen des Peer Status

cluster peer show
cluster peer show -instance
cluster peer health show


Vserver peering


Jetzt müssen noch die Vserver verbunden werden damit dann später ein Snapmirror funktionieren kann. Dies muss man nur auf einem System machen.

SVM Peering von Cluster1 auf Cluster 2

cluster1::> vserver peer create -vserver svm1 -peer-vserver svm1_clust2 -applications snapmirror -peer-cluster cluster2

Anzegen des SVM Peerings
cluster1::> vserver peer show
            Peer        Peer                           Peering        Remote
Vserver     Vserver     State        Peer Cluster      Applications   Vserver
----------- ----------- ------------ ----------------- -------------- ---------
svm1        svm1_clust2 initializing cluster2          snapmirror     svm1_clust2
 
 
cluster2::> vserver peer show
            Peer        Peer                           Peering        Remote
Vserver     Vserver     State        Peer Cluster      Applications   Vserver
----------- ----------- ------------ ----------------- -------------- ---------
svm1_clust2 svm1        pending      cluster1          snapmirror     svm1


Snapmirror

Snapmirror anlegen
Dies muss auf dem Ziel durchgeführt werden

cluster2::> snapmirror create -source-path svm1:vol_src01 -destination-path svm1_clust2:vol_dest01 -vserver svm1_clust2 -throttle unlimited -type XDP -policy MirrorAllSnapshots -schedule hourly
 
cluster2::> snapmirror create -source-path svm1:vol_srv01 -destination-path svm1_clust2:vol_dest01 -vserver svm1_clust2 -throttle unlimited -type XDP
 
cluster2::> snapmirror initialize -destination-path svm1_clust2:vol_dest01


Anzeigen auf dem Source welche Snapmirror es gibt bzw. von him ziehen

snapmirror list-destinations


Snapmirror aufbrechen auf der Destination

cluster2::> snapmirror break -destination-path svm1_clust2:vol_dest01


Snapmirror sync nach einem aufbrechen
Nach dem Broken-Off den Sync in der gleichen konstelation wieder aufnehmen
Snapmirror umdrehen
Snapmirror nach dem Broken-Off umdrehen da die STBY Seite das Volume übernommen hat.
Danach ist der alte Source die neue Destination

snapmirror resync -destination-path svm1:vol_src1 -source-path svm1_clust2:vol_dest1



Möchte man dies wieder auf den original Stand zurück stellen musss man das gleiche wieder mit einem Broken-Off und einem resync machen.
Dies macht man einfach so:

cluster1::> snapmirror break -destination-path svm1:vol_src1
cluster2::> snapmirror resync -destination-path svm1_clust2:vol_dest1 -source-path svm1:vol_src1


Unterbrechen eines Snapmirrors

cluster2::> snapmirror quiesce -destination-path svm1_clust2:vol_dest1


Nach einer Unterbrechen wieder starten

cluster2::> snapmirror resume -destination-path svm1_clust2:vol_dest1


Monitoring

Anzeigen der globalen Systemauslastung

system node run -node <nodename|local> sysstat -usx
Beispiel:
system node run -node sim-cluster-01 sysstat -usx


Auslastung und Durchsatz allgemein

statistics disk show (-interval 5 -iterations 5)
statistics aggregate show (-interval 5 -iterations 5)
statistics volume show (-interval 5 -iterations 5)
statistics lun show (-interval 5 -iterations 5)


Auslastung der einzelnen Spindeln (advanced user)

statistics disk show -sort-key disk_busy
statistics disk show -sort-key disk_busy -interval 5 -iterations 5
statistics disk show -sort-key disk_busy -interval 30 -iterations 1


Durchsatz der einzelnen Spindeln (advanced user)

Latency in Microsekunden
Bps = Bytes per secound
statistics disk show -sort-key operation_latency


Anzeige der top Clients

statistics top client show


Anzeigen der top Files

statistics top file show


Ausgabe von sehr genauen Stats (sehr viel Info)
ACHTUNG! Nicht vergessen diesen Job wieder zu stoppen!

set -privilege advanced
statistics start –object resource_headroom_cpu|aggr
statistics show –object resource_headroom_cpu|aggr
statistics stop -sample-id <id_des_jobs>

statistics start -preset statit
statistics start stop
statistics show -preset statit -counter disk_busy


Autosuport

Anzeigen der aktuellen Einstellungen

node autosupport show


Aktivieren vom Autosuppor inkl. Einstellungen

node autosupport modify -node <node> -state enable -mail-hosts <smtphost> -from <mail> -to <mail> -support enable -transport https

Beispiel:
node autosupport modify -node storage1 -state enable -mail-hosts 192.168.123.15 -from netapp@ich.at -to to@ich.at -support enable -transport https


Wohin wird überall versendet

node autosupport destinations show


Autosupport Check

system node autosupport check show
system node autosupport check show-details


Anzeigen der History

system node autosupport history show


Senden einer fehlgeschlagenen Nachricht

system node autosupport history retransmit


Versenden einer Message für einen Upgrade

system node autosupport invoke -node onstore03n1 -type test -message Systemupdate

Autosuport Download

Falls man ein Autosupport Bundle erstellen und runterladen muss, geht man so vor.

Autosupport erstellen

autosupport invoke -node * -type all -message "invoke.all" -uri file:///mroot/etc/log/retransmit/body.7z


Bis alle Daten gesammelt wurden kannes einige Zeit dauern.
So kann man sich einen Überblick verschaffen

autosupport history show
autosupport history show -node <node> -seq-num <####>


Download vom Autosupport

https://<cluster_mgmt_IP>/spi/<node_name>/etc/log/retransmit/

Beispiel:
https://172.22.3.8/spi/Storage01n1/etc/log/retransmit/


Cluster (nicht MetroCluster!)

Takeover von Node 2 auf Node 1

storage failover takeover -ofnode <Node2>


Giveback von Node2 auf Node1

storage failover giveback –ofnode <Node2>


Cluster DBs kontrollieren(diag mode)

cluster ring show


Disable HA to be able to disable cluster failover:

cluster ha modify -configured false

Warning: This operation will unconfigure cluster HA.  Cluster HA must be
         configured on a two-node cluster to ensure data access availability in
         the event of storage failover.
Do you want to continue? {y|n}: y

Notice: HA is disabled.
storage failover modify -enabled false -node estore01
storage failover modify -enabled false -node estore02

MetroCluster

Status anuzeigen des MetroClusters

metrocluster node show
metrocluster operation show

MetroCluster takeover und giveback

Um dies durchzuführen sind ein paar Schritte mehr nötig als unter dem 7-Mode.

Takeover bzw. Switchover
Health Check davor (Es müssen nicht alle Befehle immer durchgeführt werden jedoch die ersten 4 sind immer anzuraten):

metrocluster show
system health config show
metrocluster node show
metrocluster interconnect mirror show
metrocluster check run
metrocluster check aggregate show
metrocluster check cluster show
metrocluster check lif show
metrocluster check node show
metrocluster check config-replication show
metrocluster vserver show
metrocluster check enable-periodic-check


Switchover (erst wenn die ersten vier Schritte kontrolliert worden sind)

metrocluster switchover


Switchback (hier sind einige Punkte zu beachten)
Auf der noch laufenden Node sind dies Befehle durchzuführen. Diese sollten jedoch kurz bevor man den Giveback vor hat durchführen.

metrocluster heal -phase aggregate
metrocluster heal -phase root-aggregate
metrocluster operation show


Danach muss man sich via dem Services Prozessor auf der aktuell abgeschalteten Nodes anmelden

ssh -l admin <SP IP>
SP> system console
boot_ontap


ONTAP bootet eine Zeit lang. Dies kann man sehr gut über den Service Prozessor sehen. Ist die Node erfolgreich gestartet ist es empfohlen 3-5 Minuten zu warten bis man den Switchback durchführt.

Switchback (auszuführen auf der Node die noch aktiv ist):

metrocluster show
metrocluster vserver show -cluster <partner node>
metrocluster switchback


ONTAP Mediator

ONTAP Mediator kann auf er Webseite runtergeladen werden. Dieser sollte auf dienem dritten Standort laufen.
Installiert wird dieser auf einer Linux VM. Siehe dazu die Doku von NetApp.

Mediator am Metrocluster konfigurieren

metrocluster configuration-settings mediator add -mediator-address <ip>

Beispiel:
SuperCluster01::> metrocluster configuration-settings mediator add -mediator-address 172.11.11.11
Adding the mediator and enabling Automatic Unplanned Switchover. It may take a few minutes to complete.
Please enter the username for the mediator: mediatoradmin
Please enter the password for the mediator:
Confirm the mediator password:
Successfully added the mediator.


Danach ist der Mediator registiert

SuperCluster::> metrocluster configuration-settings mediator show
Mediator IP     Port    Node                    Configuration Connection
                                                Status        Status
--------------- ------- ----------------------- ------------- -----------
172.11.11.11
                31784   Node01                  true          true
                        Node02                  true          true
                        Node03                  true          true
                        Node04                  true          true
SuperCluster::> storage disk show -container-type mediator
                     Usable           Disk    Container   Container
Disk                   Size Shelf Bay Type    Type        Name      Owner
---------------- ---------- ----- --- ------- ----------- --------- --------
NET-1.1                   -     -   - VMDISK  mediator    -         Node01
NET-1.2                   -     -   - VMDISK  mediator    -         Node02
NET-1.3                   -     -   - VMDISK  mediator    -         Node03
NET-1.4                   -     -   - VMDISK  mediator    -         Node04
4 entries were displayed.


Danach sollte man noch die ONTAP Doku checken da es für das Umschalten vom Cluster noch ein paar Optionen gibt.

Logs

Anzeigen der Logs der letzten 10 Minuten

event log show -time >10m


Health

Anzeigen der Health Alert Logs

system health config show
system health subsystem show


Anzeigen der letzten Alert Logs

system health alert show


Wenn die NetApp einmal einen Error in den Logs hatte bleibt dieser auch so lange bestehen bis man diesen gelöscht hat. Dies passiert auch bei jedem Metrocluster Switch. Hier wird auch das Monitoring (Checkmk) immer rot bleiben.

Löschen der Fehler aus dem Log
(Sehr brutale Methode)

system health alert delete -monitor * -alert-id *


Sensor Daten

system node environment sensors show
system node run -node <node name> -command environment chassis list-sensors


Firmware

Anzeigen der physischen Disken (Modell und Firmware)

storage disk show -physical
storage show disk


Anzeigen des Update-Status von Disken

disk firmware show-update-status


Kontrolle des Disk Qual Firmware Packs

node run -node * -command rdfile /etc/qual_devices_v3


Anzeigen der aktuell Shelf Firmware

node run -node * sysconfig -a


User

Anzeigen der User und dessen Berechtigungen

security login show


Anlegen von Users für ein CheckMk Monitoring

security login create -user-or-group-name monitoring -application http -authentication-method password -role readonly
security login create -user-or-group-name monitoring -application ontapi  -authentication-method password -role readonly


Anlegen eines SSH Keys für den User Admin
Danach kann sich der User Admin entweder mit PW oder mit Key anmelden. Es ist nicht beides erforderlich.

security login modify -user-or-group-name admin -application ssh -authentication-method password -second-authentication-method publickey
security login publickey create -username admin -index 0 -publickey "SSH-Key"
security login modify -user-or-group-name admin -application ssh -authentication-method password -second-authentication-method none


Upgrade Disk Firmware

Disk Firmware Anzeigen

Anzeigen der Disk Firmware

storage disk show -fields disk,type,model,firmware-revision,usable-size


Disk Qual Pack

Qual Pack installieren

set -privilege advanced 
storage firmware download -node * -package-url http://<web-server>/path/qual_devices.zip 


Disk Firmware Update

set -privilege advanced
storage firmware download -node * -package-url http://<web-server>/path/all.zip
storage disk firmware update -node <node1>
storage disk firmware show-update-status


Upgrade ONTAP

Allgemein

Am besten man geht in den Active IQ unter https://mysupport.netapp.com/ und gibt die gewünschten Daten ein. Danach kommt man ein PDF mit allen informationen was zu tun ist bzw. wie groß ein Update Sprung sein darf.

Update

Das Update von einem Single Cluster ist im Grunde recht simpel.
Befolgen der Anweisungen vom Active IQ.

Repository

Anzeigen der Images im local Repo und eventuell löschen von alten Images.

cluster image package show-repository
cluster image package delete -version <version>


ONTAP Image Download

Download vom ONTAP Image auf die Nodes

cluster image package get -url http://<url>


Autosupport

Dem Autosupport eine Startmeldung geben

autosupport invoke -node * -type all -message "MAINT Starting_NDU"


Update Validieren

Update Check

cluster image validate -version <version>


Update

cluster image update -version <version> -estimate-only
cluster image update -version <version>
cluster image show-update-progress


Autosupport

Dem Autosupport eine Endemeldung geben

autosupport invoke -node * -type all -message "MAINT END"


storage/netapp/ontap9.1671113845.txt.gz · Last modified: by stone