playground:playground
Differences
This shows you the differences between two versions of the page.
| Both sides previous revisionPrevious revisionNext revision | Previous revision | ||
| playground:playground [2020/02/10 15:03] – created stone | playground:playground [2020/02/10 15:05] (current) – removed stone | ||
|---|---|---|---|
| Line 1: | Line 1: | ||
| - | ====== ONTAP9 ====== | ||
| - | |||
| - | **Diese Doku wurde erstellt unter ONTAP 9.x (9.3 und 9.4)** | ||
| - | |||
| - | ====== Globales ====== | ||
| - | |||
| - | **Anzeigen der ONTAP Version** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | |||
| - | **Anzeigen | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **Anzeigen der Mode Settings der FC/Netzwerk Ports** | ||
| - | < | ||
| - | ucadmin show -c | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | |||
| - | **Anzeigen der FC/Netz Devices in der NetApp** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **NTP Anzeigen** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **NTP Sync anzeigen (diag mode)** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **NTP setzten** | ||
| - | < | ||
| - | |||
| - | Beispiel: | ||
| - | cluster time-service ntp server modify -server 192.168.0.11 -version auto | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **NTP Sync anzeigen (diag mode)** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **Timezone anzeigen** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **Timezone wechseln** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **Wechseln in den diag Mode** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **Wechseln in den Admin Mode** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **Anzeigen aller Lizenzen** | ||
| - | < | ||
| - | license show | ||
| - | license show-status | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Lizenz hinzufügen** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | ====== Service Prozessor ====== | ||
| - | **Infos zum Service Prozessor** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **Anmelden am Server Prozessor** | ||
| - | < | ||
| - | TBD | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | |||
| - | ===== Update vom Service Prozessor ===== | ||
| - | |||
| - | ** Anzeigen der BMC Version ** | ||
| - | < | ||
| - | system service-processor show | ||
| - | system service-processor image show | ||
| - | system service-processor image show -instance | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | ** Anzeigen ob Autopatch aktiviert ist ** | ||
| - | < | ||
| - | system service-processor image show -fields autoupdate | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | ** Herunterladen eines neuen SP/BMC Images ** | ||
| - | \\ | ||
| - | Es muss ein neues Image von der NetApp Webseite runter geladen werden. Dies muss via eines WebServers der im Netz des Managements steht zur verfügung gestellt wird. | ||
| - | < | ||
| - | set -privilege advanced | ||
| - | system node image get -node < | ||
| - | |||
| - | Beispiel: | ||
| - | Storage01::> | ||
| - | Storage01:: | ||
| - | Storage01:: | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | ** Update des Images am SP ** \\ | ||
| - | Wenn Autoupdate auf true steht sollte innerhalb der nächsten 30 Minuten das Update automatisch durchgeführt werden. \\ | ||
| - | Wenn Autoupdate auf false steht oder man nicht so lange warten möchte kann man dies auch manuell starten.\\ | ||
| - | |||
| - | Wenn Autoupdate auf true steht man jedoch trotzdem nicht warten möchte kann man das Update auch manuell durchführen. | ||
| - | < | ||
| - | system service-processor image update -node < | ||
| - | |||
| - | Beispiel: | ||
| - | Storage01:: | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | ** Anzeigen des Updatestatus ** | ||
| - | < | ||
| - | system service-processor image update-progress show | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | ** Anzeigen der Version nach dem Update ** | ||
| - | < | ||
| - | system service-processor show | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | Danach sollte man sich am Service Prozessor via SSH anmelden und checken ob der Switch noch ein Update braucht. Hier ist es am besten man folgt den Update-Pfad auf der NetApp Seite den man bekommt wenn man das Image runter lädt. | ||
| - | \\ | ||
| - | \\ | ||
| - | |||
| - | |||
| - | |||
| - | ====== Interfaces ====== | ||
| - | |||
| - | **Anzeigen der Netzwerkkarten und Devices** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **Interface Group anzeigen** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **Interface Group anlegen** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **VLANs anzeigen** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **VLAN einrichten** | ||
| - | < | ||
| - | |||
| - | Beispiel: | ||
| - | vlan create -node rtp-nau-01 -vlan-name a0a-44 | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **LANs löschen** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | Beispiel: | ||
| - | vlan delete -node rtp-nau-01 -vlan-name a0a-44 | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | |||
| - | ====== Ipspaces ====== | ||
| - | |||
| - | Möchte man mit IP Spaces arbeiten muss dieser angelegt werden bevor man einen SVM anlegt. | ||
| - | |||
| - | **Anzeigen der IP Spaces** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **Anlegen eines IP Space** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | |||
| - | ====== Broadcast Domain ====== | ||
| - | |||
| - | Dies ist eine Gruppe von Ports in ONTAP. \\ | ||
| - | Ein physischer oder auch virtueller Netzwerk Port kann immer nur in einer Broadcast Domain enthalten sein. | ||
| - | Dies wird gerne verwendet wenn ein Hosting Provider die Kunden separieren möchte und einzelne Interfaces für einen Kunden reservieren möchte. | ||
| - | |||
| - | **Anzeigen der Broadcast Domains** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | Mehr Infos gibt es dazu von mir noch nicht. Ist aber ganz einfach ;-) | ||
| - | \\ | ||
| - | |||
| - | |||
| - | |||
| - | ====== Lifs ====== | ||
| - | |||
| - | Es können bei einem bestehenden LIF keine Protokolle mehr hinzugefügt werden. Daher lieber vorher denken oder etwas offener anlegen und die Protokoll dann später im SVM einschränken ;-) | ||
| - | \\ | ||
| - | |||
| - | **Anzeigen der Lifs bzw. der Storage Netzwerk Interfaces. Hier sind alle physischen und virtuellen (LIF) angeführt** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **Anlegen eines Lifs** | ||
| - | < | ||
| - | |||
| - | Beispiel (anlegen eines Lifs für FiberChannel für ESX Server) | ||
| - | network interface create -vserver esx_fc -lif lif_esx_fc_01 -role data -data-protocol fcp -home-node netapp-207-01 0c | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Lif zwischen Nodes migrieren** | ||
| - | < | ||
| - | |||
| - | Beispiel (Lif zur Homenode migrieren) | ||
| - | network interface revert -vserver netapp-213 -lif cluster_mgmt | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Löschen eines Lifs** | ||
| - | < | ||
| - | network interface modify -vserver snapmirror -lif lif_snap_01 -status-admin down | ||
| - | network interface delete | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Failover Policies** | ||
| - | [[https:// | ||
| - | \\ | ||
| - | |||
| - | **Failover Groups anzeigen** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | |||
| - | |||
| - | **DNS / Hostname File** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | |||
| - | ====== Fibre Channel ====== | ||
| - | |||
| - | **Globaler Status zu den Adaptern** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **Genaue Infos zu einem FC Port** | ||
| - | < | ||
| - | fcp adapter show -instance -node < | ||
| - | Bespiel: | ||
| - | fcp adapter show -instance -node netapp-ssh-01 -adapter 0c | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Adapter aktivieren / deaktivieren** | ||
| - | < | ||
| - | network fcp adapter modify -node < | ||
| - | |||
| - | Beispiel: | ||
| - | network fcp adapter modify -node netapp-207-01 -adapter 0c -status-admin | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | ====== SVM (Storage Virtual Maschine) ====== | ||
| - | Vserver werden benötigt bzw. verwendet um den Client Traffic von echten NetApp Kopf abzuschirmen. Will man also ein Volume anlegen und dieses via NFS oder FC präsentieren muss dies in einem Vserver erfolgen. | ||
| - | \\ | ||
| - | |||
| - | **Anlegen eines Vservers** | ||
| - | < | ||
| - | |||
| - | Beispiel: (anlegen eines Vservers für ESX Server die via FC angebunden werden) | ||
| - | vserver create -vserver esx_fc -subtype default -rootvolume root_esx_fc -rootvolume-security-style unix -language C.UTF-8 -snapshot-policy default -is-repository false -foreground true -aggregate aggr_sas_01 -allowed-protocols fcp -comment vserver_for_esx_fiberchannel</ | ||
| - | |||
| - | \\ | ||
| - | |||
| - | **Verserver DNS Settings anzeigen** | ||
| - | < | ||
| - | |||
| - | \\ | ||
| - | |||
| - | **Vserver DNS Settings setzten** | ||
| - | (wird für AD Join benötigt) | ||
| - | < | ||
| - | |||
| - | \\ | ||
| - | |||
| - | **Vserver in das AD Joinen** | ||
| - | Noch offen. | ||
| - | |||
| - | |||
| - | ===== Export Policy ===== | ||
| - | |||
| - | \\ | ||
| - | |||
| - | **Anzeigen der Policy** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **Anzeigen der Berechtigungen einer Policy** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **Erstellen einer Export Policy** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **Hinzufügen von rules zur Policy** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **Hinzufügen von IPs zur rule** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | |||
| - | |||
| - | ====== Disken ====== | ||
| - | Der Befehl " | ||
| - | |||
| - | |||
| - | **Anzeigen der aller Disks** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **Anzeigen aller Disk Optionen eines Node** | ||
| - | < | ||
| - | storage disk option show | ||
| - | storage disk option show -node < | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Auto Assign Option verändern** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **Globale Handling mit Disken** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **Anzeigen der Spare Disken** | ||
| - | < | ||
| - | storage aggregate show-spare-disks | ||
| - | disk show -container-type spare | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Anzeigen unassigned Platten** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **Anzeigen defekter Disken** | ||
| - | < | ||
| - | storage disk show -state broken | ||
| - | disk show -container-type broken | ||
| - | disk show -broken | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Anzeigen der Partner Disken** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **Anzeigen aller Disken eines Aggr** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **Anzeigen der Ownership der Disks** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **Disk auto Assign** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | |||
| - | **Disk einen Kopf zuweisen** | ||
| - | < | ||
| - | storage disk assign -disk < | ||
| - | Beispiel: | ||
| - | storage disk assign -disk NET-1.1 -owner sim-cluster-01 | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Disk einem Kopf wegnehmen** | ||
| - | < | ||
| - | storage disk removeowner -disk < | ||
| - | storage disk removeowner -disk < | ||
| - | Beispiel: | ||
| - | storage disk removeowner -disk NET-1.1, | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **Disk blinken lassen** | ||
| - | < | ||
| - | storage disk set-led -action blink -duration < | ||
| - | Beispiel Disk blinkt für 5 Minuten: | ||
| - | storage disk set-led -action blink -duration 5 -disk NET-1.1 | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Disk blinken deaktivieren** | ||
| - | < | ||
| - | storage disk set-led blinkoff -disk NET-1.1 | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Disk mit einer anderen ersetzten (Daten kopieren)** | ||
| - | < | ||
| - | storage disk replace -disk < | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Disk löschen (zero)** | ||
| - | < | ||
| - | disk zerospares -owner netapp-ssh-01 | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Disk zero Prozess anzeigen** | ||
| - | < | ||
| - | disk show -state zeroing | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | |||
| - | |||
| - | ====== Aggregate ====== | ||
| - | Der Befehl " | ||
| - | \\ | ||
| - | |||
| - | **Anzeigen aller Aggr** | ||
| - | < | ||
| - | storage aggregate show | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Anzeigen der Auslastung der Aggr** | ||
| - | < | ||
| - | df -A -autosize | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Anzeigen der Status Infos eines Aggr** | ||
| - | < | ||
| - | storage aggregate show-status | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Anzeigen der Speicherplatzes in einem Aggr (Details)** | ||
| - | < | ||
| - | storage aggregate show-space | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Anzeigen aller Optionen eines Aggr** | ||
| - | < | ||
| - | aggr show < | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Anzeigen aller Aggr die nicht online sind** | ||
| - | < | ||
| - | storage aggregate show -state !online | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Anlegen eines neuen Aggr** | ||
| - | < | ||
| - | storage aggregate create -aggregate < | ||
| - | Beispiel: | ||
| - | storage aggregate create -aggregate aggr_test01 -diskcount 5 -raidtype raid_dp -maxraidsize 6 -disksize 1 | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Erweitern eines Aggr** | ||
| - | Hier muss man gut aufpassen bezüglicher der Performance! Thema Rebalance! | ||
| - | < | ||
| - | storage aggregat add-disks -aggregate < | ||
| - | Beispiel: | ||
| - | storage aggregat add-disks -aggregate aggr_test01 -diskcount 1 -disksize 1 | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Löschen eines Aggr** | ||
| - | < | ||
| - | aggr offline -aggregate aggr_test01 | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Raidsize im Aggr ändern** | ||
| - | < | ||
| - | aggr modify -aggregate aggr_test01 -maxraidsize 14 | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Umbenennen eines Aggr** | ||
| - | < | ||
| - | storage aggregate rename -aggregate < | ||
| - | Beispiel: | ||
| - | storage aggregate rename -aggregate aggr_test01 aggr_test_01 | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | ===== Hybride Aggr ===== | ||
| - | |||
| - | **Anlegen eines normalen Aggr** | ||
| - | < | ||
| - | aggr create -aggregate aggr_test01 -diskcount 5 -raidtype raid_dp -maxraidsize 16 -disktype FCAL -node svl-nau-01 | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Anzeigen ob ein Aggr als Hybride eingestellt ist** | ||
| - | aggr show -fields hybrid-enabled | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Setzten der Hybride Option** | ||
| - | < | ||
| - | aggr modify -aggregate aggr_test01 -hybrid-enabled true | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **SSDs hinzufügen in das Hybride Aggr** | ||
| - | < | ||
| - | aggr add -aggregate aggr_test01 -raidtype raid4 -diskcount 3 -disktype ssd | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Anzeigen der des Status des Aggr** | ||
| - | < | ||
| - | aggr show-status aggr_test01 | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | ===== FabricPool Aggr ===== | ||
| - | Dies geht nur mit SSD Aggr. \\ | ||
| - | Hier werden Daten die normal lokal liegen in die Cloud ausgelagert. \\ | ||
| - | Hier kann die Entscheidung von der Storage getroffen werden via Policy wann und was ausgelagert werden soll. \\ | ||
| - | Storagegrid ist gratis dabei. Wenn AWS oder die MS Cloud verwendet wird muss eine Lizenz gekauft werden. | ||
| - | \\ | ||
| - | |||
| - | ====== Volume ====== | ||
| - | |||
| - | ===== Normales FlexVol ===== | ||
| - | |||
| - | **Anlegen eines Volumes** | ||
| - | < | ||
| - | Beispiel: (Volume für ESX via FC und Snapshots täglich für drei Tage) | ||
| - | volume create -vserver < | ||
| - | |||
| - | Beispiel: | ||
| - | volume create -volume vol_srv_01 -aggregate aggr_sas_01 -size 1t -state online -policy default -unix-permissions ---rwxr-xr-x -type RW -snapshot-policy rt_3_days -foreground true -space-guarantee volume -percent-snapshot-space 0 | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Volumes anzeigen** | ||
| - | < | ||
| - | df -V -autosize | ||
| - | df -V -h | ||
| - | volume show | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Volumes anzeigen die nicht online sind** | ||
| - | < | ||
| - | volume show -state !online | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Volumes anlegen** | ||
| - | < | ||
| - | vol create -vserver <svn> -volume < | ||
| - | |||
| - | Beispiel für alles default | ||
| - | vol create -vserver svm_red -volume test01 -aggregate svl01_data_001 -size 5G -state online -policy default -unix-permissions ---rwxr-xr-x -type RW -snapshot-policy default -foreground true | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Volumes löschen** | ||
| - | < | ||
| - | volume | ||
| - | volume delete -vserver svm_red -volume test01 | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | Nach dem löschen eines Volumes wird der Speicher noch nicht sofort freigegeben. Es gibt eine Recovery-Queue die das Volume per default noch für 12 Stunden aufhebt und dann automatisch löscht. \\ | ||
| - | Benötigt man den Speicher sofort kann man im Diag Modus diese Queue löschen. | ||
| - | < | ||
| - | netapp-001::> | ||
| - | netapp-001::> | ||
| - | netapp-001:: | ||
| - | netapp-001:: | ||
| - | </ | ||
| - | |||
| - | \\ | ||
| - | |||
| - | **Volumes verschieben** | ||
| - | < | ||
| - | volume move start -vserver < | ||
| - | |||
| - | Beispiel: | ||
| - | volume move start -vserver svm_red -volume vol_move -destination-aggregate svl01_data_001 -perform-validation-only false | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Volume Move Status** | ||
| - | < | ||
| - | volume move show | ||
| - | |||
| - | Beispiel: | ||
| - | svl-nau::> | ||
| - | Vserver | ||
| - | --------- ---------- -------- ---------- ---------------- ---------------- | ||
| - | svm_red | ||
| - | | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Volume Rehost** | ||
| - | Verschiebt Volumes zwischen SVM's. Dies geht nur offline. | ||
| - | \\ | ||
| - | |||
| - | **Volume Clone** | ||
| - | < | ||
| - | vol clone create -flexclone vol_iso_03 -type RW -parent-vserver esx_fc_213 -parent-volume vol_iso_02 -foreground true -parent-snapshot daily.2018-12-03_0010</ | ||
| - | \\ | ||
| - | |||
| - | **Volume Clone Split** | ||
| - | < | ||
| - | vol clone split start -flexclone vol_iso_03 -vserver esx_fc_213 -foreground true</ | ||
| - | |||
| - | |||
| - | |||
| - | ===== FlexGroup Volume ===== | ||
| - | Ein Volume kann nur maximal 100Tb groß werden. Durch Flex Group Vol können mehrere Volumes zu einer Gruppe verbaut werden. | ||
| - | \\ | ||
| - | |||
| - | **Anlegen FlexGroup Volume über Deloy (ich mach dies lieber manuell)** | ||
| - | < | ||
| - | flexgroup deploy -vserver svm_red -size 5G -type RW | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Anlegen FlexGroup Volume manuell** | ||
| - | < | ||
| - | vol create -vserver svm_red -volume < | ||
| - | |||
| - | Beispiel: | ||
| - | vol create -vserver svm_red -volume vol_gr1 -aggr-list svl01_data_001 svl02_data_001 -aggr-list-multiplier 4 -size 5G | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **AnzeigenFlexGroup Volume der einzelnen Stücke** | ||
| - | < | ||
| - | volume show -vserver svm_red -volume vol_gr* -is-constituent true | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Vergrößern FlexGroup Volume (hinzufügen neuer Volumes)** | ||
| - | < | ||
| - | vol expand -vserver svm_red -volume vol_gr1 -aggr-list svl01_data_003, | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Vergrößern FlexGroup Volume (einzelne Volumes vergrößern)** | ||
| - | < | ||
| - | vol modify -vserver svm_red -volume vol_gr1 -size 8G | ||
| - | vol modify -vserver svm_red -volume vol_gr1 -size +1G | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **ACHTUNG! Verkleiner ist NICHT möglich!** | ||
| - | \\ | ||
| - | |||
| - | **Löschen FlexGroup Volumes** | ||
| - | < | ||
| - | vol offline -vserver svm_red -volume vol_gr1 | ||
| - | vol delete -vserver svm_red -volume vol_gr1 | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | ===== Quota ===== | ||
| - | Quotas können auf User / Gruppen / Qtrees gesetzt werden. \\ | ||
| - | |||
| - | ** Quota Policy anlegen - legt nur eine leer Policy an ** \\ | ||
| - | Man kann nur eine Policy pro vServer anlegen.\\ | ||
| - | < | ||
| - | vol quota policy create -vserver < | ||
| - | |||
| - | Beispiel: | ||
| - | vol quota policy create -vserver esx_pu_nfs_01 -policy-name appserver1 | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | ** Quota Rule auf die Policy legen - hinterlegt das Regelwerk ** | ||
| - | < | ||
| - | vol quota policy rule create -vserver < | ||
| - | |||
| - | Beispiel: | ||
| - | vol quota policy rule create -vserver esx_tu_nfs_01 -policy-name appserver1 -volume tu_sata_nfs_01 -type tree -target qt_appserver1 -soft-disk-limit 10G -disk-limit 12G | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | ** Quota Policy dem vServer zuweisen ** | ||
| - | < | ||
| - | vserver modify -vserver < | ||
| - | |||
| - | Beispiel: | ||
| - | vserver modify -vserver esx_tu_nfs_01 -quota-policy appserver1 | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | ** Quota auf dem Volume aktivieren ** | ||
| - | < | ||
| - | vol quota on -vserver < | ||
| - | |||
| - | Beispiel: | ||
| - | vol quota on -vserver esx_tu_nfs_01 -volume tu_sata_nfs_01 | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | ** Quota Report von einem vServer anzeigen ** | ||
| - | < | ||
| - | vol quota report -vserver < | ||
| - | |||
| - | Beispiel: | ||
| - | vol quota report -vserver esx_tu_nfs_01 | ||
| - | |||
| - | </ | ||
| - | |||
| - | ** Quota Regel anpassen / ändern ** | ||
| - | < | ||
| - | vol quota policy rule modify -vserver < | ||
| - | vol quota resize -vserver < | ||
| - | |||
| - | |||
| - | Beispiel: | ||
| - | vol quota policy rule modify -vserver esx_tu_nfs_01 -policy-name appserver1 -volume tu_sata_nfs_01 -type tree -target qt_appserver1 -soft-disk-limit 18G -disk-limit 20G | ||
| - | vol quota resize -vserver esx_tu_nfs_01 -volume tu_sata_nfs_01 -foreground | ||
| - | vol quota report -vserver esx_tu_nfs_01 | ||
| - | </ | ||
| - | |||
| - | \\ | ||
| - | |||
| - | ====== Snapshots ====== | ||
| - | |||
| - | |||
| - | Volume Snapshots werden mittels snapshot policies gesteuert. In den snapshot policies sind die schedules konfiguriert. | ||
| - | |||
| - | **Anzeigen der Snapshot policies** | ||
| - | < | ||
| - | snapshot policy show | ||
| - | |||
| - | Vserver: EC-Nearstore01 | ||
| - | | ||
| - | Policy Name Schedules Enabled Comment | ||
| - | ------------------------ --------- ------- ---------------------------------- | ||
| - | default | ||
| - | Schedule | ||
| - | ---------------------- ----- | ||
| - | hourly | ||
| - | daily 2 | ||
| - | weekly | ||
| - | |||
| - | default-1weekly | ||
| - | Schedule | ||
| - | ---------------------- ----- | ||
| - | hourly | ||
| - | daily 2 | ||
| - | weekly | ||
| - | |||
| - | none 0 false | ||
| - | Schedule | ||
| - | ---------------------- ----- | ||
| - | - - | ||
| - | |||
| - | 3 entries were displayed. | ||
| - | </ | ||
| - | |||
| - | |||
| - | |||
| - | **Anzeigen der Volume Snapshot Policy** | ||
| - | < | ||
| - | |||
| - | vserver | ||
| - | ------------ ----------------- --------------- | ||
| - | backup_iscsi ecs01veeam_RC0_01 none | ||
| - | backup_iscsi ecs01veeam_RC1_01 none | ||
| - | backup_iscsi ecs01veeam_RC2_01 none | ||
| - | backup_iscsi ecs02veeam_RC0_01 none | ||
| - | backup_iscsi ecs02veeam_RC1_01 none | ||
| - | backup_iscsi ecs02veeam_RC2_01 none | ||
| - | backup_iscsi root_backup_iscsi default | ||
| - | backup_iscsi veeam_tape_01 | ||
| - | 8 entries were displayed. | ||
| - | </ | ||
| - | |||
| - | ** Disable Volume Snapshots** | ||
| - | < | ||
| - | |||
| - | **Delete Volume Snapshots** | ||
| - | < | ||
| - | snapshot delete -vserver backup_iscsi -volume ecs02veeam_RC2_01 -snapshot < | ||
| - | |||
| - | snapshot delete -vserver backup_iscsi -volume ecs02veeam_RC2_01 -snapshot * | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Erstellen einer Snapshot Policy** | ||
| - | < | ||
| - | |||
| - | Beispiel: | ||
| - | snapshot policy create -policy rt_5_days -count1 5 -enabled true -schedule1 daily</ | ||
| - | \\ | ||
| - | |||
| - | ====== LUN ====== | ||
| - | |||
| - | |||
| - | **Erstellen einer Lun** | ||
| - | < | ||
| - | |||
| - | Beispiel: | ||
| - | lun create -path / | ||
| - | \\ | ||
| - | |||
| - | **Lun mappen** | ||
| - | < | ||
| - | |||
| - | Beispiel: | ||
| - | lun map -path / | ||
| - | \\ | ||
| - | |||
| - | **Unmap einer Lun** | ||
| - | < | ||
| - | |||
| - | Beispiel: | ||
| - | lun unmap -path / | ||
| - | \\ | ||
| - | |||
| - | **Löschen einer Lun** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | |||
| - | ====== | ||
| - | |||
| - | |||
| - | **Status Dedup** | ||
| - | < | ||
| - | volume efficiency show -vserver esx_fc -volume < | ||
| - | \\ | ||
| - | |||
| - | |||
| - | **Dedup auf einem Volume aktivieren (nicht inline sondern per Schedule)** | ||
| - | < | ||
| - | volume efficiency modify -volume < | ||
| - | |||
| - | Optional: | ||
| - | volume efficiency modify -volume < | ||
| - | \\ | ||
| - | |||
| - | |||
| - | **Anzeigen der Jobs und dessen Details** | ||
| - | < | ||
| - | vol efficiency show -instance | ||
| - | vol efficiency show -instance -vserver esx_pu_nfs_02 -volume pu_sas_winRC0_01</ | ||
| - | \\ | ||
| - | |||
| - | **Anzeigen der Ersparnis aller Volumes** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **Cross Volume Inline Deddup** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | Inline Dedup auf FAS (nicht AFF Systemen). Inline Dedup macht aktuell NUR auf SSD's sinn. Hier wird auf SSD's IO's und schreibe Zyklen gespart dafür belastet es den Kopf. Normal kann man dies nur auf AFF Systemen setzten. Hat man jedoch eine FAS mit SSD's kann man dies auch aktivieren. Dazu ist jedoch davor ein wichtiger Schritt nötig. | ||
| - | |||
| - | < | ||
| - | Storage04::> | ||
| - | Storage04:: | ||
| - | Type ' | ||
| - | |||
| - | Storage04n1> | ||
| - | Warning: These diagnostic commands are for use by NetApp personnel only. | ||
| - | |||
| - | Storage04n1*> | ||
| - | |||
| - | Storage04n1*> | ||
| - | sis.do_idedup_policy_check | ||
| - | sis.idedup_allow_non_aff_hya on | ||
| - | sis.max_vfiler_active_ops | ||
| - | |||
| - | Storage04:: | ||
| - | |||
| - | Storage04::> | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | ====== Komprimierung ====== | ||
| - | |||
| - | |||
| - | Es gibt zwei verschiedene Arten | ||
| - | \\ | ||
| - | \\ | ||
| - | **Adaptive** \\ | ||
| - | Es werden immer 8 Blöcke komprimiert | ||
| - | Hier wird das System nicht so stark belastet jedoch wird nicht stark komprimiert. \\ | ||
| - | Diese Variante sollte man für Daten verwenden die stark unter Last sind. Auch viele Random Reads funktionieren hier sehr viel flotter als unter " | ||
| - | \\ | ||
| - | |||
| - | **Secondary** \\ | ||
| - | Es werden immer 32 Blöcke komprimiert. | ||
| - | Hier wird das System stärker belastet jedoch wird auch mehr komprimiert. | ||
| - | Sollte nur in speziellen Fällen verwendet werden. \\ | ||
| - | \\ | ||
| - | |||
| - | **Post Compression** \\ | ||
| - | Wird via Schedule gestartet und das Volume wird nach den Veränderungen gescannt. \\ | ||
| - | Diese Art der Compression ist geeignet für FAS Systeme mit SATA und SAS Disken. | ||
| - | |||
| - | |||
| - | **Inline Compression** \\ | ||
| - | Wird wie der Name schon sagt Inline gemacht. Sprich bevor ein IO geschrieben wird, wird dieser schon versucht im Ram der Storage zu komprimieren. | ||
| - | Damit spart man sich IO und geht schonend mit SSDs um. \\ | ||
| - | Diese Art der Compression ist geeignet für FAS und AFF Systeme mit SSDs. Über Hybride Aggr kann man auch noch nachdenken. | ||
| - | \\ | ||
| - | |||
| - | **Aktivieren der normalen Adaptive Post Komprimierung mit dem default Schedule** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **Aktivieren der normalen Adaptive Post + der Inline Komprimierung mit dem default Schedule ** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | Diese Befehle lassen sich natürlich auch noch wie immer mit einer Policy und einem Schedule versehen. | ||
| - | |||
| - | |||
| - | |||
| - | \\ | ||
| - | |||
| - | |||
| - | ====== Compaction ====== | ||
| - | |||
| - | Hier werden nicht volle 4k WAFL Blöcke mit anderen nicht vollen Blöcken gefüllt so das man möglichst volle 4k Blöcke erreicht. Geht nur für Thin Volume' | ||
| - | \\ | ||
| - | |||
| - | |||
| - | ====== Snapmirror ====== | ||
| - | |||
| - | Um einen Snapmirror einzurichten der den lokalen Cluster verlässt muss ein Intercluster Peering durchgeführt werden. | ||
| - | \\ | ||
| - | \\ | ||
| - | ACHTUNG! \\ | ||
| - | Snapmirror wird in der Shell anders behandelt als im Systemmanger bzw GUI.\\ | ||
| - | Shell: Es wird immer alles auf der Destination gestartet bzw. angezeigt.\\ | ||
| - | Systemmanger: | ||
| - | \\ | ||
| - | \\ | ||
| - | |||
| - | ===== Intercluster Peering ===== | ||
| - | |||
| - | |||
| - | [[https:// | ||
| - | |||
| - | In diesem Beispiel ist Cluster01 (HA Pärchen) der Source und Cluster02 (Single Node) die Destination | ||
| - | \\ | ||
| - | |||
| - | **Lif' | ||
| - | \\ | ||
| - | |||
| - | **Lif erstellen auf Knoten 1 im Cluster 1** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **Lif erstellen auf Knoten 2 im Cluster 1** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **Lif erstellen auf dem Knoten 1 im Cluster 2** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | |||
| - | ===== Cluster Peering ===== | ||
| - | \\ | ||
| - | |||
| - | **Cluster Peer Anfrage auf von Cluster1 auf Cluster2 stellen (PW setzten – irgendwas wird nur einmal gebraucht)** | ||
| - | < | ||
| - | cluster1::> | ||
| - | |||
| - | Beispiel: | ||
| - | onstore03::> | ||
| - | |||
| - | Notice: | ||
| - | | ||
| - | | ||
| - | | ||
| - | | ||
| - | Peer Cluster Name: estore | ||
| - | | ||
| - | | ||
| - | </ | ||
| - | \\ | ||
| - | | ||
| - | **Cluster Peer Anfrage von Cluster2 auf Cluster1 stellen (PW muss gleich sein)** | ||
| - | < | ||
| - | cluster2::> | ||
| - | |||
| - | Beispiel: | ||
| - | estore::> | ||
| - | |||
| - | Notice: Use a generated passphrase or choose a passphrase of 8 or more characters. To ensure the | ||
| - | authenticity of the peering relationship, | ||
| - | hard to guess. | ||
| - | |||
| - | Enter the passphrase: | ||
| - | Confirm the passphrase: | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Anzeigen des Cluster Peerings** | ||
| - | < | ||
| - | Peer Cluster Name | ||
| - | ------------------------- --------------------- -------------- -------------- | ||
| - | cluster2 | ||
| - | |||
| - | cluster2::> | ||
| - | Peer Cluster Name | ||
| - | ------------------------- --------------------- -------------- -------------- | ||
| - | cluster1 | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | |||
| - | **Anzeigen des Peer Status** | ||
| - | < | ||
| - | cluster peer show -instance | ||
| - | cluster peer health show</ | ||
| - | \\ | ||
| - | |||
| - | ===== Vserver peering ===== | ||
| - | \\ | ||
| - | |||
| - | Jetzt müssen noch die Vserver verbunden werden damit dann später ein Snapmirror funktionieren kann. | ||
| - | Dies muss man nur auf einem System machen. | ||
| - | |||
| - | **SVM Peering von Cluster1 auf Cluster 2** | ||
| - | < | ||
| - | |||
| - | Anzegen des SVM Peerings | ||
| - | cluster1::> | ||
| - | Peer Peer | ||
| - | Vserver | ||
| - | ----------- ----------- ------------ ----------------- -------------- --------- | ||
| - | svm1 svm1_clust2 initializing cluster2 | ||
| - | |||
| - | |||
| - | cluster2::> | ||
| - | Peer Peer | ||
| - | Vserver | ||
| - | ----------- ----------- ------------ ----------------- -------------- --------- | ||
| - | svm1_clust2 svm1 pending | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | |||
| - | ===== Snapmirror ===== | ||
| - | |||
| - | |||
| - | **Snapmirror anlegen**\\ | ||
| - | Dies muss auf dem Ziel durchgeführt werden | ||
| - | < | ||
| - | |||
| - | cluster2::> | ||
| - | |||
| - | cluster2::> | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | **Anzeigen auf dem Source welche Snapmirror es gibt bzw. von him ziehen** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **Snapmirror aufbrechen auf der Destination** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **Snapmirror sync nach einem aufbrechen** \\ | ||
| - | Nach dem Broken-Off den Sync in der gleichen konstelation wieder aufnehmen | ||
| - | \\ | ||
| - | Snapmirror umdrehen \\ | ||
| - | Snapmirror nach dem Broken-Off umdrehen da die STBY Seite das Volume übernommen hat.\\ | ||
| - | Danach ist der alte Source die neue Destination\\ | ||
| - | < | ||
| - | \\ | ||
| - | \\ | ||
| - | |||
| - | Möchte man dies wieder auf den original Stand zurück stellen musss man das gleiche wieder mit einem Broken-Off und einem resync machen.\\ | ||
| - | Dies macht man einfach so: | ||
| - | < | ||
| - | cluster2::> | ||
| - | \\ | ||
| - | |||
| - | Unterbrechen eines Snapmirrors | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | |||
| - | Nach einer Unterbrechen wieder starten | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | |||
| - | |||
| - | |||
| - | ====== Monitoring ====== | ||
| - | |||
| - | **Anzeigen der globalen Systemauslastung** | ||
| - | < | ||
| - | Beispiel: | ||
| - | system node run -node sim-cluster-01 sysstat -usx</ | ||
| - | \\ | ||
| - | |||
| - | **Auslastung und Durchsatz allgemein** | ||
| - | < | ||
| - | statistics aggregate show (-interval 5 -iterations 5) | ||
| - | statistics volume show (-interval 5 -iterations 5) | ||
| - | statistics lun show (-interval 5 -iterations 5)</ | ||
| - | \\ | ||
| - | |||
| - | **Auslastung der einzelnen Spindeln (advanced user)** | ||
| - | < | ||
| - | statistics disk show -sort-key disk_busy -interval 5 -iterations 5 | ||
| - | statistics disk show -sort-key disk_busy -interval 30 -iterations 1</ | ||
| - | \\ | ||
| - | |||
| - | |||
| - | **Durchsatz der einzelnen Spindeln (advanced user)** | ||
| - | < | ||
| - | Bps = Bytes per secound | ||
| - | statistics disk show -sort-key operation_latency</ | ||
| - | \\ | ||
| - | |||
| - | |||
| - | **Anzeige der top Clients** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | |||
| - | **Anzeigen der top Files** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | |||
| - | **Ausgabe von sehr genauen Stats (sehr viel Info)**\\ | ||
| - | ACHTUNG! Nicht vergessen diesen Job wieder zu stoppen!\\ | ||
| - | < | ||
| - | set -privilege advanced | ||
| - | statistics start –object resource_headroom_cpu|aggr | ||
| - | statistics show –object resource_headroom_cpu|aggr | ||
| - | statistics stop -sample-id < | ||
| - | |||
| - | statistics start -preset statit | ||
| - | statistics start stop | ||
| - | statistics show -preset statit -counter disk_busy | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | |||
| - | ====== Cluster (nicht MetroCluster!) ====== | ||
| - | |||
| - | Takeover von Node 2 auf Node 1 | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **Giveback von Node2 auf Node1** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **Cluster DBs kontrollieren(diag mode)** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | Disable HA to be able to disable cluster failover: | ||
| - | < | ||
| - | |||
| - | Warning: This operation will unconfigure cluster HA. Cluster HA must be | ||
| - | | ||
| - | the event of storage failover. | ||
| - | Do you want to continue? {y|n}: y | ||
| - | |||
| - | Notice: HA is disabled. | ||
| - | </ | ||
| - | < | ||
| - | storage failover modify -enabled false -node estore02 | ||
| - | </ | ||
| - | |||
| - | ====== MetroCluster ====== | ||
| - | |||
| - | |||
| - | **Status anuzeigen des MetroClusters** | ||
| - | < | ||
| - | metrocluster operation show</ | ||
| - | |||
| - | |||
| - | === MetroCluster takeover und giveback === | ||
| - | Um dies durchzuführen sind ein paar Schritte mehr nötig als unter dem 7-Mode.\\ | ||
| - | \\ | ||
| - | |||
| - | **Takeover bzw. Switchover**\\ | ||
| - | Health Check davor (Es müssen nicht alle Befehle immer durchgeführt werden jedoch die ersten 4 sind immer anzuraten): | ||
| - | < | ||
| - | metrocluster show | ||
| - | system health config show | ||
| - | metrocluster node show | ||
| - | metrocluster interconnect mirror show | ||
| - | metrocluster check run | ||
| - | metrocluster check aggregate show | ||
| - | metrocluster check cluster show | ||
| - | metrocluster check lif show | ||
| - | metrocluster check node show | ||
| - | metrocluster check config-replication show | ||
| - | metrocluster vserver show | ||
| - | metrocluster check enable-periodic-check | ||
| - | </ | ||
| - | \\ | ||
| - | ** | ||
| - | Switchover (erst wenn die ersten vier Schritte kontrolliert worden sind)** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **Switchback (hier sind einige Punkte zu beachten)**\\ | ||
| - | Auf der noch laufenden Node sind dies Befehle durchzuführen. Diese sollten jedoch kurz bevor man den Giveback vor hat durchführen. | ||
| - | < | ||
| - | metrocluster heal -phase aggregate | ||
| - | metrocluster heal -phase root-aggregate | ||
| - | metrocluster operation show | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | Danach muss man sich via dem Services Prozessor auf der aktuell abgeschalteten Nodes anmelden | ||
| - | < | ||
| - | ssh -l admin <SP IP> | ||
| - | SP> system console | ||
| - | boot_ontap | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | ONTAP bootet eine Zeit lang. Dies kann man sehr gut über den Service Prozessor sehen. Ist die Node erfolgreich gestartet ist es empfohlen 3-5 Minuten zu warten bis man den Switchback durchführt. | ||
| - | \\ | ||
| - | |||
| - | Switchback (auszuführen auf der Node die noch aktiv ist): | ||
| - | < | ||
| - | metrocluster show | ||
| - | metrocluster switchback | ||
| - | </ | ||
| - | \\ | ||
| - | |||
| - | ====== Logs ====== | ||
| - | **Anzeigen der Logs der letzten 10 Minuten** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | |||
| - | ====== Health ====== | ||
| - | |||
| - | **Anzeigen der Health Alert Logs** | ||
| - | < | ||
| - | system health subsystem show</ | ||
| - | \\ | ||
| - | |||
| - | **Anzeigen der letzten Alert Logs** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | Wenn die NetApp einmal einen Error in den Logs hatte bleibt dieser auch so lange bestehen bis man diesen gelöscht hat. Dies passiert auch bei jedem Metrocluster Switch. Hier wird auch das Monitoring (Checkmk) immer rot bleiben.\\ | ||
| - | |||
| - | **Löschen der Fehler aus dem Log**\\ | ||
| - | (Sehr brutale Methode) | ||
| - | < | ||
| - | system health alert delete -monitor * -alert-id * | ||
| - | </ | ||
| - | |||
| - | ====== Firmware ====== | ||
| - | |||
| - | **Anzeigen der physischen Disken (Modell und Firmware)** | ||
| - | < | ||
| - | storage show disk</ | ||
| - | \\ | ||
| - | |||
| - | **Anzeigen des Update-Status von Disken** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **Kontrolle des Disk Qual Firmware Packs** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **Anzeigen der aktuell Shelf Firmware** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | |||
| - | ====== User ====== | ||
| - | |||
| - | **Anzeigen der User und dessen Berechtigungen** | ||
| - | < | ||
| - | \\ | ||
| - | |||
| - | **Anlegen von Users für ein CheckMk Monitoring** | ||
| - | < | ||
| - | security login create -user-or-group-name monitoring -application ontapi | ||
| - | \\ | ||
| - | |||
| - | **Anlegen eines SSH Keys für den User Admin**\\ | ||
| - | Danach kann sich der User Admin entweder mit PW oder mit Key anmelden. Es ist nicht beides erforderlich.\\ | ||
| - | < | ||
| - | security login modify -user-or-group-name admin -application ssh -authetication-method password -second-authentication-method publickey | ||
| - | security login publickey create -username admin -index 0 -publickey " | ||
| - | security login modify -user-or-group-name admin -application ssh -authentication-method password -second-authentication-method none | ||
| - | </ | ||
| - | |||
| - | |||
| - | |||
| - | |||
| - | |||
| - | |||
| - | |||
| - | |||
| - | |||
| - | |||
| - | |||
| - | |||
| - | |||
| - | |||
| - | |||
| - | |||
| - | |||
| - | |||
| - | |||
| - | |||
| - | |||
| - | |||
playground/playground.1581347028.txt.gz · Last modified: by stone
