סיסקאָ לאָגאָ

סיסקאָ לינוקס קיו-עם-עם נעקסוס דאַשבאָרד

CISCO-Linux-KVM-Nexus-Dashboard-product

ספּעסאַפאַקיישאַנז

  • libvirt version: 4.5.0-23.el7_7.1.x86_64
  • נעקסוס דאַשבאָרד ווערסיע: 8.0.0

פּרירעקוואַזאַץ און גיידליינז

Before you proceed with deploying the Nexus Dashboard cluster in Linux KVM, you must:

  • Ensure that the KVM form factor supports your scale and services requirements.
  • Scale and services support and co-hosting vary based on the cluster form factor. You can use the Nexus Dashboard Capacity Planning tool to verify that the virtual form factor satisfies your deployment requirements.
  • Review and complete the general prerequisites described in Prerequisites: Nexus Dashboard.
  • Review and complete any additional prerequisites described in the Release Notes for the services you plan to deploy.
  • Ensure that the CPU family used for the Nexus Dashboard VMs supports AVX instruction set.
  • Ensure you have enough system resources:

טיש 1: Deployment Requirements

רעקווירעמענץ

  • KVM deployments are supported for Nexus Dashboard Fabric Controller services only.
  • You must deploy in CentOS 7.9 or Red Hat Enterprise Linux 8.6
  • You must have the supported versions of Kernel and KVM:
  • For CentOS 7.9, Kernel version 3.10.0-957.el7.x86_64 and KVM version
  • libvirt-4.5.0-23.el7_7.1.x86_64
  • For RHEL 8.6, Kernel version 4.18.0-372.9.1.el8.x86_64 and KVM version libvert 8.0.0
  • 16 ווקפּוס
  • 64 גיגאבייט פון באַראַן
  • 550 GB disk
  • Each node requires a dedicated disk partition
  • The disk must have I/O latency of 20ms or less.

To verify the I/O latency:

  1. Create a test directory.
    פֿאַר עקסample, test-data.
  2. לויפן די פאלגענדע באַפֿעל:
    # fio –rw=שרייבן –ioengine=סינק –fdatasync=1 –דירעקטאָרי=טעסט-דאַטן –גרייס=22m –bs=2300 –נאָמען=מייןטעסט
  3. After the command is executed, confirm that the 99.00th=[<value>] in the
    fsync/fdatasync/sync_file_range סעקציע איז אונטער 20ms.
    • We recommend that each Nexus Dashboard node is deployed in a different KVM hypervisor.

דיפּלויינג נעקסוס דאַשבאָרד אין לינוקס KVM

די סעקציע באשרייבט ווי אזוי צו דעפּלויען סיסקאָ נעקסוס דאַשבאָרד קלאַסטער אין לינוקס KVM.

איידער איר אָנהייבן

Ensure that you meet the requirements and guidelines described in Prerequisites and Guidelines, on page 1.

פּראָצעדור

שריט 1
Download the Cisco Nexus Dashboard image.

שריט 2
Copy the image to the Linux KVM servers where you will host the nodes.
You can use scp to copy the image, for example: # scp nd-dk9.<version>.qcow2 root@<kvm-host-ip>:/home/nd-base
די פאלגענדע טריט גייען אויס פון דעם אויסגאַנג אַז איר האָט קאָפּירט דאָס בילד אין דעם /home/nd-base דירעקטאָרי.

שריט 3
Create the required disk images for the first node.
You will create a snapshot of the base qcow2 image you downloaded and use the snapshots as the disk images for the nodes’ VMs. You will also need to create a second disk image for each node.

  • Log in to your KVM host as the root user.
  • שאַפֿן אַ דירעקטאָרי פֿאַר די נאָוד ס סנעפּשאָט.
    די פאלגענדע טריט גייען אויס פון דעם אויסגאַנג אַז איר שאַפֿט דעם סנעפּשאָט אין דעם /home/nd-node1 דירעקטאָרי.
    # mkdir -p /home/nd-node1/
    # cd /home/nd-node1
  • Create the snapshot.
    In the following command, replace /home/nd-base/nd-dk9.<version>.qcow2with the location of the base image you created in the previous step.
    # qemu-img create -f qcow2 -b /home/nd-base/nd-dk9.<version>.qcow2
    /home/nd-node1/nd-node1-disk1.qcow2

באַמערקונג
If you are deploying in RHEL 8.6, you may need to provide an additional parameter to define the destination snapshot’s format as well. In that case, update the above command to the following:
# qemu-img create -f qcow2 -b /home/nd-base/nd-dk9.2.1.1a.qcow2 /home/nd-node1/nd-node1-disk1.qcow2- F qcow2

  • Create the additional disk image for the node.
    Each node requires two disks: a snapshot of the base Nexus Dashboard qcow2 image and a second 500GB disk. # qemu-img create -f qcow2 /home/nd-node1/nd-node1-disk2.qcow2 500G

שריט 4
איבערחזרן דעם פריערדיקן שריט צו שאַפֿן די דיסק בילדער פֿאַר די צווייטע און דריטע נאָודז. איידער איר גייט ווייטער צום ווייטערדיקן שריט, זאָלט איר האָבן די פאלגענדע:
For the first node, /home/nd-node1/ directory with two disk images:

  • /home/nd-node1/nd-node1-disk1.qcow2, which is a snapshot of the base qcow2 image you downloaded in Step 1.
  • /home/nd-node1/nd-node1-disk2.qcow2, which is a new 500GB disk you created.
  • For the second node, /home/nd-node2/ directory with two disk images:
  • /home/nd-node2/nd-node2-disk1.qcow2, which is a snapshot of the base qcow2 image you downloaded in Step 1.
  • /home/nd-node2/nd-node2-disk2.qcow2, which is a new 500GB disk you created.
  • For the third node, /home/nd-node3/ directory with two disk images:
  • /home/nd-node1/nd-node3-disk1.qcow2, which is a snapshot of the base qcow2 image you downloaded in Step 1.
  • /home/nd-node1/nd-node3-disk2.qcow2, which is a new 500GB disk you created.

שריט 5
Create the first node’s VM.

  • Open the KVM console and click New Virtual Machine.
    You can open the KVM console from the command line using the virt-manager command.
    If your Linux KVM environment does not have a desktop GUI, run the following command instead and proceed to step 6.
    virt-install –import –name <node-name> –memory 65536 –vcpus 16 –os-type generic –disk path=/path/to/disk1/nd-node1-d1.qcow2,format=qcow2,bus=virtio –disk
    path=/path/to/disk2/nd-node1-d2.qcow2,format=qcow2,bus=virtio –network
    bridge=<mgmt-bridge-name>,model=virtio –network bridge=<data-bridge-name>,model=virtio –console pty,target_type=serial –noautoconsole –autostart
  • In the New VM screen, choose Import existing disk image option and click Forward.
  • In the Provide existing storage path field, click Browse and select the nd-node1-disk1.qcow2 file.
    מיר רעקאָמענדירן אַז יעדן נאָוד'ס דיסק בילד זאָל ווערן געהיט אויף זיין אייגענעם דיסק פּאַרטישאַן.
  • Choose Generic for the OS type and Version, then click Forward.
  • Specify 64GB memory and 16 CPUs, then click Forward.
  • Enter the Name of the virtual machine, for example nd-node1 and check the Customize configuration before install option. Then click Finish.

באַמערקונג
You must select the Customize configuration before install checkbox to be able to make the disk and network card customizations required for the node.
די VM דעטאלן פֿענצטער וועט זיך עפענען.

In the VM details window, change the NIC’s device model:

  • Select NIC <mac>.
  • For Device model, choose e1000.
  • For Network Source, choose the bridge device and provide the name of the “mgmt” bridge. Note

שאַפֿן בריק דעוויסעס איז אַרויס די פאַרנעם פון דעם פירער און דעפּענדס אויף די פאַרשפּרייטונג און ווערסיע פון די אָפּערייטינג סיסטעם. באַראַטן זיך מיט די אָפּערייטינג סיסטעם ס דאָקומענטאַציע, אַזאַ ווי Red Hat's Configuring a network bridge, פֿאַר מער אינפֿאָרמאַציע.

אין די VM דעטאלן פענצטער, לייג צו א צווייטע NIC:

  • דריקט לייג ייַזנוואַרג.
  • In the Add New Virtual Hardware screen, select Network.
  • For Network Source, choose the bridge device and provide the name of the created “data” bridge.
  • Leave the default Mac address value.
  • For Device model, choose e1000.

In the VM details window, add the second disk image

  • דריקט לייג ייַזנוואַרג.
  • In the Add New Virtual Hardware screen, select Storage.
  • For the disk’s bus driver, choose IDE.
  • Select Select or create custom storage, click Manage, and select the nd-node1-disk2.qcow2 file דו האסט באשאפן.
  • Click Finish to add the second disk.

באַמערקונג
Ensure that you enable the Copy host CPU configuration option in the Virtual Machine Manager UI.
צום סוף, גיט א קליק אויף "אָנהייב אינסטאַלאַציע" צו ענדיקן שאַפֿן די נאָוד'ס VM.

שריט 6
איבערחזרן די פריערדיקע טריט צו דעפּלויען די צווייטע און דריטע נאָודז, און דערנאָך אָנהייבן אַלע ווירטואַל מאַסקס.

באַמערקונג
If you are deploying a single-node cluster, you can skip this step.

שריט 7
Open one of the node’s console and configure the node’s basic information. If your Linux KVM environment does not have a desktop GUI, run the virsh console <node-name> command to access the console of the node.

  • Press any key to begin initial setup.
    • איר וועט ווערן געבעטן צו לויפן די ערשטע-מאל סעטאַפּ יוטילאַטי:
    • [ OK ] Started atomix-boot-setup.
    • Starting Initial cloud-init job (pre-networking)…
    • Starting logrotate…
    • Starting logwatch…
    • Starting keyhole…
    • [ OK ] Started keyhole.
    • [ OK ] Started logrotate.
    • [ OK ] Started logwatch.
    • דריק אויף יעדן קנעפּל צו לויפן ערשט-בוט סעטאַפּ אויף דעם קאַנסאָול…
  • Enter and confirm the admin password
    • די פּאַראָל וועט ווערן גענוצט פֿאַר די רעסקיו-באַניצער SSH לאָגין ווי אויך די ערשטע GUI פּאַראָל.
      באַמערקונג
      You must provide the same password for all nodes or the cluster creation will fail.
    • אַדמין פּאַראָל:
    • Reenter Admin Password:
    • Enter the management network information.
    • Management Network:
    • IP Address/Mask: 192.168.9.172/24
    • טויער: 192.168.9.1
  • For the first node only, designate it as the “Cluster Leader”.
    • איר וועט זיך איינלאָגירן אין דעם קלאַסטער פירער נאָדע צו ענדיקן קאָנפיגוראַציע און פֿאַרענדיקן קלאַסטער שאַפונג.
    • איז דאָס דער קלאַסטער פירער?: י
  • Review און באַשטעטיקן די איינגעגעבענע אינפֿאָרמאַציע.
    • You will be asked if you want to change the entered information. If all the fields are correct, choose n to proceed.
    • If you want to change any of the entered information, enter y to re-start the basic configuration script.
    • ביטע שייַעךview די קאָנפיג
    • Management network:
    • טויער: 192.168.9.1
    • IP Address/Mask: 192.168.9.172/24
    • Cluster leader: yes
    • ווידער אריינגעבן קאנפיגוראציע? (יא/ניין): n

שריט 8 איבערחזרן דעם פריערדיקן שריט צו קאָנפיגורירן די ערשטע אינפֿאָרמאַציע פֿאַר די צווייטע און דריטע נאָודז.
איר דאַרפֿט נישט וואַרטן ביז די ערשטע נאָדע קאָנפיגוראַציע איז פֿאַרטיק, איר קענט אָנהייבן קאָנפיגורירן די אַנדערע צוויי נאָודז סיימאַלטייניאַסלי.

באַמערקונג
You must provide the same password for all nodes or the cluster creation will fail.
די טריט צו דעפּלאָיען די צווייטע און דריטע נאָודז זענען אידענטיש מיט דער איינציקער אויסנאַם זייענדיק אַז איר מוזט אָנווייַזן אַז זיי זענען נישט דער קלאַסטער פירער.

שריט 9 וואַרט ביז דער ערשטער בוטסטראַפּ פּראָצעס וועט זיך ענדיקן אויף אַלע נאָודז.
נאכדעם וואס איר גיט און באשטעטיגט די אינפארמאציע וועגן דעם מענעדזשמענט נעטווארק, קאנפיגורירט די ערשטע סעטאפ אויפן ערשטן נאָדע (קלאַסטער לידער) די נעטווארקינג און ברענגט ארויף די UI, וואס איר וועט ניצן צו לייגן צו צוויי אנדערע נאָודז און פארענדיגן די קלאַסטער דיפּלוימאַנט.
Please wait for system to boot: [#########################] 100%
System up, please wait for UI to be online.
סיסטעם באַניצער צובינד אָנליין, ביטע לאָגין צו https://192.168.9.172 צו פאָרזעצן.

שריט 10 Open your browser and navigate to https://<node-mgmt-ip> to open the GUI.
די רעשט פון די קאָנפיגוראַציע וואָרקפלאָו נעמט אָרט פֿון איינעם פֿון די נאָודס GUI. איר קענט אויסקלײַבן יעדן פֿון די נאָודס וואָס איר האָט דיפּלויד צו אָנהייבן דעם בוטסטראַפּ פּראָצעס און איר דאַרפֿט נישט זיך אַרײַנלאָגירן אָדער קאָנפיגורירן די אַנדערע צוויי נאָודס גלייך.
אַרייַן די פּאַראָל וואָס איר האָט געגעבן אין אַ פריערדיקן שריט און גיט אויף לאָגין

CISCO-Linux-KVM-Nexus-Dashboard- (1)

שריט 11
Provide the Cluster Details.
In the Cluster Details screen of the Cluster Bringup wizard, provide the following information:

CISCO-Linux-KVM-Nexus-Dashboard- (2)

  • Provide the Cluster Name for this Nexus Dashboard cluster.
    The cluster name must follow the RFC-1123 requirements.
  • (Optional) If you want to enable IPv6 functionality for the cluster, check the Enable IPv6 checkbox.
  • Click +Add DNS Provider to add one or more DNS servers.
    נאכדעם וואס איר האט אריינגעגעבן די אינפארמאציע, דריקט אויפן טשעקמארק אייקאן צו ראטעווען עס.
  • (Optional) Click +Add DNS Search Domain to add a search domain.

נאכדעם וואס איר האט אריינגעגעבן די אינפארמאציע, דריקט אויפן טשעקמארק אייקאן צו ראטעווען עס.

  • (Optional) If you want to enable NTP server authentication, enable the NTP Authentication checkbox and click Add NTP Key.
    In the additional fields, provide the following information:
    • NTP Key – a cryptographic key that is used to authenticate the NTP traffic between the Nexus Dashboard and the NTP server(s). You will define the NTP servers in the following step, and multiple NTP servers can use the same NTP key.
    • Key ID – each NTP key must be assigned a unique key ID, which is used to identify the appropriate key to use when verifying the NTP packet.
    • Auth Type – this release supports MD5, SHA, and AES128CMAC authentication types.
    • Choose whether this key is Trusted. Untrusted keys cannot be used for NTP authentication.

באַמערקונג
נאכדעם וואס איר האט אריינגעגעבן די אינפארמאציע, דריקט אויפן טשעקמארק אייקאן צו ראטעווען עס.
For the complete list of NTP authentication requirements and guidelines, see Prerequisites and Guidelines.

  • Click +Add NTP Host Name/IP Address to add one or more NTP servers.
    In the additional fields, provide the following information:
  • NTP Host – you must provide an IP address; fully qualified domain name (FQDN) are not supported.
  • Key ID – if you want to enable NTP authentication for this server, provide the key ID of the NTP key you defined in the previous step.
    If NTP authentication is disabled, this field is grayed out.
  • Choose whether this NTP server is Preferred.
    נאכדעם וואס איר האט אריינגעגעבן די אינפארמאציע, דריקט אויפן טשעקמארק אייקאן צו ראטעווען עס.

באַמערקונג
If the node into which you are logged in is configured with only an IPv4 address, but you have checked Enable IPv6 in a previous step and provided an IPv6 address for an NTP server, you will get the following validation error:CISCO-Linux-KVM-Nexus-Dashboard- (3)

This is because the node does not have an IPv6 address yet (you will provide it in the next step) and is unable to connect to an IPv6 address of the NTP server.
In this case, simply finish providing the other required information as described in the following steps and click Next to proceed to the next screen where you will provide IPv6 addresses for the nodes.
אויב איר ווילט צושטעלן נאָך NTP סערווערס, גיט ווידער אויף +Add NTP Host און איבערחזרט דעם אונטער-שריט.

  • Provide a Proxy Server, then click Validate it.
    For clusters that do not have direct connectivity to Cisco cloud, we recommend configuring a proxy server to establish the connectivity. This allows you to mitigate risk from exposure to non-conformant hardware and software
    in your fabrics.
  • You can also choose to provide one or more IP addresses communication with which should skip proxy by clicking+Add Ignore Host.
    דער פראקסי סערווער מוז האבן די פאלגענדע URLס ענייבאַלד:
  • אויב איר ווילט איבערשפרינגען פראקסי קאנפיגוראציע, גיט אויף איבערשפרינגען פראקסי.
  • (Optional) If your proxy server required authentication, enable Authentication required for Proxy, provide the login credentials, then click Validate.
  • (Optional) Expand the Advanced Settings category and change the settings if required.
    אונטער פארגעשריטענע סעטטינגס, קענט איר קאנפיגורירן די פאלגענדע:
  • Provide custom App Network and Service Network.
    די אַפּליקאַציע אָוווערליי נעטוואָרק דעפינירט דעם אַדרעס פּלאַץ געניצט דורך די אַפּליקאַציע ס סערוויסעס וואָס לויפן אין די נעקסוס דאַשבאָרד. דאָס פעלד איז פאַר-געפילט מיט דעם פעליקייַט 172.17.0.1/16 ווערט.
    די סערוויסעס נעץ איז אן אינערליכע נעץ גענוצט דורך די נעקסוס דעשבאָרד און זיינע פּראָצעסן. דאָס פעלד איז פאַר-באַפעלקערט מיטן פעליקייט 100.80.0.0/16 ווערט.
    אויב איר האָט פריער אָנגעטשעקט די אָפּציע "Enable IPv6", קענט איר אויך דעפינירן די IPv6 סובנעץ פֿאַר די אַפּ און סערוויס נעטוואָרקס.
    אַפּליקאַציע און סערוויסעס נעטוואָרקס ווערן באַשריבן אין דער אָפּטיילונג "פּרעקוויזיטן און גיידליינז" פריער אין דעם דאָקומענט.
  • דריקט ווייַטער צו פאָרזעצן.

שריט 12
אין דעם נאָדע דעטאַילס פאַרשטעלן, דערהייַנטיקן די אינפֿאָרמאַציע פֿון דעם ערשטן נאָדע.
You have defined the Management network and IP address for the node into which you are currently logged in during the initial node configuration in earlier steps, but you must also provide the Data network information for the node
before you can proceed with adding the other primary nodes and creating the cluster.CISCO-Linux-KVM-Nexus-Dashboard- (4) CISCO-Linux-KVM-Nexus-Dashboard- (5) CISCO-Linux-KVM-Nexus-Dashboard- (6)

  • Click the Edit button next to the first node.
    די נאָדע'ס סעריע נומער, פאַרוואַלטונג נעץ אינפֿאָרמאַציע, און טיפּ ווערן אויטאָמאַטיש באַפעלקערט, אָבער איר מוזט צושטעלן אַנדערע אינפֿאָרמאַציע.
  • Provide the Name for the node.
    The node’s Name will be set as its hostname, so it must follow the RFC-1123 requirements.
  • From the Type dropdown, select Primary.
    די ערשטע 3 נאָודז פון דעם קלאַסטער מוזן זיין געשטעלט צו פּריימערי. איר וועט צולייגן די צווייטיקע נאָודז אין אַ שפּעטערדיקן שריט אויב נייטיק צו געבן מעגלעכקייט צו קאָהאָסטינג פון סערוויסעס און העכערן וואָג.
  • In the Data Network area, provide the node’s Data Network information.
    You must provide the data network IP address, netmask, and gateway. Optionally, you can also provide the VLAN ID for the network. For most deployments, you can leave the VLAN ID field blank.
    If you had enabled IPv6 functionality in a previous screen, you must also provide the IPv6 address, netmask, and gateway.
    באַמערקונג
    If you want to provide IPv6 information, you must do it during cluster bootstrap process. To change IP configuration later, you would need to redeploy the cluster.
    All nodes in the cluster must be configured with either only IPv4, only IPv6, or dual stack IPv4/IPv6.
  • (Optional) If your cluster is deployed in L3 HA mode, Enable BGP for the data network.
    BGP configuration is required for the Persistent IPs feature used by some services, such as Insights and Fabric Controller. This feature is described in more detail in Prerequisites and Guidelines and the “Persistent IP Addresses” sections of the Cisco Nexus Dashboard User Guide.
    באַמערקונג
    You can enable BGP at this time or in the Nexus Dashboard GUI after the cluster is deployed.
    If you choose to enable BGP, you must also provide the following information:
  • ASN (BGP Autonomous System Number) of this node.
    You can configure the same ASN for all nodes or a different ASN per node.
  • For pure IPv6, the Router ID of this node.
    The router ID must be an IPv4 address, for example 1.1.1.1
  • BGP Peer Details, which includes the peer’s IPv4 or IPv6 address and peer’s ASN.
  • דריקט היט צו ראַטעווען די ענדערונגען.

שריט 13
In the Node Details screen, click Add Node to add the second node to the cluster.
If you are deploying a single-node cluster, skip this step. CISCO-Linux-KVM-Nexus-Dashboard- (5)CISCO-Linux-KVM-Nexus-Dashboard- (6)

  • In the Deployment Details area, provide the Management IP Address and Password for the second node You defined the management network information and the password during the initial node configuration steps.
  • Click Validate to verify connectivity to the node.
    The node’s Serial Number and the Management Network information are automatically populated after connectivity is validated.
  • Provide the Name for the node.
  • From the Type dropdown, select Primary.
    די ערשטע 3 נאָודז פון דעם קלאַסטער מוזן זיין געשטעלט צו פּריימערי. איר וועט צולייגן די צווייטיקע נאָודז אין אַ שפּעטערדיקן שריט אויב נייטיק צו געבן מעגלעכקייט צו קאָהאָסטינג פון סערוויסעס און העכערן וואָג.
  • In the Data Network area, provide the node’s Data Network information.
    You must provide the data network IP address, netmask, and gateway. Optionally, you can also provide the VLAN ID for the network. For most deployments, you can leave the VLAN ID field blank.
    If you had enabled IPv6 functionality in a previous screen, you must also provide the IPv6 address, netmask, and gateway.
    באַמערקונג
    If you want to provide IPv6 information, you must do it during cluster bootstrap process. To change IP configuration later, you would need to redeploy the cluster.
    All nodes in the cluster must be configured with either only IPv4, only IPv6, or dual stack IPv4/IPv6.
  • (Optional) If your cluster is deployed in L3 HA mode, Enable BGP for the data network.
    BGP configuration is required for the Persistent IPs feature used by some services, such as Insights and Fabric Controller. This feature is described in more detail in Prerequisites and Guidelines and the “Persistent IP Addresses” sections of the Cisco Nexus Dashboard User Guide.
    באַמערקונג
    You can enable BGP at this time or in the Nexus Dashboard GUI after the cluster is deployed.
    If you choose to enable BGP, you must also provide the following information:
  • ASN (BGP Autonomous System Number) of this node.
    You can configure the same ASN for all nodes or a different ASN per node.
  • For pure IPv6, the Router ID of this node.
    The router ID must be an IPv4 address, for example 1.1.1.1
  • BGP Peer Details, which includes the peer’s IPv4 or IPv6 address and peer’s ASN.
  • דריקט היט צו ראַטעווען די ענדערונגען.
  • Repeat this step for the final (third) primary node of the cluster.

שריט 14
In the Node Details page, verify the provided information and click Next to continue.
CISCO-Linux-KVM-Nexus-Dashboard- (8)שריט 15
Choose the Deployment Mode for the cluster.

  • Choose the services you want to enable.
    פאר ווערסיע 3.1(1), האט איר געדארפט אראפלאדן און אינסטאלירן יחידישע סערוויסעס נאכדעם וואס די ערשטע קלאסטער דיפלוימענט איז געווען פארענדיגט. יעצט קענט איר אויסקלויבן צו אקטיוויזירן די סערוויסעס בעת די ערשטע אינסטאלאציע.
    באַמערקונג
    Depending on the number of nodes in the cluster, some services or cohosting scenarios may not be supported. If you are unable to choose the desired number of services, click Back and ensure that you have provided enough secondary nodes in the previous step.
  • Click Add Persistent Service IPs/Pools to provide one or more persistent IPs required by Insights or Fabric Controller services.
    פֿאַר מער אינפֿאָרמאַציע וועגן פּערסיסטענט IPs, זען די פּרירעקוויזיטן און גיידליינז אָפּטייל.
  • דריקט ווייַטער צו פאָרזעצן.

שריט 16
אין דעם "Summary" עקראַן, רעview און באשטעטיגט די קאנפיגוראציע אינפארמאציע און דריקט אויף "שפּאָרן" צו בויען דעם קלאַסטער.
בעת דעם נאָוד בוטסטראַפּ און קלאַסטער ברענג-אַפּ, וועט דער אַלגעמיינער פּראָגרעס, ווי אויך יעדן נאָוד'ס יחיד פּראָגרעס, ווערן געוויזן אין דער באַניצער צובינד. אויב איר זעט נישט דעם בוטסטראַפּ פּראָגרעס, ריפרעש מאַנועל די בלאַט אין אייער בלעטערער צו דערהייַנטיקן דעם סטאַטוס.
עס קען נעמען ביז 30 מינוט פארן קלאסטער זיך צו פארמירן און אלע סערוויסעס זיך אנצוהייבן. ווען די קלאסטער קאנפיגוראציע איז פארטיג, וועט די בלאט זיך איבערלאדן צום נעקסוס דעשבאָרד גרפי.איי.

שריט 17
באַשטעטיקן אַז דער קלאַסטער איז געזונט.
עס קען נעמען ביז 30 מינוט פארן קלאסטער זיך צו פארמירן און אלע סערוויסעס צו אנהייבן.
After the cluster becomes available, you can access it by browsing to any one of your nodes’ management IP addresses.
The default password for the adminuser is the same as the rescue-userpassword you chose for the first node. During this time, the UI will display a banner at the top stating “Service Installation is in progress, Nexus Dashboard configuration tasks are currently disabled”:CISCO-Linux-KVM-Nexus-Dashboard- (3)

נאכדעם וואס אלע קלאסטער זענען דעפלויד און אלע סערוויסעס זענען אנגעהויבן, קענט איר קאנטראלירן די איבערview בלאַט צו זיכער מאַכן אַז דער קלאַסטער איז געזונט:

CISCO-Linux-KVM-Nexus-Dashboard- (10)

אדער, קענט איר זיך אריינלאגירן צו יעדן נאָוד דורך SSH אלס דער רעסקיו-יוזער ניצנדיג דעם פּאַראָל וואָס איר האָט צוגעשטעלט בעת נאָוד דיפּלוימאַנט און ניצנדיג דעם acs health באַפֿעל צו קאָנטראָלירן דעם סטאַטוס::

  • While the cluster is converging, you may see the following outputs:
    • $ acs געזונט
  • k8s אינסטאַלאַציע איז אין פּראָגרעס
    • $ acs געזונט
  • k8s services not in desired state – […]
    • $ acs געזונט
    • k8s: Etcd cluster is not ready
  • When the cluster is up and running, the following output will be displayed:
    • $ acs געזונט
  • All components are healthy

באַמערקונג
In some situations, you might power cycle a node (power it off and then back on) and find it stuck in this stage:
deploy base system services
This is due to an issue with etcd on the node after a reboot of the pND (Physical Nexus Dashboard) cluster. To resolve the issue, enter the acs reboot clean command on the affected node.

שריט 18
נאכדעם וואס איר האט דעפלויד אייער נעקסוס דעשבאָרד און סערוויסעס, קענט איר קאָנפיגורירן יעדן סערוויס ווי באשריבן אין זיינע קאָנפיגוראַציע און אָפּעראַציעס אַרטיקלען.

  • For Fabric Controller, see the NDFC persona configuration white paper and documentation library.
  • For Orchestrator, see the documentation page.
  • For Insights, see the documentation library.

FAQ

What are the deployment requirements for Nexus Dashboard in Linux KVM?

The deployment requires libvirt version 4.5.0-23.el7_7.1.x86_64 and Nexus Dashboard version 8.0.0.

How can I verify I/O latency for the deployment?

To verify I/O latency, create a test directory, run the specified command using fio, and confirm that the latency is below 20ms.

דאָקומענטן / רעסאָורסעס

סיסקאָ לינוקס קיו-עם-עם נעקסוס דאַשבאָרד [pdf] אינסטרוקציעס
לינוקס KVM נעקסוס דאַשבאָרד, KVM נעקסוס דאַשבאָרד, נעקסוס דאַשבאָרד

רעפערענצן

לאָזן אַ באַמערקונג

דיין בליצפּאָסט אַדרעס וועט נישט זיין ארויס. פארלאנגט פעלדער זענען אנגעצייכנט *