Aller au contenu

Installation HP GEN8 - ESXI 6.5U1 + VM DSM 6.2.2


mprinfo

Messages recommandés

Ça va pas être simple pour esxi 7

A priori la b120i ne peut fonctionner qu'en ahci. Pas de pilote pour le mode raid

Le problème avec le mode ahci c'est que les performances sont un peu moins bonnes

Envoyé de mon BLA-L29 en utilisant Tapatalk

  • Like 1
Lien vers le commentaire
Partager sur d’autres sites

Bon c pas l'effondrement question vitesse, 33% de moins, si on n'utilise pas son serveur pour du montage vidéo ça devrait aller non ?

When testing the performance of the Sandisk Pro SSD with ESXi 7.0 I get the following
1000000+0 records in
1000000+0 records out

real    3m 17.07s
user    0m 11.89s
sys     0m 0.00s

On the Samsung EVO850 SSD datastore with ESXi 6.7U3 using the downgraded HPSVA Driver connected to SATA5:
1000000+0 records in
1000000+0 records out
real    2m 3.58s
user    0m 9.64s
sys     0m 0.00s

Whilst it's not an apples for apples comparison the ESXi 6.7U3 install with the downgrade HPVSA driver does appear to be quite a bit faster than the ESXi 7.0 using AHCI.

Given that it seems no longer possible to use the B120i with a downgrade driver it looks like the only way to get decent performance out of ESXi 7.0 might be with a compatible external disk controller.

et question contrôleur compatible tu as une idée @mprinfo ?

Lien vers le commentaire
Partager sur d’autres sites

@sebcbien heureux de te revoir ici

 

Tu as mis en marche ton gen8 ?

 

Alors la je ne peux répondre j'ai fais la mise à jour esxi 6.7u3 il y a peu

 

Ça ne fait pas très longtemps que je sais que esxi 7 est sorti

 

 

 

Envoyé de mon BLA-L29 en utilisant Tapatalk

 

 

 

 

Lien vers le commentaire
Partager sur d’autres sites

lol, non, toujours neuf sur l'étagère.

Me suis acheté un DS 718+ et je fais tourner des Docker, dont PiHole et Home Assistant... ça consomme rien et ça marche, donc lancer un truc de 100W en plus pour rien, pour le moment, pas d'utilité.

Et Xpeno, trop de chipo a mon sens, trop de risque pour un truc qui stocke mes données.

Mais une install "propre" en esxi 7 sans chipos de drivers etc, why not...  :-)

Lien vers le commentaire
Partager sur d’autres sites

un bundle mis a disposition par hp

https://support.hpe.com/hpsc/swd/public/detail?swItemId=MTX-702d3c7d8c4546a3b27d1458b5#tab1

 

Par exemple un peu installer ssacli qui permet d'avoir un controle sur la B120i

 

blog a lire pour l'installation

 

https://blog.ndk.name/manage-hpe-smart-array-in-vmware-esxi/

 

voici les commandes que l'on peut lancer pour manager la carte B120i

HPE SMART ARRAY CLI COMMANDS ON ESXI
Last Update: 12.03.2018

Show configuration
ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl all show config
ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl all show config

Controller status
ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl all show status
ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl all show status

Show detailed controller information for all controllers
ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl all show detail
ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl all show detail

Show detailed controller information for controller in slot 0
ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 show detail
ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 show detail

Rescan for New Devices
ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli rescan
ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli rescan

Physical disk status
ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 pd all show status
ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 pd all show status

Show detailed physical disk information
ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 pd all show detail
ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 pd all show detail

Logical disk status
ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 ld all show status
ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 ld all show status

View Detailed Logical Drive Status
ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 ld 2 show
ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 ld 2 show

Create New RAID 0 Logical Drive
ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 create type=ld drives=1I:1:2 raid=0
ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 create type=ld drives=1I:1:2 raid=0

Create New RAID 1 Logical Drive
ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 create type=ld drives=1I:1:1,1I:1:2 raid=1
ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 create type=ld drives=1I:1:1,1I:1:2 raid=1

Create New RAID 5 Logical Drive
ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 create type=ld drives=1I:1:1,1I:1:2,2I:1:6,2I:1:7,2I:1:8 raid=5
ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 create type=ld drives=1I:1:1,1I:1:2,2I:1:6,2I:1:7,2I:1:8 raid=5

Delete Logical Drive
ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 ld 2 delete
ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 ld 2 delete

Add New Physical Drive to Logical Volume
ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 ld 2 add drives=2I:1:6,2I:1:7
ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 ld 2 add drives=2I:1:6,2I:1:7

Add Spare Disks
ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 array all add spares=2I:1:6,2I:1:7
ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 array all add spares=2I:1:6,2I:1:7

Enable Drive Write Cache
ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 modify dwc=enable
ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 modify dwc=enable

Disable Drive Write Cache
ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 modify dwc=disable
ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 modify dwc=disable

Erase Physical Drive
ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 pd 2I:1:6 modify erase
ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 pd 2I:1:6 modify erase

Turn on Blink Physical Disk LED
ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 ld 2 modify led=on
ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 ld 2 modify led=on

Turn off Blink Physical Disk LED
ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 ld 2 modify led=off
ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 ld 2 modify led=off

Modify smart array cache read and write ratio (cacheratio=readratio/writeratio)
ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 modify cacheratio=100/0
ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 modify cacheratio=100/0

Enable smart array write cache when no battery is present (No-Battery Write Cache option)
ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 modify nbwc=enable
ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 modify nbwc=enable

Disable smart array cache for certain Logical Volume
ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 logicaldrive 1 modify arrayaccelerator=disable
ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 logicaldrive 1 modify arrayaccelerator=disable

Enable smart array cache for certain Logical Volume
ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 logicaldrive 1 modify arrayaccelerator=enable
ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 logicaldrive 1 modify arrayaccelerator=enable

Enable SSD Smart Path
ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 array a modify ssdsmartpath=enable
ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 array a modify ssdsmartpath=enable

Disable SSD Smart Path
ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 array a modify ssdsmartpath=disable
ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 array a modify ssdsmartpath=disable

@lazer je te donne les commandes pour ESXI 5.5 :D

 

 

 

 

 

 

Comment surveiller la configuration HP Smart Array sur un hôte VMware ESXi

 

la c'est pour les barbues

 

https://eliph.klinikum.uni-heidelberg.de/archive/935/how-to-monitor-the-hp-smart-array-configuration-on-an-vmware-esxi-host

Lien vers le commentaire
Partager sur d’autres sites

Mais mais mais mais... que se passe-t-il ?

Cette vidéo est en anglais !!!

 

PS : Google connait mes préférences (mieux que moi-même parfois :unsure:), il m'a déjà proposé cette vidéo lors de sa publication ;)

 

  • Like 1
Lien vers le commentaire
Partager sur d’autres sites

une question me taraude.

j'ai monté mon gen8 avec esxi 6.7, mes disques en RDM et rattachés directement à ma VM xpenology.

pour suivre l'état de santé SMART des disques, vous avez une solution de monitoring ? hormis via l'interface très succincte de la console.

j'ai vu passer une version de smartctl compilé en vib pour esxi. mais ca date un peu.

vous utilisez quoi ?

Lien vers le commentaire
Partager sur d’autres sites

Si tu as configuré le contrôleur b120i en mode RAID, il ne laisse pas remonter les infos SMART.
Donc tu ne peux rien faire.

 

De toute façon le SMART ça ne sert à rien quand tu tiens à tes données, puisque tu fais des sauvegardes.... c'est encore la meilleure chose à faire pour sécuriser.

  • Like 1
Lien vers le commentaire
Partager sur d’autres sites

  • 2 semaines après...

Synology DSM 623 - Synology DSM 6.2.3 (v2) et mises à jour d'applications en cascade...

 

Synology DSM 6.2.3 (v2) et mises à jour d’applications en cascade…

https://www.cachem.fr/synology-dsm-6-2-3-applications/

 


 
 
(2020-05-13)

Important Note

  1. The update is expected to be available for all regions within the next few weeks, although the time of release in each region may vary slightly. If you want to update to the latest version now, please go to Download Center and manually update your DSM.
  2. This update includes fixes to the below issues mentioned in 6.2.3-25423.
    • Fixed the issue where the automatic mounting of encrypted shared folders might result in the loss of indexing rules and the failure of the search function.
    • Fixed the issue where the Synology NAS equipped with NVMe device might be woken up from hibernation by the update of NVMe device's health status cache.
  3. This update will restart your Synology NAS.
  4. Removed the support for Google Cloud Print in DSM 6.2.3 and above.
  5. To avoid the interruption of iSCSI service, the automatic DSM update and your power schedule to shut down may not be executed as expected if there are any active iSCSI sessions.
  6. Removed TWNIC from the list of DDNS service providers on DSM 6.2.3 since TWNIC will stop accepting new registrations for DSM as of Jul. 1, 2020. Your current TWNIC DDNS services can still be used and edited but will not be available again once deleted from DSM.
  7. This is the last major DSM version (6.2) that supports the video conversion to .flv and MPEG-4 Part 2 on certain models (RS814, RS214, DS414, DS414slim, DS414j, DS216se, DS215j, DS214+, DS214, DS214se, DS213j, DS120j, DS119j, DS115, DS115j, and DS114) in consideration of the termination of Adobe's support for Flash Player by the end of 2020.

What's New in DSM 6.2.3

  1. Thin Provisioning LUN will become protected upon insufficient volume space, preventing clients from writing data to the LUN while allowing read-only access to the existing data.
  2. Added support for domain users to sign in to DSM using a UPN (user principal name) via file protocols (including SMB, AFP, FTP, and WebDAV).
  3. Added support for the option of forcing password changes for importing local users.
  4. Enhanced the compatibility of the imported user list, providing clearer error messages when the imported file contains syntax errors.
  5. Added support to record only the events of SMB transfer selected by the user, providing transfer logs that meet the requirements more closely.
  6. Added support for client users to monitor the changes of subdirectories under shared folders via SMB protocol.
  7. Added details of desktop notifications to facilitate users' timely responses.
  8. Added support for external UDF file system devices.
  9. Added support for the Open vSwitch option in a high-availability cluster.
  10. Added support for IP conflict detection, providing logs and notifications accordingly.
  11. Added support for Let's Encrypt wildcard certificates for Synology DDNS.
  12. Added support to waive the need of DSM login again through an HTTPS connection after a change in client's IP address.
  13. Added support for hardware-assisted locking for Thick Provisioning LUN on an ext4 volume.
  14. Added support for customized footer message on DSM login pages.

Fixed Issues

  1. Fixed the issue where certain cities might be mapped to incorrect time zones.
  2. Fixed the issue where LDAP users could not be notified of the upcoming password expiration.
  3. Fixed the issue where the upload of LDAP certificate could not overwrite the original one with the same file name.
  4. Fixed the issue where the application permissions settings might not be applied properly to the Domain Users group when such group in Windows AD domain was named other than "Domain Users".
  5. Fixed the issue of inaccurate time of usage history in Resource Monitor.
  6. Improved system responsiveness by reducing the latency of the Btrfs file system in certain scenarios.
  7. Fixed the issue where SNMP did not provide the indices of Disk and RAID correctly.
  8. Fixed the issue where the recycle bin of an encrypted shared folder might not be emptied properly.
  9. Enhanced the DSM login performance for multiple concurrent logins.
  10. Adjusted the personal notification mechanism to comply with the latest Gmail API.
  11. Fixed the issue where the iSCSI service might be interrupted when the LUN backup task is stopped.
  12. Removed the function of expanding the capacity of a block LUN.

Known Issues & Limitations

  1. Access to DSM via HTTPS using Google Chrome on a client device running macOS 10.15 might fail after a DSM update from an older version.
  2. To run Centralized Management System (CMS) on Surveillance Station after updating to DSM 6.2.3-25426, Surveillance Station 8.2.7 or above is required.
Lien vers le commentaire
Partager sur d’autres sites

Le 29/04/2020 à 16:46, mprinfo a dit :

Mise a jour 6.2.3-25423 ok sur mon DSM de test mais on voit le boolloader

 

A lire pour ceux qui utilisent des drivers Extension : https://xpenology.com/forum/topic/21663-driver-extension-jun-103b104b-for-dsm622-for-3615xs-3617xs-918/

 

aa.jpg.7cf631789186c695a2ff80b83c55e486.jpg

 

ATTENTION AVANT DE FAIRE LE MISE A JOUR BIEN LIRE CE TOPIC

 

https://xpenology.com/forum/topic/28183-running-623-on-esxi-synoboot-is-broken-fix-available/

 

Voici la traduction

 

  1. Lors de l'exécution de DSM 6.2.3 sous ESXi, les chargeurs de démarrage 1.03b et 1.04b de Jun ne parviennent pas à créer / dev / synoboot
    (cela peut être résolu en installant un script extrait du chargeur pour le réexécuter une fois le démarrage terminé)
  2. DSM 6.2.3 affiche les périphériques SATA (c'est-à-dire le chargeur de démarrage sur 1.04b) qui sont mappés au-delà de la limite MaxDisks lorsque les versions précédentes ne
  3. DSM 6.2.3 met à jour les masques de bits du port de disque synoinfo.cfg qui peuvent casser certains tableaux à nombre de disques élevé et provoquer un comportement étrange avec le périphérique du chargeur de démarrage

 

Contexte:

 

La définition du PID / VID pour une installation baremetal permet au chargeur de Jun de prétendre que la clé USB est un véritable chargeur flash Synology. Sur une installation ESXi, il n'y a pas de clé USB - à la place, le chargeur exécute un script pour trouver son propre périphérique de démarrage, puis le refait en tant que / dev / synoboot. C'était très fiable sur 6.1.x et le chargeur 1.02b de Jun. Mais en passant à DSM 6.2.x et aux chargeurs 1.03b et 1.04b, il y a des circonstances où / dev / synoboot est créé et le périphérique de démarrage d'origine n'est pas supprimé. Le résultat est que parfois le périphérique de chargement est visible dans Storage Manager. Quelqu'un a découvert que si le contrôleur était mappé au-delà du nombre maximal de périphériques de disque (MaxDisks), tout périphérique de démarrage / dev / sd errant était supprimé. L'ajustement de DiskIdxMap est devenu un autre moyen de "masquer" le périphérique de chargement sur ESXi et Jun '

 

Maintenant, DSM 6.2.3: la mise à niveau modifie au moins deux comportements DSM fondamentaux:

  1. Les périphériques SATA qui sont mappés au-delà de la limite MaxDisks ne sont plus supprimés, y compris le chargeur (apparaissant comme / dev / sdm si DiskIdxMap est défini sur 0C)
  2. Les masques de configuration de port de disque sont réécrits  dans synoinfo.conf: internalportcfg, usbportcfg et esataportcfg et sur 1.04b, ne correspondent plus avec MaxDisks par défaut = 16. REMARQUE: Si vous avez plus de 12 disques, cela cassera probablement votre baie et vous devrez les modifier à nouveau (et ce n'est pas seulement un problème ESXi)!

De plus, lors de l'exécution sous ESXi, DSM 6.2.3 interrompt le script de synoboot du chargeur de Jun de sorte que / dev / synoboot n'est pas créé du tout . Impacts négatifs:

  1. Le périphérique de chargement peut être accidentellement configuré dans Storage Manager, ce qui entraînera une panne du système
  2. Les partitions du chargeur peuvent être mappées par inadvertance en tant que dossiers USB ou eSata dans File Station et être endommagées
  3. L'absence de périphériques / dev / synoboot peut entraîner l'échec des futures mises à niveau, lorsque la mise à niveau souhaite modifier rd.gz dans le chargeur

Le déballage du script synoboot de Jun révèle qu'il récolte les nœuds de périphérique, supprime complètement les périphériques et les refaits en / dev / synoboot. Il essaie d'identifier le périphérique de démarrage en recherchant une partition plus petite que la plus petite partition de baie autorisée. C'est une stratégie ambiguë pour identifier le périphérique, et quelque chose de nouveau dans 6.2.3 le fait échouer lors de l'état initial du système de démarrage. Il existe quelques options de configuration technique qui peuvent amener le script à sélectionner le bon périphérique, mais elles sont difficiles et dépendent de la version du chargeur, de la plate-forme DSM et du démarrage BIOS / EFI.

 

Cependant, si le script de Jun est réexécuté après le démarrage complet du système, tout est comme il se doit. Extraire le script du chargeur et l'ajouter aux actions post-démarrage est donc une solution universelle à ce problème:

  1. Téléchargez le script FixSynoboot.sh ci-joint
  2. Copiez le fichier dans /usr/local/etc/rc.d
  3. chmod 0755 /usr/local/etc/rc.d/FixSynoboot.sh

Ainsi, le propre code de Jun sera réexécuté après le démarrage initial après que les paramètres d'initialisation du système qui interrompent la première exécution du script ne s'appliquent plus. Cette solution fonctionne avec 1.03b ou 1.04b et est simple à installer. Cela devrait être considéré comme requis pour ESXi exécutant 6.2.3, et cela ne nuira à rien s'il est installé ou porté vers un autre environnement.

 

Lien vers le commentaire
Partager sur d’autres sites

  • 2 semaines après...
Le 29/04/2020 à 23:52, sebcbien a dit :

lol, non, toujours neuf sur l'étagère.

Me suis acheté un DS 718+ et je fais tourner des Docker, dont PiHole et Home Assistant... ça consomme rien et ça marche, donc lancer un truc de 100W en plus pour rien, pour le moment, pas d'utilité.

Et Xpeno, trop de chipo a mon sens, trop de risque pour un truc qui stocke mes données.

Mais une install "propre" en esxi 7 sans chipos de drivers etc, why not...  :-)

Salut les gars...

Bon, mon syno 718+ ... ca va bien j'ai mis HASS dessus avec docker et 4-5 autres containers qui vont avec (nodejs, mariadb etc..) J'ai aussi installé pihole dans un docker.

Tout va bien tout va bien , mais à un certain moment, parfois, il se met à "ramer" les containers deviennent lents malgré que le CPU et les disques ne sont pas fort sollicités.

Par exemple, si je regarde un film hébergé sur le syno (file sharing, pas de transcodage) .... bah après 1/2h j'ai mes Docker qui n'avancent plus, ca revient à la normale 1/2h après la fin du film.

Ou par exemple si surveillance station a "du boulôt"

 

Donc, bon, ben, bref, je regarde de nouveau mon Gen8 avec amour ;)

 

Je suis quasi parti pour installer Proxmox et open media vault 5. + une autre VM pour faire tourner mes docker (ou les faire tourner dans OMV) + une VM pour Jeedom

- avantage: j'ai une "couche" qui me permet de faire des snapshots/backups de mes VM pour les upgrades

- inconvénient: perte de perfs si j'ainstalle OMV directement.

 

Ou open media vault en bare metal et faire tourner mes docker et VM dedans (via cockpit et portainer)

J'aime bien:

- c'est une Debian, pas de chipos de drivers raid exotiques à la ESXI, des upgrades qui font pas planter le système si on a pas lu 200 pages de forum avant pour savoir si ça va pas péter etc...

- c'est open source, ca développe à vitesse grand V

- on peut quasi TOUT faire tourner dessus

 

Est-ce que vous auriez des reproches à faire à cette solution ?

 

Merrrrciiii :-)

Lien vers le commentaire
Partager sur d’autres sites

×
×
  • Créer...