Aller au contenu

Messages recommandés

Posté(e)

Oui tu as absolument raison mais c'est l'image que j'avais utilisé pour esxi 6.5

Je n'ai eu aucun soucis sauf pour le hpvsa

Par contre la version esxi 6.7u1 n'est pas vraiment compatible gen8 j'ai eu des messages d'avertissement pour des problèmes de sécurité avec cpu intel

Il faut que je regarde cela de plus prêts 

Posté(e) (modifié)

Trouvé :)

 

Donc pas de support du Gen8 avec ESXi 6.7.... à tes risques et périls !

 

 

image.thumb.png.0c040202c197edb4ac3182f84e7aa791.png

 

 

EDIT :

 

Et sur ce lien :

 

 

On voir que le LAST Pre-Gen9 est la version 6.5 U2

 

image.png.4676edf5c20a642d6e49880a3e9420cb.png

 

Modifié par Lazer
Posté(e)
type : Micrologiciel - Lights-Out Management
Version : 2.61(a)(20 sept. 2018)
Système(s) d'exploitation :
Microsoft Windows Server 2008 R2 | Tout afficher
Nom de fichier : cp037603.exe (13 MB)

 

https://support.hpe.com/hpsc/swd/public/detail?sp4ts.oid=1009143853&swItemId=MTX_4772eb715cb842acbb03a6707e&swEnvOid=4184

 

  • Like 1
Posté(e)

Mise a jour du bios pour microserveur HP GEN8

 

ProLiant MicroServer Gen8 (J06) Server BIOS 2018.01.22 (5 Mar 2018)

 

https://support.hpe.com/hpsc/swd/public/detail?sp4ts.oid=5390291&swItemId=MTX_c9a347de9ded465088b735c472&swEnvOid=4184

 

 

Type : BIOS (Entitlement Required) - ROM système
Version : 2018.05.21(A)(6 juil. 2018)
Système(s) d'exploitation :
Microsoft Windows HPC Server 2008 R2
Nom de fichier : SP99339.exe (3.8 MB)

 

 

 

bios.jpg.5a5daed2d1ecf2ecee09bcf78b799f8c.jpg

1058049019_bios1.jpg.a38b694227814862a9e61bc70033be76.jpg

  • Like 1
Posté(e)

Merci, j'ai installé ILO sans souci.

 

Pour le BIOS, je vais attendre, ça nécessite un reboot.
Si je comprends bien, ça semble être le BIOS correctif des failles Meltdown & Spectre de cet hiver... du coup j'hésite, si ça ralenti les performances comme tous les autres PC et serveurs, je vais peut être m'abstenir, et vivre dans le danger...

Posté(e)

@lazer merci pour cette info

 

j'ai mis a jour mon GEN8 de sauvegarde, pour celui qui tourne sous ESXI 6.7U1 je vais faire comme toi ne pas mettre le bios a jour

Posté(e)
Le 27/10/2018 à 09:51, mprinfo a dit :

@lazer merci pour cette info

 

j'ai mis a jour mon GEN8 de sauvegarde, pour celui qui tourne sous ESXI 6.7U1 je vais faire comme toi ne pas mettre le bios a jour

Bonjour @mprinfo

j'ai aussi mis exsi 6.7 sauf que ma buyild est

j'ai de gros ralentissement voir un debit catastrophique en ethernet, j'ai downgrader les drivers via un de test posts , mais ce n'était peut etre pas adapter car apparemment j'avais deja ce drivers :(

y a t il un drivers spécifique pour exsi xpenology sur le gen8? j'ai dsm 6.1 et c'est lent, je suis pourtant en e1000 les cables sont en cat7, switch gigabit etc... 

si tu peux m'orienter pour trouver le probleme, deja des heures que je passe dessus sans m'en sortir

  esxcli system maintenanceMode set --enable true
    esxcli network firewall ruleset set -e true -r httpClient
    cd /tmp
    wget http://downloads.hpe.com/pub/softlib2/software1/pubsw-linux/p1749737361/v98767/hpvsa-5.5.0-88.zip
    unzip hpvsa-5.5.0-88.zip
    cp scsi-hpvsa-5.5.0-88OEM.550.0.0.1331820.x86_64.vib /var/log/vmware/
    esxcli software vib remove -n scsi-hpvsa -f
    esxcli software vib install -v file:scsi-hpvsa-5.5.0-88OEM.550.0.0.1331820.x86_64.vib --force --no-sig-check --maintenance-mode
    esxcli system module set --enabled=false --module=vmw_ahci
    reboot 
Posté(e)

salut

Non aucun soucis je tourne entre 80 à 120Mo/s

j'ai juste installer le fichier HPVESA 5.5.0-88 en SSH

regarde bien si tu as bien cette version dans ton interface ESXi

car les problèmes de ralentissement sous ESXI sont dues au pilotes HPVESA

Pour DSM il est préférable d'utiliser la carte réseau E1000E qui assure une meilleure compatibilité

Posté(e)
il y a 53 minutes, mprinfo a dit :

Pour DSM il est préférable d'utiliser la car réseau E1000E qui assure une meilleure compatibilité

Merci pour le conseil.

Pour me SynoTest et SynoBackupp, j'ai mis cette car réseau et j'ai l'impression que l'interface est plus fluide (ou c'est psuchologique ?)

Par principe, j'attendrai quelque jour pour passer SynoMain

Posté(e) (modifié)
Il y a 4 heures, mprinfo a dit :

@jojo je peux te dire mais je sais qu'avec la version 6.2.1 c'est la seule qui fonctionne

 

mes vms ne demarre plus depuis le downgrade :(

j hesite a ecrite la 6.7 que tu donne et booter cette clef usb a moins que mon ssd a lacher :(

 

@mprinfoj'ai virer la clef usb reinstaller le meme exsi 6.7 que toi sur une nouvelle clef, downgrade le driver

je test des transfert en ethernet 10 mo/sec max.. je suis en cat7 partout, routeur gigabit, switch gigabit

j ai changer les cables etc... pas mieux je ne comprends

un de mes disques pourraot etre foireux?

Modifié par fred59190
Posté(e)

Bonjour tout le monde, 

bon j'ai vraiment merder, le volume raid est dégradé, volume 1 cassé,

j'arrive a acceder au fichiers après avoir réparé avec e2fsck, je suis en cours de sauvegarde de ce que je peux sauvegarder

 

je dois réinstaller dsm complétement après, j'ai bien lu le début du tutoriel

cependant je ne comprends pas un truc avant j'avais suivi le tuto de fredo et l'avais adapté à mon gen8

 

dans ta méthode @mprinfo tu ne passe pas par "ahci"? vu que tes disques sont en na...

j'étais en t10.....

sachant que je dois tout formater, recréer le volume raid, volume 1 etc...

et que je souhaite passé en shr+ brtfs 

quelle est la meilleur solution ? suivre le début de ton tuto avec les disques qui ne sont pas en ahci ? les monté via le controle hp ?

ou la methode ancienne du g7??

je suis déja dégue de devoir tout me retaper, autant avoir la bonne solution pour le départ

(3 jours que je galere )

merci d'avance

Posté(e)

comptes-tu passer par des VM ESXI, ou directement en natif comme @mprinfo ?

 

Moi je passe via ESXI, et voici comment j'ai fais

  1. créer dans le GEN8 des Array pour chaque disque
  2. puis les monter en RDM
  3. puis les associer à ta VM ESXI.

puis dans DSM, comme d'hab

 

ok où as-tu besoin de plus de détails ?

Posté(e)

salut @jojo

je compte remettre exsi, d ailleurs il va donc je l'utiliserai encore

le montage rdm je connais grace au tuto de fredo (pour le n54l)

l'histoire des array?? tu peux expliquer plus stp

car avant j utilisais en ahci apparemment ca n est plus conseiller les drm en t10....

Posté(e)

@jojo j'ai 1 gen8 en natif et 1 gen 8 sous esxi

 

pour repondre a la question il faut installé chaque disques en raid on fait 1 raid par disque attention il y a un ordre pour faire cela (le SSD, la baie 1 etc..)

on installe ESXI 6.5 ou 6.7 (attention 6.7 n'est pas certifier gen 8)

pour 6.5 on supprime le fichier HP et on installe une version plus ancien afin d'avoir un débit correct

    esxcli system maintenanceMode set --enable true
    esxcli network firewall ruleset set -e true -r httpClient
    cd /tmp
    wget http://downloads.hpe.com/pub/softlib2/software1/pubsw-linux/p1749737361/v98767/hpvsa-5.5.0-88.zip
    unzip hpvsa-5.5.0-88.zip
    cp scsi-hpvsa-5.5.0-88OEM.550.0.0.1331820.x86_64.vib /var/log/vmware/
    esxcli software vib remove -n scsi-hpvsa -f
    esxcli software vib install -v file:scsi-hpvsa-5.5.0-88OEM.550.0.0.1331820.x86_64.vib --force --no-sig-check --maintenance-mode
    esxcli system module set --enabled=false --module=vmw_ahci
    reboot 

pour esxi 6.7

    esxcli system maintenanceMode set --enable true
    esxcli network firewall ruleset set -e true -r httpClient
    cd /tmp
    wget http://downloads.hpe.com/pub/softlib2/software1/pubsw-linux/p1749737361/v98767/hpvsa-5.5.0-88.zip
    unzip hpvsa-5.5.0-88.zip
    cp scsi-hpvsa-5.5.0-88OEM.550.0.0.1331820.x86_64.vib /var/log/vmware/
    esxcli software vib install -v file:scsi-hpvsa-5.5.0-88OEM.550.0.0.1331820.x86_64.vib --force --no-sig-check --maintenance-mode
    esxcli system module set --enabled=false --module=vmw_ahci
    reboot 

il faut pour esxi des disques en raid et non en ahci

les disques en raid commence par naa.xxxxxxxxxxxxxxxxxxxxxxxxxxxx

on créé une vm pour dsm de préférence autres linux x64 et une carte réseau E1000E

on supprime tout les disques et le cd rom

on sauvegarde

on modifie pour ajouter le bootloader

on sauvegarde

on créé le rdm

vmkfstools -z /vmfs/devices/disks/naa.xxxxxxxxxxxxxxxx /vmfs/volumes/Datastore/ISO/Xpenology/RDM/BAIE_A_Disk_3TO.vmdk

on ajoute les disques ou le disque à la VM

On démarre la vm est on installe DSM

Posté(e) (modifié)

@mprinfo et @jojo merci beaucoup.

donc on fait gerer le raid au hp ce que je fesais pas avant :(

mais xpenology gere comment du coup?

il faut mettre en shr brtfs?

si on ajoute ou remplace un disque par un plus gros en ayant changer le rdm, dsm le prend en compte??

 

et pour le ssd il comptient deja mes datastore, si je l ajoute au raid ca risque de foirée ou l'effacer non?

 

 

 

j'ai lu ca sur un site: 

 

Donc pour réactiver le RAID SHR sur votre nouveau NAS DS3615xs, commencez par activer le service SSH dans Panneau de configuration puis Terminal & SNMP. Connectez-vous ensuite à votre NAS avec Putty (compte admin) et élevez les droits en root avec la commande sudo su - (mot de passe de admin) puis éditez le fichier de configuration du NAS avec vim (nano n'est pas installé sur DSM).

2138_35.jpg

vim /etc.defaults/synoinfo.conf

au dessus de la 18ème ligne intitulée supportphoto="yes" insérez cette ligne (appuyez sur la touche i pour passer en mode insertion) :

support_syno_hybrid_raid = "yes"

Descendez jusqu'à la partie Disk hibernation options est repérez la 295ème ligne intitulée supportraidgroup="yes". Commentez-la en ajoutant le symbole # devant.

Faites echap pour sortir du mode insertion et :wq pour enregistrer et quitter.

Modifié par fred59190
Posté(e)

Il est préférable d'utiliser le raid avec esxi est la carte sans b120i car risques de bugs

Pour le raid tu fais un raid 0 

Il faut en faire un par disque

Si tu veux faire une grappe raid tu le feras avec dsm raid logiciel

Posté(e)

Bonjour tout le monde,

je vais essayer de faire un vrai poste avec toutes mes questions ca sera peut etre plus facile.

 

apparemment il faut faire du raid0 si je comprends bien via le "array" de la carte b120i comme dans le tuto,

1/ si je monte le ssd qui contient des données est il formater? à savoir si je perds mon datastore actuel ?

après je monte les rdm ca ok

2 je monte la grappe sous dsm, ok et après je crée un volume shr ou brtfs? 

3/ comment cela ce passe t'il quand un disque dur déconne? même principe que le shr normale? pareil pour le remplacement par un disque plus grand? 

4/ j'utilise cloudstation qui est sur un autre nas (distant) qui lui à un système de fichier ext4 (n54l)

5/cloudstation aura t'il des difficultés à synchroniser les fichiers si 2 système de fichiers différents? en l’occurrence ext4 et brtfs? 

6/ pour le suivi des disques températures, smart etc? du coup on peut le faire sous ilo si monter via b120i? 

 

 

Posté(e)

1/ Si ton SSD était auparavant géré par une b120i en RAID 0, tu récupères le contenu, donc tu peut l'importer comme datastore existant.

Sinon, comme le contrôleur RAID ajoute un entête en début de disque, tu vas perdre la table de partitions, donc il faudra reformater ton disque pour l'utiliser comme un nouveau datastore.

 

2/ et 3/ Joker, je passe mon tour.

 

4/ Facile, ce n'est pas une question, donc pas de réponse !

 

5/ Aucun souci.

 

6/ On perd le monitoring SMART en passant par le contrôleur RAID b120i.

Je n'ai jamais réussi, même en ligne de commande sous ESXi avec les outils HPE, à accéder à ces informations.

Donc il faut se contenter du monitoring très limité accessible dans ILO.

Posté(e)

suivant les conseils de @Lazer, tous mes disques sont en RAID0 (= pas de protection des données).

Mais j'ai fait sur chacun d'eux un badblocks, et mis en place un système efficace de backup (local = sur un autre Syno virtuel de mon ESXI - et distant = sur un synode à 40 km)

Le shr est le RAIDx software de Syno.

Je te conseil de formater tes disques en bras, tu auras plus de souplesse (quota, ...)

 

×
×
  • Créer...