Aller au contenu

Messages recommandés

Posté(e)

Hello,

 

Juste un petit update pour ceux que ça intéresse:

 

Après la migration de Xpenology DSM5 de Physique en virtuel avec ESXi5.5, j'ai testé l'installation des Vmware open tools !

 

C'est hyper simple, oubliez les tutos avec install bootstrat optware ect... Ici pas de ligne de commande à  saisir !

 

- Depuis votre station ou vous avez vmware vsphere client et installé et ou vous avez accès à  Diskstation.

- Aller sur https://docs.google.com/file/d/0B5r1mhd7bBJxaUMtNnJpLWV4LTQ/edit et récupérez le fichier "open-vm-tools-bromolow-9.4.0-1280544-50.spk"

- Loggez-vous sur Diskstation

- allez dans "centre de paquet"

- choisissez "installation manuelle"

- naviguez pour retrouver le fichier .spk téléchargé précédemment

- installez le package.

c'est fait !

Pour vérifier que ça marche:

- lancez vmware vsphere client,

- click droit sur la VM xpenology

- dans le menu "alimentation", les choix "arrêter le client" et "redémarrer le client" ne sont plus grisés !

 

A+

Posté(e)

Principalement la possibilité d'éteindre proprement une VM depuis l'interface du vSphere Client, utile si tu veux arrêter rapidement ton serveur, ainsi on peut éteindre toutes les VM depuis un seul endroit, sans devoir faire le tour de chaque OS.

Posté(e)

Ouch :wacko:

 

J'étais en train de me préparer à  créer une nouvelle VM en complément de la VM Xpenologie, je lance vSphere client, au niveau du serveur (pas de la VM xpenologie), je vais dans configuration, storage, le click (ou double-click) sur le datastore, et la ça mouline, ça mouline... Je laisse mouliner, je passe à  autre chose et quelques minutes plus tard...

 

Je reçoit des mails d'alarme de ma VM Xpenologie: 

Dear user,

The hard disk 1 in the Disk Group on FifiDiskStation has failed; please replace it.

Sincerely,
Synology DiskStation

 

Pareil pour Disk 2, 3 et 4 !!! Et finalement Volume  has crashed  :(

 

J'éteint tout, je relance... pas mieux, Volume 1 has crashed et les disk failed.

 

Bizzarement VSphere plante aussi quand j'essai de créer une nouvelle VM par exemple  :angry:

 

J'arrive quand même à  accèder à  mes données... Je sauvegarde sur un autre disque réseau l'éssentiel.

J'éteint tout, je change ma clé usb de boot ESXi avec ma clé original Nanobot/Xpenologie....

 

Même topo, volume crashed et disks failed.... :o

 

Suis en train de supprimer le volume. Je sais plus quoi faire pour l'instant....

 

Mes 4 disques en pannes au même moment??? étrange

Je me demande si j'ai pas eu un conflit entre ESXi et les 4 disques en RDM de la VM Xpenologie? 

Je pense que c'est le fait d'avoir essayé d'accéder au DataStore (250Go sur un SSD branché sur le port sata interne) sous Vsphere qui à  tout planté.

 

Mais POURQUOI ???

 

Chuis dégouté, je vais me coucher!

Posté(e)

étrange....

il faudrait des logs pour analyser.

Que ce soit sous ESXi ou Xpenology, va faire un tour dans /var/log/

Aussi tu peux utiliser la commande "dmesg" pour voir les messages du noyau, en premier pour voir si il ne s'agit pas d'une erreur matérielle

Posté(e)

Je regarderai ça ce week end... 

Pour l'instant j'ai supprimé et recréé le volume sur xpenology en physique, avec verification des disques (je sais plus exactement comment l'option s'appelle). 3 disque sur 4 sont OK, mais le disque 2 indique "echec de partition systeme". 

 

En regardant de plus près les infos smart, ce disque à  un niveau de "Load Cycle count élevé (68 912). c'est un WD caviar green (j'en ai 2 en fait, les 2 autres sont des WD RED) et je crois qu'il y a une manip à  faire pour limiter le "parcage agressif des têtes". je vais voir comment faire ça avant de recharger mes données !

 

Une petite question au passage: avec xpenology en physique, je vois mes 4 disques de 3To des 4 baies principales, je vois la clé USB nanoboot, mais je vois pas mon SSD de 250Go ( celui avec le datastore ) branché sur le sata interne?? Et lors du plantage des disques de la VM Xpenology, vSphere n'arrivait pas à  parcourir le datastore.... Peut-etre aussi un problème avec le SSD???

 

Du coup je sais pas trop ce qui c'est passé... micro coupure qui a planté la partition systeme? conflit entre ESX et la VM sur les disque RDM? plantage ESX ou datastore? problème de load cycle count avec un WD green?

 

J'espère avoir plus d'info avec les logs, même si je sais pas trop comment les retrouver....

 

A+ 

Posté(e)

Essaye de booter sur un Live CD Linux, tu pourras diagnostiquer plus facilement quels sont les disques qui fonctionnent, en t'affranchissant des limites des OS comme ESX et DSM.

Un vrai Linux, avec des commandes comme fdisk, parted, hdparm, smartmontool, te permettras d'identifier les disques qui posent problème plus facilement, notamment le SSD (DSM ne le voit peutêtre pas car il ne reconnais pas la table de partition)

Posté(e)

J'ai essayé de regarder avec plein de truc, mais j'ai rien trouvé, ni dans les logs esx ni ceux de xpenology, pour expliquer le plantage.

J'ai vérifié avec ubcd et wdidle3 que le parcage des têtes est bien désactivé sur  mes WD green.

J'ai pas trouvé de problème non plus sur le SSD,

 

Alors j'ai réinitialisé le disque 2 celui qui indique "echec partition systeme" avec diskpart clean. j'ai remis ma clé ESXi et refait une installation clean de la VM xpenology.

La construction du volume et vérification deparité vient de se terminer,les 4 disques ok se coup-ci. pas d'echec de partition systeme.

J'ai mis l'update 5 tant que j'y étais, et installé les vmtools.

 

Maintenant avant de remettre toute mes données, je vais créer deux ou 3 autres VM (whs 2001, OSX, linux) pour voir si ça plante les disques à  nouveau.

 

Je croise les doigts pour l'instant, mais je garde bien mes sauvegardes !!

 

A+

Posté(e)

Bjr le forum.

 

J'ai un soucis j'ai un n54L avec bios modifié et dsm5 

j'ai actuellement 2x2T0 en SHR et je viens d'acheter 2X4T0 pour augmenter le volume et avoir au final 8T0 de libre et 4T0 de sauvegarde les 4T0 sont des WD RED

Je n'arrive pas à  les faire reconnaître par le N54L impossible il n'apparaisse pas dans dsm5.

 

Je ne sais plus quoi faire.

 

Cordialement.

Posté(e)

Bjr le forum.

 

J'ai un soucis j'ai un n54L avec bios modifié et dsm5 

j'ai actuellement 2x2T0 en SHR et je viens d'acheter 2X4T0 pour augmenter le volume et avoir au final 8T0 de libre et 4T0 de sauvegarde les 4T0 sont des WD RED

Je n'arrive pas à  les faire reconnaître par le N54L impossible il n'apparaisse pas dans dsm5.

 

Je ne sais plus quoi faire.

 

Cordialement.

Hello,

 

Quelle image de xpenology as-tu utilisé? Je crois que certaines image émule un NAS avec 2 baies uniquement. Chez moi avec synology assistant le

modèle détecté est DS3612xs, il reconnait bien les 4 baies.

 

A+

Posté(e)

Merci pour votre aide.

Lazer non je suis pas sous ESXi.

Mon image est bien celle ds3612xs.

J'ai essayer de mettre mes deux disques neuf jamais utilisé dans un boîtier externe pour les initialiser et les formater pour Windows mais c est impossible j ai un message erreur de redondance cyclique.

Je sais plus quoi faire.

Posté(e)

Ça sent pas bon... On dirait que les 2 disques sont morts.

Si tu as un PC, tu peux les brancher en SATA sur la carte mère et vérifier si ils sont bien reconnus par le BIOS. Ça doit aussi fonctionner avec le BIOS du N54L.

Si c'est bon, essaye de lire les infos SMART. Soit avec smartmontool sous Linux, ou un outil gratuit sous Windows.

Sinon, bah garantie ! Si tu as moins de 7 jours, remboursement direct.

PS : quand on veut mettre des disques en RAID, il faut toujours les acheter àdes endroits différents, sinon c'est le même série et tu as toutes les chances qu'ils tombent en panne en même temps, soit maintenant, soit plus tard.... Donc le Raid ne sert plus àrien !

Posté(e)

Laser merci pour toutes ces infos.

Mais le bios du n54l ne les reconnais pas et quand je les alimente par le boîtier externe un des disque ne tourne pas on dirait qu il ne s'alimente pas et l autre fait un bruit de grattage.

J ai contacté le vendeur et demandé soit un changement soit un remboursement.

Merci àvous je vous tiendrais au jus.

Posté(e)

Did, oui j'ai dà» rebooter mon neurone, ça va mieux maintenant :rolleyes:

 

En fait, c'est Tapatalk qui m'a fait des misères, il me disait qu'il y avait un problème de communication avec le serveur, alors j'ai cliqué frénétiquement sur le bouton Envoyer jusqu'à  ce que ça passe.... sauf que c'était bien passé les 2 premières fois. Enfin voilà ... -_-

Posté(e)

Hello,

 

encore merci pour ce tuto qui m'a permis de me lancer dans l'aventure !

C'est incroyable comment ça marche bien.

 

Je partais d'un Synology DS-106e qui n'était plus mis à  jour depuis bien longtemps.

Tout est plus rapide et la possibilité de monter des VMs est un vrai plus.

 

Bref, je suis content.

 

En ce moment je suis en train de monter un SSD pour remplacer mon disque Datastore.

La conception du boitier Proliant est tout simplement superbe. Ultra simple d'accès et de manipulation.

 

Là  où j'ai un petit doute : est-ce que, lors de la migration de mes VMs sur le nouveau disque, les disques en RDM suivent ?

Posté(e)

Merci pour ce retour :)

Je n'ai pas encore fait ma migration vers le SSD, mais je pense que les RDM seront repris.

Au pire, un coup de commande vmkfstool et c'est reparti.

Posté(e)

Rolalalalalalalalalala

 

Dans la console ESXi, je choisi l'option "déplacer" le répertoire "DISKSTATION" vers le nouveau disque SSD.

J'ai lu trop vite, j'avais compris copier.

J'ai du arrêter le Proliant en coupant le courant. La misère.

 

Il a essayé de copier le disque de 3Tera (lien RDM) dans le SSD de 120Go.

J'espère qu'il n'a pas supprimé de données de mon disque de données.

 

J'ai un fichier "WDC_WD30EFRX2D68EUZN0-rdmp.vmdk" de 42 Go (pas disque virtuel).

 

Il faut faire super gaffe avec le RDM.

 

Rolalalalalalalalala

Posté(e)

Ah oui .... le mapping RDM est un lien symbolique dans Linux, donc il a suivi le lien et copié le contenu au lieu de copier simplement l'information de lien.

Donc tu seras bon pour recréer le mapping RDM sur le SSD.

J'espère que tu n'as rien perdu...

Posté(e) (modifié)

Ah oui .... le mapping RDM est un lien symbolique dans Linux, donc il a suivi le lien et copié le contenu au lieu de copier simplement l'information de lien.

Donc tu seras bon pour recréer le mapping RDM sur le SSD.

J'espère que tu n'as rien perdu...

 

Bon ça a l'air ok : le déplacement n'a pas l'air d'avoir touché les données. Dans le fichier en partie créé, je retrouve du contenu du filesystem du syno.

J'espère que le déplacement commence bien par une copie avant la suppression.

Modifié par moicphil
Bonsoir, merci de ne pas citer un message qui est situé juste au dessus.
Invité
Ce sujet ne peut plus recevoir de nouvelles réponses.
×
×
  • Créer...