Aller au contenu

Lazer

Administrateur
  • Compteur de contenus

    25 848
  • Inscription

  • Dernière visite

  • Jours gagnés

    1 253

Tout ce qui a été posté par Lazer

  1. 270 images Tu ne vas pas t'ennuyer ce week-end. Ouaip, on va fêter ça
  2. J'ai déjà15 secondes de décalage, au bout de 48 heures.
  3. essaye en supprimant juste le vmdk. Si tu lui redonnes le même nom, ça devrait être transparent pour la VM. Si ça ne fonctionne pas, tu remappe dans les paramètres de la VM. N'aies pas peur de tester, il faut en profiter avant que tu n'aies des données dedans
  4. Ah oui. Comme l'indiquait Shad, il faudra que tu affectes une adresse IP fixe, dans l'interface de DSM => Panneau de configuration => Réseau Ensuite tu mémorises l'URL dans la barre de lancement rapide de ton navigateur, et tu oublies Syno Assistant.
  5. - j'arrête DSM, ce qui va stopper la VM, - A partir de ça je vire le disque RDM de la VM, j'efface le fichier VMDK qui est dans le répertoire de la VM, je retourne sous PUTTY, refais un nouveau VMDK, puis je vérifie que les paramètres de la VM que le disques RDM est toujours là - je relance la VM - ensuite un coup de synology assistant et c'est reparti. => inutile, Xpenology va démarrer puisque tu l'as déjàinstallé sur le disque.
  6. , je suis trop lent Tu peux recommencer uniquement le mapping RDM sans forcément casser toute la suite. C'est bien l'avantage du RDM, c'est que tu peux démapper puis remapper à l'identique.
  7. Fredo, je t'adore parce que tu poses des questions pertinentes, et ça me force à chercher, et du coup j'apprends des trucs Donc oui c'est exactement la même chose. Mais une démonstration nous permettra de bien comprendre, et surtout de découvrir quelle est la Best Practice, c'est à dire ce que recommande VMware : Les fichiers vml.* sont des liens symboliques vers les fichiers t10.* comme l'indique la petite flèche, donc ils sont strictement identiques : /dev/disks # ls -l -rw------- 1 root root 4004511744 May 28 21:41 mpx.vmhba32:C0:T0:L0 -rw------- 1 root root 4161536 May 28 21:41 mpx.vmhba32:C0:T0:L0:1 -rw------- 1 root root 262127616 May 28 21:41 mpx.vmhba32:C0:T0:L0:5 -rw------- 1 root root 262127616 May 28 21:41 mpx.vmhba32:C0:T0:L0:6 -rw------- 1 root root 115326976 May 28 21:41 mpx.vmhba32:C0:T0:L0:7 -rw------- 1 root root 299876352 May 28 21:41 mpx.vmhba32:C0:T0:L0:8 -rw------- 1 root root 3000592982016 May 28 21:41 t10.ATA_____ST3000DM0012D1CH166__________________________________W1F1SXTF -rw------- 1 root root 134217728 May 28 21:41 t10.ATA_____ST3000DM0012D1CH166__________________________________W1F1SXTF:1 -rw------- 1 root root 3000457232384 May 28 21:41 t10.ATA_____ST3000DM0012D1CH166__________________________________W1F1SXTF:2 -rw------- 1 root root 250059350016 May 28 21:41 t10.ATA_____VB0250EAVER_____________________________Z3TP2GCR____________ -rw------- 1 root root 250058113024 May 28 21:41 t10.ATA_____VB0250EAVER_____________________________Z3TP2GCR____________:1 -rw------- 1 root root 4000787030016 May 28 21:41 t10.ATA_____WDC_WD40EFRX2D68WT0N0_________________________WD2DWCC4E0852000 -rw------- 1 root root 2550005760 May 28 21:41 t10.ATA_____WDC_WD40EFRX2D68WT0N0_________________________WD2DWCC4E0852000:1 -rw------- 1 root root 2147483648 May 28 21:41 t10.ATA_____WDC_WD40EFRX2D68WT0N0_________________________WD2DWCC4E0852000:2 -rw------- 1 root root 3995952579072 May 28 21:41 t10.ATA_____WDC_WD40EFRX2D68WT0N0_________________________WD2DWCC4E0852000:3 lrwxrwxrwx 1 root root 20 May 28 21:41 vml.0000000000766d68626133323a303a30 -> mpx.vmhba32:C0:T0:L0 lrwxrwxrwx 1 root root 22 May 28 21:41 vml.0000000000766d68626133323a303a30:1 -> mpx.vmhba32:C0:T0:L0:1 lrwxrwxrwx 1 root root 22 May 28 21:41 vml.0000000000766d68626133323a303a30:5 -> mpx.vmhba32:C0:T0:L0:5 lrwxrwxrwx 1 root root 22 May 28 21:41 vml.0000000000766d68626133323a303a30:6 -> mpx.vmhba32:C0:T0:L0:6 lrwxrwxrwx 1 root root 22 May 28 21:41 vml.0000000000766d68626133323a303a30:7 -> mpx.vmhba32:C0:T0:L0:7 lrwxrwxrwx 1 root root 22 May 28 21:41 vml.0000000000766d68626133323a303a30:8 -> mpx.vmhba32:C0:T0:L0:8 lrwxrwxrwx 1 root root 73 May 28 21:41 vml.01000000002020202020202020202020205731463153585446535433303030 -> t10.ATA_____ST3000DM0012D1CH166__________________________________W1F1SXTF lrwxrwxrwx 1 root root 75 May 28 21:41 vml.01000000002020202020202020202020205731463153585446535433303030:1 -> t10.ATA_____ST3000DM0012D1CH166__________________________________W1F1SXTF:1 lrwxrwxrwx 1 root root 75 May 28 21:41 vml.01000000002020202020202020202020205731463153585446535433303030:2 -> t10.ATA_____ST3000DM0012D1CH166__________________________________W1F1SXTF:2 lrwxrwxrwx 1 root root 74 May 28 21:41 vml.0100000000202020202057442d574343344530383532303030574443205744 -> t10.ATA_____WDC_WD40EFRX2D68WT0N0_________________________WD2DWCC4E0852000 lrwxrwxrwx 1 root root 76 May 28 21:41 vml.0100000000202020202057442d574343344530383532303030574443205744:1 -> t10.ATA_____WDC_WD40EFRX2D68WT0N0_________________________WD2DWCC4E0852000:1 lrwxrwxrwx 1 root root 76 May 28 21:41 vml.0100000000202020202057442d574343344530383532303030574443205744:2 -> t10.ATA_____WDC_WD40EFRX2D68WT0N0_________________________WD2DWCC4E0852000:2 lrwxrwxrwx 1 root root 76 May 28 21:41 vml.0100000000202020202057442d574343344530383532303030574443205744:3 -> t10.ATA_____WDC_WD40EFRX2D68WT0N0_________________________WD2DWCC4E0852000:3 lrwxrwxrwx 1 root root 72 May 28 21:41 vml.01000000005a33545032474352202020202020202020202020564230323530 -> t10.ATA_____VB0250EAVER_____________________________Z3TP2GCR____________ lrwxrwxrwx 1 root root 74 May 28 21:41 vml.01000000005a33545032474352202020202020202020202020564230323530:1 -> t10.ATA_____VB0250EAVER_____________________________Z3TP2GCR____________:1 Dans le Centre de documentation VMware vSphere 5.1, il y a une page Noms de périphériques de disques qui nous apprend ceci, ce qui a le mérite d'être très clair : Nous on a de la chance, car nos disques fournissent bien un identifiant NAA. Pour en avoir le coeur net, il faut aller faire un tour du côté de la Knowledge Base, dans la note Identifying disks when working with VMware ESX/ESXi (1014953) : On y apprends que l'identifiant NAA se trouve dans le champs Device du résultat de la commande esxcli storage core path list. Chez moi on peut voir la clé USB, un disque Western Digital RED 4To, un disque Samsung 3To, et le disque HP/Seagate 250Go : /dev/disks # esxcli storage core path list usb.vmhba32-usb.0:0-mpx.vmhba32:C0:T0:L0 UID: usb.vmhba32-usb.0:0-mpx.vmhba32:C0:T0:L0 Runtime Name: vmhba32:C0:T0:L0 Device: mpx.vmhba32:C0:T0:L0 Device Display Name: Local USB Direct-Access (mpx.vmhba32:C0:T0:L0) Adapter: vmhba32 Channel: 0 Target: 0 LUN: 0 Plugin: NMP State: active Transport: usb Adapter Identifier: usb.vmhba32 Target Identifier: usb.0:0 Adapter Transport Details: Unavailable or path is unclaimed Target Transport Details: Unavailable or path is unclaimed Maximum IO Size: 122880 sata.vmhba0-sata.0:0-t10.ATA_____WDC_WD40EFRX2D68WT0N0_________________________WD2DWCC4E0852000 UID: sata.vmhba0-sata.0:0-t10.ATA_____WDC_WD40EFRX2D68WT0N0_________________________WD2DWCC4E0852000 Runtime Name: vmhba0:C0:T0:L0 Device: t10.ATA_____WDC_WD40EFRX2D68WT0N0_________________________WD2DWCC4E0852000 Device Display Name: Local ATA Disk (t10.ATA_____WDC_WD40EFRX2D68WT0N0_________________________WD2DWCC4E0852000) Adapter: vmhba0 Channel: 0 Target: 0 LUN: 0 Plugin: NMP State: active Transport: sata Adapter Identifier: sata.vmhba0 Target Identifier: sata.0:0 Adapter Transport Details: Unavailable or path is unclaimed Target Transport Details: Unavailable or path is unclaimed Maximum IO Size: 33553920 sata.vmhba34-sata.0:0-t10.ATA_____ST3000DM0012D1CH166__________________________________W1F1SXTF UID: sata.vmhba34-sata.0:0-t10.ATA_____ST3000DM0012D1CH166__________________________________W1F1SXTF Runtime Name: vmhba34:C0:T0:L0 Device: t10.ATA_____ST3000DM0012D1CH166__________________________________W1F1SXTF Device Display Name: Local ATA Disk (t10.ATA_____ST3000DM0012D1CH166__________________________________W1F1SXTF) Adapter: vmhba34 Channel: 0 Target: 0 LUN: 0 Plugin: NMP State: active Transport: sata Adapter Identifier: sata.vmhba34 Target Identifier: sata.0:0 Adapter Transport Details: Unavailable or path is unclaimed Target Transport Details: Unavailable or path is unclaimed Maximum IO Size: 33553920 sata.vmhba37-sata.0:0-t10.ATA_____VB0250EAVER_____________________________Z3TP2GCR____________ UID: sata.vmhba37-sata.0:0-t10.ATA_____VB0250EAVER_____________________________Z3TP2GCR____________ Runtime Name: vmhba37:C0:T0:L0 Device: t10.ATA_____VB0250EAVER_____________________________Z3TP2GCR____________ Device Display Name: Local ATA Disk (t10.ATA_____VB0250EAVER_____________________________Z3TP2GCR____________) Adapter: vmhba37 Channel: 0 Target: 0 LUN: 0 Plugin: NMP State: active Transport: sata Adapter Identifier: sata.vmhba37 Target Identifier: sata.0:0 Adapter Transport Details: Unavailable or path is unclaimed Target Transport Details: Unavailable or path is unclaimed Maximum IO Size: 33553920 Mes 3 disques durs renvoient un identifiant NAA qui commence par t10. Donc pour éviter tout problème lors des migrations futures de ESXi comme indiqué plus haut, on va utiliser les identifiants NAA, ceux-là même qui commencent par t10. Alors et les fichiers vml dans tout ça ? La commande esxcli storage core device list nous indique qu'il s'agit d'un Other UIDs : /dev/disks # esxcli storage core device list mpx.vmhba32:C0:T0:L0 Display Name: Local USB Direct-Access (mpx.vmhba32:C0:T0:L0) Has Settable Display Name: false Size: 3819 Device Type: Direct-Access Multipath Plugin: NMP Devfs Path: /vmfs/devices/disks/mpx.vmhba32:C0:T0:L0 Vendor: SanDisk Model: Cruzer Blade Revision: 2.01 SCSI Level: 2 Is Pseudo: false Status: on Is RDM Capable: false Is Local: true Is Removable: true Is SSD: false Is Offline: false Is Perennially Reserved: false Queue Full Sample Size: 0 Queue Full Threshold: 0 Thin Provisioning Status: unknown Attached Filters: VAAI Status: unsupported Other UIDs: vml.0000000000766d68626133323a303a30 Is Local SAS Device: false Is Boot USB Device: true t10.ATA_____VB0250EAVER_____________________________Z3TP2GCR____________ Display Name: Local ATA Disk (t10.ATA_____VB0250EAVER_____________________________Z3TP2GCR____________) Has Settable Display Name: true Size: 238475 Device Type: Direct-Access Multipath Plugin: NMP Devfs Path: /vmfs/devices/disks/t10.ATA_____VB0250EAVER_____________________________Z3TP2GCR____________ Vendor: ATA Model: VB0250EAVER Revision: HPG9 SCSI Level: 5 Is Pseudo: false Status: on Is RDM Capable: false Is Local: true Is Removable: false Is SSD: false Is Offline: false Is Perennially Reserved: false Queue Full Sample Size: 0 Queue Full Threshold: 0 Thin Provisioning Status: unknown Attached Filters: VAAI Status: unknown Other UIDs: vml.01000000005a33545032474352202020202020202020202020564230323530 Is Local SAS Device: false Is Boot USB Device: false t10.ATA_____ST3000DM0012D1CH166__________________________________W1F1SXTF Display Name: Local ATA Disk (t10.ATA_____ST3000DM0012D1CH166__________________________________W1F1SXTF) Has Settable Display Name: true Size: 2861588 Device Type: Direct-Access Multipath Plugin: NMP Devfs Path: /vmfs/devices/disks/t10.ATA_____ST3000DM0012D1CH166__________________________________W1F1SXTF Vendor: ATA Model: ST3000DM001-1CH1 Revision: CC24 SCSI Level: 5 Is Pseudo: false Status: on Is RDM Capable: false Is Local: true Is Removable: false Is SSD: false Is Offline: false Is Perennially Reserved: false Queue Full Sample Size: 0 Queue Full Threshold: 0 Thin Provisioning Status: unknown Attached Filters: VAAI Status: unknown Other UIDs: vml.01000000002020202020202020202020205731463153585446535433303030 Is Local SAS Device: false Is Boot USB Device: false t10.ATA_____WDC_WD40EFRX2D68WT0N0_________________________WD2DWCC4E0852000 Display Name: Local ATA Disk (t10.ATA_____WDC_WD40EFRX2D68WT0N0_________________________WD2DWCC4E0852000) Has Settable Display Name: true Size: 3815447 Device Type: Direct-Access Multipath Plugin: NMP Devfs Path: /vmfs/devices/disks/t10.ATA_____WDC_WD40EFRX2D68WT0N0_________________________WD2DWCC4E0852000 Vendor: ATA Model: WDC WD40EFRX-68W Revision: 80.0 SCSI Level: 5 Is Pseudo: false Status: on Is RDM Capable: false Is Local: true Is Removable: false Is SSD: false Is Offline: false Is Perennially Reserved: false Queue Full Sample Size: 0 Queue Full Threshold: 0 Thin Provisioning Status: unknown Attached Filters: VAAI Status: unknown Other UIDs: vml.0100000000202020202057442d574343344530383532303030574443205744 Is Local SAS Device: false Is Boot USB Device: false Pour conclure et simplifier, les fichiers vml.* sont identiques aux fichiers t10.*, mais VMware recommande d'utiliser les fichiers t10.
  8. En même temps ça m'étonnait cette histoire de serveur qui connaît la France, car le protocole NTP est conçu pour gérer les fuseaux horaires. Donc on a un bug de plus sur notre HC2 !
  9. Ouais enfin je suis pas fan du numéro àrallonge derrière le vml. Je préfère faire comme on avait vu initialement. Mais encore une fois, y'a pas de solution parfaite...
  10. C'est une dérive de horloge car le quartz de la HC2 n'est pas très précis, comme tout les PC. Donc Ce n'est pas 40s en permanence, mais un delta qui augmente dans le temps. Donc si je suppose bien, le démon NTPd n'est pas démarré sous Linux, et l'horloge est uniquement recalée par rapport àla référence lorsqu'on modifie le paramètre ou reboot de la HC2, probablement grâce àla commande ntpdate. Pour le vérifier il faudrait le root...
  11. Je pense que le lsilogic est inutile, en tout cas ça fonctionne très bien sans. Pour le nom du vmdk je confirme que je préfère identifier les disques par leur numéro de série, surtout quand il y en a plusieurs du même modèle. Finalement quand tu as plusieurs possibilité pour obtenir le même résultat ça en devient plus perturbant ! Plus tu chercheras de tutos sur Internet, plus tu trouveras de façons différentes de faire... Tiens toi àce que tu sais faire et qui fonctionne, et base ton propre tuto làdessus.
  12. Aucun problème de mon coté, j'utilise Firefox sur différents PC, et je n'ai jamais eu àme relogger depuis février, date d'inscription. Parfois je n'utilise pas un PC pendant plusieurs jours, le cookie est bien conservé.
  13. Sous le fort militaire de Noisy, attention je t'attends
  14. Hihi, j'avoue je suis coupable, j'ai habillement manœuvré pour t'embarquer dans la virtu contre ton gré
  15. Juste entre l'iTV et l'iCar, voici l'iAutomation... Ce sera à coup sur un éco-système fermé, piloté par iTunes, donc bon.... sans moi quoi Mais au moins ils auront plus de visibilité que Fibaro et feront plus avancer les choses. Et mes collègues arrêteront bien de dire que ma domotique ne sert à rien quand ils auront tous acheté des interrupteurs blancs laqués avec rétro-éclairage quand on les effleure
  16. 8 pages, clair que c'est long DSM est toujours installé sur tous les disques que tu lui présentes. C'est dans une petite partition réservée de 2 Go. En ce qui concerne les volumes, ça se passe dans le Gestionnaire de stockage. Là on voit les disques, et on a la possibilité de faire ce qu'on veut. Quelques exemples, toujours avec 3 disques : - les 3 disques groupés ensemble dans 1 seul volume avec SHR (donc avec sécurité) - les 3 disques indépendants, c'est à dire 3 volumes (donc sans sécurité) - 2 disques ensemble dans 1 volume protégé par SHR, et 1 disque tout seul dans un volume sans sécurité Bref, quand tu joueras avec tu comprendras très vite. En dehors de ça, tes autres VM seront bien sur le disque de 250 Go géré par ESXi (le fameux datastore, appelé banque de données en français)
  17. Ma vision des choses pour Xpenology / DSM / Diskstation (3 noms pour dire la même chose au final) : Stockage :Par défaut, DSM conseille de créer une grosse grappe RAID (via leur système SHR). Donc en gros, tu auras une sorte de RAID-5 entre tous tes disques. Si par exemple tu as 3 disques de taille identique (2 To), alors tu auras 4 To de volumétrie utilisable, car 2 To sera réservé pour la protection des données (calcul de parité). Si les disques ont des tailles différentes, le SHR fera au mieux pour essayer de proposer le maximum d'espace dispo à l'utilisateur, tout en conservant la sécurité. Il y a un simulateur sur le site de Synology. Ensuite, quand tu mets tes données dans le gros volume, alors les données seront réparties automatiquement entre les 3 disques. En cas de perte d'un disque dur, les données ne seront pas perdues, et il faut vite acheter un nouveau disque pour que la reconstruction se fasse sur le nouveau disque. La seule séparation logique que tu auras entre tes données, c'est l’arborescence des partages réseaux et des répertoires. Autrement, tu peux effectuer un formatage personnalisé des volumes, par exemple créer 1 volume simple par disque (donc avec l'exemple des 3 disques, ça fera 3 volumes). Ainsi, tu peux choisir de mette les vidéos sur un volume, les enregistrements de caméras sur un autre volume, etc... et ainsi séparer tes données. Par contre, il n'y a aucune sécurité, si un disque tombe en panne, alors les données de ce disques sont perdues. SauvegardeDans les 2 cas exposés ci-dessus, une panne matérielle, un bug logiciel, une erreur humaine, un cambriolage, etc..., peuvent conduire à perdre des données. Alors il faut faire des sauvegardes des données importantes sur un support de stockage externe. Généralement un disque USB fait bien l'affaire, mais on peut aussi avoir un second NAS, et faire la sauvegarde sur le 2nd NAS (on parle alors de réplication). Cas pratiquePerso pour mon N54L, j'ai choisi de faire des volumes simples, donc sans protection. Mes données importantes sont sur un RAID-5 matériel dans mon PC, répliquées sur le NAS, et sauvegardées sur disque externe (stocké dans un autre bâtiment). Mes données non-importantes sont stockées uniquement sur le NAS, sans protection. Cela inclue les fichiers que je peux facilement re-télécharger, ou dont je pourrais très bien me passer si je les perdais. Un jour je mettrai en place de la réplication avec un second NAS, afin d'avoir encore un niveau de protection supérieur. Dans 50 ans, un opérateur installera la fibre chez moi, et je pourrai même répliquer à distance via Internet. Applications :DSM est installé sur tous les disques de ton NAS. Ainsi en cas de perte d'un disque, le NAS peut encore démarrer le système. Tu ne maitrise pas où s'installent les applications. D'après le discours du mec dans son tutoriel, les applis s'installent dans le Volume 1. Dans tous les cas, les applications Synology sont intimement liées à DSM, donc dans ton instance Xpenology que tu as créé, tu peux y mettre toutes tes données et les applications Synology. Par exemple, pour fonctionner, DS Vidéo doit indexer le contenu des disques. De même pour DS Photo, DS File, et Surveillance Station... En revanche, si tu as d'autres services que tu souhaites faire tourner (par exemple mon tuto pour faire un Reverse Proxy avec HAProxy), alors il est judicieux de les isoler dans une VM différente comme le suggère Shad. Forcément, les VMs de type Windows, Linux, Android, etc... doivent tourner dans des VMs différentes. Pour Surveillance Station, il me semble que j'avais déjà précisé qu'il ne vérifie pas les numéros de licences en ligne quand on rentre ceux-ci. Si je ne suis pas assez clair, MP... Sinon, Google est votre ami.
  18. ESXi 5.5 euh... Je suis pas trop motivé pour le moment. Ce qui me gêne c'est qu'il consomme plus de RAM. Le thin provisionning c'est quand tu alloues un espace d'une certaine taille, ici 32Go, et que ça ne prend en réalité 0 sur le disque dur. L'espace est réellement alloué lorsque tu écris dedans. Donc c'est plutôt pas mal. Le piège c'est que si tu fais tu Thin pour toutes les VM tu as vite fait d'allouer plus d'espace que tu en as en réalité. Et donc ça finit par coincer quand tout le monde se met àécrire dedans. A utiliser avec prudence donc. Ensuite le mec explique que le volume de 32 Go sera le premier volume, volume1 dans DSM, et donc c'est làqu'il installera les appli (DS Vidéo, DS Audio, etc...) Et comme c'est un disque virtuel sur ton datastore, tu peux en faire un snapshot depuis vShere Client, c'est àdire une image que tu pourra restaurer pour revenir en arrière au cas où. Sauf que perso je ne sais pas si ça fonctionne vraiment avec DSM. Il dit aussi que si ton datastore est un SSD, théoriquement les applis de DSM seront plus rapides. Perso je trouve que c'est un faible avantage car les amplis de DSM sont toutes petites et démarrent très rapidement même sur un disque dur. Autre chose, si tu mets ce fameux disque virtuel, tu exclue la possibilité de pouvoir un jour sortir de la virtualisation. Avec uniquement des disques RDM pour Xpenology, au moins tu es indépendant ( relis ce que j'ai écris hier àce sujet) Perso je ne mettrais pas ce disque virtuel. Mais tu fais comme tu sens !
  19. Ah oui alors fait comme tu veux pour le tuto Et pour le disque de 32 Go, tu pouvais te contenter de 8Go si tu n'utilises pas Plex comme indiqué. Il conseille surtout la manip si ton datastore est un SSD, ce qui n'est pas le cas car tu as le 250 Go. En plus c'est du Thin Provisionning donc ça ne prend pas de place tant que tu n'écris pas dedans. Pour le coup de séparer les apps pour faire des snapshots c'est pas con. Fait comme tu veux en fait.
  20. Et bien tu crée ton volume de données sur le disque de 2 To. Je ne sais pas ce que c'est que ce disque de 32 Go. Ce n'est pas le disque virtuel que tu avais créé à un moment pour faire des tests ? En tout cas tu ne peux rien faire avec 32 Go.... comparé aux To de tes disques durs. T'es motivé ! Très bien les photos de la carte mère Par contre tu n'as rien pour faire les captures d'écran de l'installation de ESX. Ne me dis pas que tu fais des photos de l'écran ? Perso j'ai fait des captures d'écran avec la carte HP Remote Management, donc elles sont super propres.
  21. Génial, merci Steven. J'avais déjà remarqué que mon HC2 perdait l'heure et se déréglait réguilèrement. Au bout de plusieurs semaines sans reboot, ça commence à fait pas mal de minutes de décalage. Seul le reboot la forçait à reprendre l'heure correcte auprès des serveurs de pool.ntp.org. J'ai fait la modif que tu suggères, donc ça ne devrait plus se reproduire
  22. Oui, la virtualisation c'est complexe, ce n'est pas pour rien qu'on n'a pas ça dans nos PC, et qu'on trouve normalement ces systèmes uniquement en entreprise. Ca fait bosser plein d'ingénieurs, donc en fait c'est pas mal Mais au final les entreprises s'y retrouvent, car au lieu de payer un serveur pour chaque tâche, la consolidation des ressources permet de faire des économies. Quand on maitrise, au final on trouve ça hyper simple et on gagne un temps fou, parce qu'on peut déployer une VM en quelques minutes, alors qu'il fallait plusieurs heures de façon traditionnelle avec un serveur qu'il fallait commencer par installer physiquement (et encore, si on ajouter le temps de commande fournisseur, il faut ajouter 1 mois en moyenne...) Et sache que VMware doit son succès à sa simplicité et ses nombreuses fonctionnalités. Perso je bosse surtout sur les systèmes UNIX (IBM PowerVM pour les connaisseurs), et là c'est déjà un poil plus compliqué... faut pas être fâché avec la ligne de commande Il existe beaucoup d'autres solutions pro : Xenserver, KVM, HyperV, etc... et d'autres plus ou moins gratuites et amateur, mais en train de monter : Proxmox, etc ... Ces paramètres sont conseillés pour obtenir les meilleurs performances possibles : Disque dur 2To en RDM : indépendant et persistant Contrôleur SCSI : Paravirtuel Adaptateur réseau : VMXNET 3 Le principe du Raw Device Mapping (RDM), c'est de donner le disque complet à la Virtual Machine. Donc la VM voit le disque de la même façon que si il n'y avait pas la couche de virtualisation au milieu. Donc ton disque de 2 To, sera géré en direct par Xpenology, et donc formaté par son propre système de fichier, qu'ils appellent Synology Hybrid RAID (SHR). En réalité le SHR est un empilement de technos standards sous Linux : mdadm, LVM, ext4. Les avantages de tout ça sont multiples : - tu peux virer ESXi, installer Xpenology en natif sur la clé USB de ton serveur, et accéder aux données comme si de rien n'était. - Tu peux également retirer les disques du serveurs, et les mettre dans un autre serveur et accéder aux données via un autre Xpenology. - Tu peux aussi le faire avec n'importe quel Linux puisque j'ai précisé plus haut que le mdadm + LVM + ext4 sont supportés par tous les Linux. - Et la situation extrême, un collègue a sorti les disques de son Xpenology, puis les a mis dans son Synology DS414 tout neuf et a pu relire ses données. Elle n'est pas belle la vie ? Bref, le RDM c'est comme si il n'y avait pas de virtualisation. Dans Diskstation, il faut que tu utilises uniquement ton disque de 2 To pour créer un volume. Tu ne touches pas aux rubriques iSCSI LUN et Target. Concernant tes 2 anciens disques, si tu les mets dans le N54L, il faut : - les passer tous les 2 en RDM via la commande vmkfstool en SSH. - les ajouter à ta VM dans les paramètres. - Diskstation va voir 2 nouveaux disques qu'il va te proposer de formater, car il ne saura pas relire les données (techniquement ça pourrait être possible puisque DSM est un Linux, donc il peut potentiellement tout lire, sauf que les gars de Synology n'ont pas implémenté cette fonctionnalité). - donc oui tu vas perdre les données, que tu as eu raison de sauvegarder. En moins de 10 jours, tu es passé d'une demande pour un Synology 2 baies à pas cher, à un serveur avec 4 + 2 baies, plein de RAM, et de la virtualisation. Quel évolution, chapeau bas
  23. Pour la partie ESX je peux le faire le tuto, j'ai déjàtous les screenshots prêts.
  24. J'ai trouvé un autre tuto en français pour les disques RDM : http://synergeek.fr/utiliser-disque-en-raw-device-mapping-rdm-pour-xpenology
×
×
  • Créer...