Aller au contenu

Xpenology Installer/Migrer DSM 5.x à 6.x et 7.x


Messages recommandés

Posté(e)

oui exact.

mais c'est ma base de films qui est éparpillée sur plusieurs volumes, et ce n'est pas un souci car Kodi agrège tout cela et nous présente tout dans une interface unifiée.

Posté(e)

Bon,

J'ai réussi à "migrer" de mon nas 4 disques raid5 à un nas un seul disque...

Enfin, réussi...

disons que j'avais toute la config, tous les fichiers mais finalement j'ai abandonné à cause des permissions qui ne sont pas gardées et qui empèchent le système de bien tourner...

Donc possible, mais il faut encore perséverer un peu (beaucoup) et là j'ai plus de temps :(

  • Like 2
Posté(e)

Ah j'ai eu le cas.... en fait il faut recréer les répertoires partagés juste avant de restaurer la configuration système.

Posté(e)

ici la manip que j'ai faite copiait tout du nas source vers un disque initialisé par le 2e NAS...

Toute la config est gardée, même des apps dont la config n'est pas backupée par hyperbackup... style docker :-/

Le problème de permissions est aussi pour la partition système et donc c'était un beau bord*l ... pas sécurisé du tout.

Donc bon, je vais tout refaire à la main, pas top du tout de ce côté pour les synology... :angry::(

 

Posté(e)

hum dommage

oui tu sens que tout est pensé pour aller vers un NAS plus gros, mais pas trop pour aller vers un NAS plus petit.

 

Posté(e)
Le 10/01/2019 à 11:02, sebcbien a dit :

mais comment déplacer les paquets ?AS-Forum.fr)

je ne sais pas si tu as eu la réponse, mais j'ai déjà déplacé des paquets en trouvant sur Google une procédure qui a bien fonctionné (je pense que c'était sur N

Posté(e)
Le 11/01/2019 à 09:58, mprinfo a dit :

car pour déplacer les paquets il n'y a rien de prévu sur dsm c'est bien dommage

On peut les délacer a la main a priori mais c'est pas simple.

j'avais réussi à le faire, donc ce n'est pas si compliqué que ça

Posté(e)

Voici mes notes: c'est "brut de fonderie" mais ça servira sans doute à quelqu'un d'autre car j'y ai déjà passé pas mal de temps

Bien sur fourni sans aucune garantie :rolleyes:

J'avais donc le 718+ qui bootait avec la config du 412+ et tout mais malgré que tout les dossiers étaient présents, le restore de la config ne recréait pas les shared folders

j'ai vérifié les dossiers, et bien que j'avais tout copié avec sécurité sur le ds412, sur le 718, toutes les permissions, owners etc, tout était "mélangé" et c'était sans doute la raison pourquoi le restore de la config ne fonctionnait pas.

J'ai commencé a essayer de fixer ça avec syno ACL mais j'ai abandonné, y'a trop et ça n'aurait pas été propre

Une solution aurait peut être fonctionné c'était de faire un dd de "tout" sys et volume1 du raid 5 vers un seul disque et ensuite l'insérer dans le DS718+... a tester

 

Voici la procédure générale:
  • pris disque 1 du raid5 du 412+,
  • mis dans 718+ et booté le 718+

image.png.887b731787da80592d35927f794b3608.png

 

  • Choose Migration

image.png.3aa2303550f50d17a3009ae78e1dcf9e.png

 

  • install
  • ds718 says volume is broken
  • put in usb enclosure
  • attach to ds412
  • format Last  partition (usualy third) as ext4
image.png.2e33f3cc9f7c0828ee4139dc441b9b3f.png
  • put back in 718+ and create volume Basic BTRFS
image.thumb.png.d1a2a8d7c47f22ef6a91678715f278e2.png
  • put in USB enclosure and attach to DS412+
  • Launch SSH sessions Then:
 
Status RAID:
  • root@diskstation412:~# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md2 : active raid5 sdb5[1] sdd5[3] sdc5[2]
      2916082944 blocks super 1.2 level 5, 64k chunk, algorithm 2 [4/3] [_UUU]
 
md1 : active raid1 sdb2[1] sdc2[2] sdd2[3]
      2097088 blocks [4/3] [_UUU]
 
md0 : active raid1 sdb1[1] sdc1[2] sdd1[3]
      2490176 blocks [4/3] [_UUU]
 
unused devices: <none>
 
  • Before inserting USB in front port usb (sda->sdd) are internal drives
  • root@diskstation412:~# ls /dev/sd*
/dev/sdb   /dev/sdb2  /dev/sdb5  /dev/sdc1  /dev/sdc3  /dev/sdd   /dev/sdd2  /dev/sdd5
/dev/sdb1  /dev/sdb3  /dev/sdc   /dev/sdc2  /dev/sdc5  /dev/sdd1  /dev/sdd3
 
  • after sdq added -> usb drive
  • root@diskstation412:~# ls /dev/sd*
/dev/sdb   /dev/sdb2  /dev/sdb5  /dev/sdc1  /dev/sdc3  /dev/sdd   /dev/sdd2  /dev/sdd5  /dev/sdq1  /dev/sdq3
/dev/sdb1  /dev/sdb3  /dev/sdc   /dev/sdc2  /dev/sdc5  /dev/sdd1  /dev/sdd3  /dev/sdq   /dev/sdq2
 
  • check:
  • root@diskstation412:~# mdadm --examine /dev/sdq3
/dev/sdq3:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : d78a043b:2c758553:c0ab0c86:b86f57c0
           Name : diskstation412:2  (local to host diskstation412)
  Creation Time : Sat Jan 12 23:58:10 2019
     Raid Level : raid1
   Raid Devices : 1
 
Avail Dev Size : 15618409120 (7447.44 GiB 7996.63 GB)
     Array Size : 7809204544 (7447.44 GiB 7996.63 GB)
  Used Dev Size : 15618409088 (7447.44 GiB 7996.63 GB)
 
  • Force assemble into /dev/md9 (currently not used)
  • root@diskstation412:~# mdadm -A -R /dev/md9 /dev/sdq3
mdadm: /dev/md9 has been started with 1 drive.
 
  • Inspect physical volume:
  • root@diskstation412:~# pvs
  PV         VG     Fmt  Attr PSize PFree
  /dev/md2   vg1000 lvm2 a--  2.72t    0
  /dev/md9   vg1    lvm2 a--  7.27t    0
 
  • inspect with lvdisplay:
  • root@diskstation412:~# lvdisplay
  --- Logical volume ---
  LV Path                /dev/vg1/volume_1
  LV Name                volume_1
  VG Name                vg1
  LV UUID                Gcewnf-rDsW-gJGj-rHPr-8GPR-1ZgL-Htg8Lg
  LV Write Access        read/write
  LV Creation host, time ,
  LV Status              NOT available
  LV Size                7.27 TiB
  Current LE             1906540
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
 
  • lvstatus NOT available -> change it:
  • root@diskstation412:~# vgchange vg1 -ay
  2 logical volume(s) in volume group "vg1" now active
  • inspect lv vg1:
  • root@diskstation412:~# lvdisplay vg1
.... 
 --- Logical volume ---
  LV Path                /dev/vg1/volume_1
  LV Name                volume_1
  VG Name                vg1
....
 
  • Create moutpoints with mkdir then
  • Mount Logical Volume:
  • root@diskstation412:~# mount /dev/vg1/volume_1 /volumeUSB3/mounttemp/
  • Mout sys part:
  • root@diskstation412:~# mount -t ext4 /dev/sdq1 /volumeUSB3/mountsys/
 
  • UnMount partition
  • root@diskstation412:~# umount /volumeUSB3/mounttemp/
  • root@diskstation412:~# umount /volumeUSB3/mountsys/
  • root@diskstation412:~# vgchange vg1 -an
  0 logical volume(s) in volume group "vg1" now active
  • root@diskstation412:~# mdadm -S /dev/md9
mdadm: stopped /dev/md9
  • Like 1
  • 1 mois après...
Posté(e) (modifié)

Dîtes, à ceusse qui utilisent l'agrégation de liens, c'est un vrai merdier en cas de soucis avec DSM !

Après une coupure de courant, mon DSM n'était plus joignable. Je n'ai pas pu faire une migration, j'ai du réinstaller le système et perdre toutes mes applis et mes données de configuration !

Vous avez déjà eu ce problème ?

Modifié par galaksy2001
Posté(e)

Tu peux agréger jusqu'à 8 liens Ethernet pour multiplier d'autant la bande passante, ET assurer de la redondance.

Par exemple, 2 ports coté serveur + 2 ports coté switch agrégés ensemble, ça fait une connexion à 2 Gbit/s (ou 20 Gbps si tu agrèges des liens 10G). Dans cette configuration, en cas de perte d'une connexion réseau, tu auras toujours le 2nd lien qui fonctionne (mais du coup, la connexion globale ne fonctionne plus qu'à 1 Gbps).

 

Tous les serveurs en entreprise ont au minimum une double connexion réseau (tout comme ils ont une double alimentation électrique, des disques durs en miroir, etc), tout cela ayant pour objectif de supprimer tout SPOF (single point of failure), c'est à dire que le service doit continuer même en cas de perte d'un élément.

Posté(e)

Merci pour ces explications.

Même si sur notre Gen8 on a 2 ports Ethernet, il semblerait (d'après @galaksy2001) que cela puisse poser des problèmes ?

Sinon je devrais configurer cela au niveau de Exsi ?

Posté(e)

Avec ESXi, tu es bien obligé de configurer l'agrégat au niveau d'ESXi, puisque DSM n'a pas accès aux ports réseaux (il passe par des interfaces virtuelles au travers du vSwitch)

Le seul moyen de faire gérer les ports réseaux par DSM dans une VM, sera de faire du PCI Passthrough, pour cela il faut un chipset qui le supporte, un Xeon, et une carte PCI dédiée.... cela est faisable avec le Gen8. Mais totalement hors propos.

 

@galaksy2001 est en natif je crois, sans virtualisation (je ne suis pas certain de bien me souvenir.... :) )

Posté(e)

@lazer tu as oublier de parler du "Bond" ou bonding que l'on trouve sur un synology par exemple :60:

 

Pour avoir plus de 120mo/s  x 8 :D il faut aussi que le PC soit équiper de plusieurs cartes réseau après le débit d'une carte réseau sature ou presque un disque dur

Posté(e)

Non, je n'ai pas oublié, ce dont du parles, le terme "bond" est utilisé uniquement sous Linux, tandis que Windows utilise le terme Teaming, etc. C'est juste le nom donné à l'implémentation, différent selon l'OS.

Sous Linux, selon le mode du bonding que tu choisis, tu peux faire de l'EtherChannel, du LACP, ou d'autres modes plus ou moins exotiques.... certains ont l'avantage d'éviter de devoir faire la config coté switch, donc ça peut même fonctionner avec un switch non manageable (mais avec des restrictions, forcément...)

 

Evidemment, il faut avoir un support de stockage qui suit derrière, sinon c'est pas trop utile d'agréger des liens (enfin 2 c'est toujours utile pour la redondance, comme expliqué)

  • Like 1
Posté(e)

Damned, ça fait causer ces histoires d'agrégation de liens !

En fait, j'avais tout simplement oublier de cocher la case LACP sur mon switch au moment de la création de mon agrégation... :unsure:

Posté(e)

Salut la team,

Alors si le bondage est terminé, je peux peut-être lancer un nouveau post sur ... le voyeurisme partagé :P

 

J'ai enfin réussi à installer 2 free licenses supplémentaires en plus des 2 intégrées (légalement). Je pense que cela peut vous intéressé.

 

Mon soucis c'est que je n'arrive pas à ce que toutes les cams enregistrent dans le même dossier.

 

Voilà le topo :

J'ai installé un 2e DSM virtuel sur mon Xpenology, ce qui m'a permis d'installer 2 cams supplémentaires en déclarant le virtuel comme "esclave" et le réel come hôte. Fonctionnement OK.

Mais je n'arrive pas à paramétrer l'enregistrement des nouvelles cams DSM virtuel sur le dossier "Surveillance" DSM réel, cela avec un partage NFS que je ne maîtrise absolument pas !!!

 

Voilà ci-dessous en image mes réglages :

 

New DSM "SynoCameras" (VM)

c.png.b9bff17a1a1111d0b52f4bbaaefa5186.png

 

 

 

Old DSM (Host of VM)

a.png.cdb244a3f44ee558a8c0e643de25c4c6.png

 

 

CMS on old DSM

c.png.b9bff17a1a1111d0b52f4bbaaefa5186.png

 

D.thumb.png.a721f325cabd002fbec01f0ef58b29ef.png

 

 

Et voilà les @ip respectives :

 

Old DSM : 192.168.0.100 port 1961

Old Surveillance Station : 192.168.0.100 port 1965

 

New DSM (VM) et S.S. 192.168.0.211 port 5000

 

Lien qui pointe vers le tuto qui m'a permis de faire cela :

https://xpenology.com/forum/topic/13597-tutorial-4-camera-on-surveillance-station-legally/#comment-107242

 

D'avance MERCI

Applement Votre,

Bruno 

b.png

×
×
  • Créer...