mprinfo Posté(e) le 29 avril 2020 Auteur Signaler Posté(e) le 29 avril 2020 Non je dois faire un test lorsque j'aurai un moment il faut que je regarde si j'ai un ssd qui traîne je ferai cela sur mon gen8 de sauvegarde Envoyé de mon BLA-L29 en utilisant Tapatalk
Lazer Posté(e) le 29 avril 2020 Signaler Posté(e) le 29 avril 2020 Ouch, ça commence à devenir un vrai truc de barbu là 2
sepult Posté(e) le 29 avril 2020 Signaler Posté(e) le 29 avril 2020 je viens de tenter un upgrade à "chaud". une erreur est survenue lors du scan du system. je vais creuser les forums sur cette erreur.
mprinfo Posté(e) le 29 avril 2020 Auteur Signaler Posté(e) le 29 avril 2020 Ça va pas être simple pour esxi 7A priori la b120i ne peut fonctionner qu'en ahci. Pas de pilote pour le mode raidLe problème avec le mode ahci c'est que les performances sont un peu moins bonnes Envoyé de mon BLA-L29 en utilisant Tapatalk 1
sebcbien Posté(e) le 29 avril 2020 Signaler Posté(e) le 29 avril 2020 Bon c pas l'effondrement question vitesse, 33% de moins, si on n'utilise pas son serveur pour du montage vidéo ça devrait aller non ? When testing the performance of the Sandisk Pro SSD with ESXi 7.0 I get the following 1000000+0 records in 1000000+0 records out real 3m 17.07s user 0m 11.89s sys 0m 0.00s On the Samsung EVO850 SSD datastore with ESXi 6.7U3 using the downgraded HPSVA Driver connected to SATA5: 1000000+0 records in 1000000+0 records out real 2m 3.58s user 0m 9.64s sys 0m 0.00s Whilst it's not an apples for apples comparison the ESXi 6.7U3 install with the downgrade HPVSA driver does appear to be quite a bit faster than the ESXi 7.0 using AHCI. Given that it seems no longer possible to use the B120i with a downgrade driver it looks like the only way to get decent performance out of ESXi 7.0 might be with a compatible external disk controller. et question contrôleur compatible tu as une idée @mprinfo ?
mprinfo Posté(e) le 29 avril 2020 Auteur Signaler Posté(e) le 29 avril 2020 @sebcbien heureux de te revoir ici Tu as mis en marche ton gen8 ? Alors la je ne peux répondre j'ai fais la mise à jour esxi 6.7u3 il y a peu Ça ne fait pas très longtemps que je sais que esxi 7 est sorti Envoyé de mon BLA-L29 en utilisant Tapatalk
sebcbien Posté(e) le 29 avril 2020 Signaler Posté(e) le 29 avril 2020 lol, non, toujours neuf sur l'étagère. Me suis acheté un DS 718+ et je fais tourner des Docker, dont PiHole et Home Assistant... ça consomme rien et ça marche, donc lancer un truc de 100W en plus pour rien, pour le moment, pas d'utilité. Et Xpeno, trop de chipo a mon sens, trop de risque pour un truc qui stocke mes données. Mais une install "propre" en esxi 7 sans chipos de drivers etc, why not... :-)
mprinfo Posté(e) le 30 avril 2020 Auteur Signaler Posté(e) le 30 avril 2020 un bundle mis a disposition par hp https://support.hpe.com/hpsc/swd/public/detail?swItemId=MTX-702d3c7d8c4546a3b27d1458b5#tab1 Par exemple un peu installer ssacli qui permet d'avoir un controle sur la B120i blog a lire pour l'installation https://blog.ndk.name/manage-hpe-smart-array-in-vmware-esxi/ voici les commandes que l'on peut lancer pour manager la carte B120i HPE SMART ARRAY CLI COMMANDS ON ESXI Last Update: 12.03.2018 Show configuration ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl all show config ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl all show config Controller status ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl all show status ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl all show status Show detailed controller information for all controllers ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl all show detail ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl all show detail Show detailed controller information for controller in slot 0 ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 show detail ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 show detail Rescan for New Devices ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli rescan ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli rescan Physical disk status ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 pd all show status ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 pd all show status Show detailed physical disk information ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 pd all show detail ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 pd all show detail Logical disk status ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 ld all show status ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 ld all show status View Detailed Logical Drive Status ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 ld 2 show ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 ld 2 show Create New RAID 0 Logical Drive ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 create type=ld drives=1I:1:2 raid=0 ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 create type=ld drives=1I:1:2 raid=0 Create New RAID 1 Logical Drive ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 create type=ld drives=1I:1:1,1I:1:2 raid=1 ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 create type=ld drives=1I:1:1,1I:1:2 raid=1 Create New RAID 5 Logical Drive ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 create type=ld drives=1I:1:1,1I:1:2,2I:1:6,2I:1:7,2I:1:8 raid=5 ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 create type=ld drives=1I:1:1,1I:1:2,2I:1:6,2I:1:7,2I:1:8 raid=5 Delete Logical Drive ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 ld 2 delete ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 ld 2 delete Add New Physical Drive to Logical Volume ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 ld 2 add drives=2I:1:6,2I:1:7 ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 ld 2 add drives=2I:1:6,2I:1:7 Add Spare Disks ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 array all add spares=2I:1:6,2I:1:7 ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 array all add spares=2I:1:6,2I:1:7 Enable Drive Write Cache ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 modify dwc=enable ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 modify dwc=enable Disable Drive Write Cache ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 modify dwc=disable ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 modify dwc=disable Erase Physical Drive ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 pd 2I:1:6 modify erase ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 pd 2I:1:6 modify erase Turn on Blink Physical Disk LED ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 ld 2 modify led=on ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 ld 2 modify led=on Turn off Blink Physical Disk LED ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 ld 2 modify led=off ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 ld 2 modify led=off Modify smart array cache read and write ratio (cacheratio=readratio/writeratio) ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 modify cacheratio=100/0 ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 modify cacheratio=100/0 Enable smart array write cache when no battery is present (No-Battery Write Cache option) ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 modify nbwc=enable ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 modify nbwc=enable Disable smart array cache for certain Logical Volume ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 logicaldrive 1 modify arrayaccelerator=disable ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 logicaldrive 1 modify arrayaccelerator=disable Enable smart array cache for certain Logical Volume ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 logicaldrive 1 modify arrayaccelerator=enable ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 logicaldrive 1 modify arrayaccelerator=enable Enable SSD Smart Path ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 array a modify ssdsmartpath=enable ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 array a modify ssdsmartpath=enable Disable SSD Smart Path ESXi 5.5 -> /opt/hp/hpssacli/bin/hpssacli ctrl slot=0 array a modify ssdsmartpath=disable ESXi 6.5 -> /opt/smartstorageadmin/ssacli/bin/ssacli ctrl slot=0 array a modify ssdsmartpath=disable @lazer je te donne les commandes pour ESXI 5.5 Comment surveiller la configuration HP Smart Array sur un hôte VMware ESXi la c'est pour les barbues https://eliph.klinikum.uni-heidelberg.de/archive/935/how-to-monitor-the-hp-smart-array-configuration-on-an-vmware-esxi-host
mprinfo Posté(e) le 30 avril 2020 Auteur Signaler Posté(e) le 30 avril 2020 Les 25 commandes que tout administrateur VMware doit connaître https://www.lemagit.fr/conseil/Les-25-commandes-que-tout-administrateur-VMware-doit-connaitre
mprinfo Posté(e) le 2 mai 2020 Auteur Signaler Posté(e) le 2 mai 2020 Regardez "HPE ProLiant MicroServer Gen10 Plus v Gen10 Hardware Differences Overview" sur YouTubeEnvoyé de mon BLA-L29 en utilisant Tapatalk
Lazer Posté(e) le 3 mai 2020 Signaler Posté(e) le 3 mai 2020 Mais mais mais mais... que se passe-t-il ? Cette vidéo est en anglais !!! PS : Google connait mes préférences (mieux que moi-même parfois ), il m'a déjà proposé cette vidéo lors de sa publication 1
mprinfo Posté(e) le 3 mai 2020 Auteur Signaler Posté(e) le 3 mai 2020 Plus qu'à attendre que le prix baisse Envoyé de mon BLA-L29 en utilisant Tapatalk
sepult Posté(e) le 4 mai 2020 Signaler Posté(e) le 4 mai 2020 oui quand j'ai vu débarquer le gen10 plus, je me suis dis, dommage ce sera une évolution sur la meme base. mais en regardant les reviews, là ok, j'achète.
sepult Posté(e) le 5 mai 2020 Signaler Posté(e) le 5 mai 2020 une question me taraude. j'ai monté mon gen8 avec esxi 6.7, mes disques en RDM et rattachés directement à ma VM xpenology. pour suivre l'état de santé SMART des disques, vous avez une solution de monitoring ? hormis via l'interface très succincte de la console. j'ai vu passer une version de smartctl compilé en vib pour esxi. mais ca date un peu. vous utilisez quoi ?
Lazer Posté(e) le 5 mai 2020 Signaler Posté(e) le 5 mai 2020 Si tu as configuré le contrôleur b120i en mode RAID, il ne laisse pas remonter les infos SMART. Donc tu ne peux rien faire. De toute façon le SMART ça ne sert à rien quand tu tiens à tes données, puisque tu fais des sauvegardes.... c'est encore la meilleure chose à faire pour sécuriser. 1
mprinfo Posté(e) le 15 mai 2020 Auteur Signaler Posté(e) le 15 mai 2020 Synology DSM 6.2.3 (v2) et mises à jour d’applications en cascade… https://www.cachem.fr/synology-dsm-6-2-3-applications/ (2020-05-13) Important Note The update is expected to be available for all regions within the next few weeks, although the time of release in each region may vary slightly. If you want to update to the latest version now, please go to Download Center and manually update your DSM. This update includes fixes to the below issues mentioned in 6.2.3-25423. Fixed the issue where the automatic mounting of encrypted shared folders might result in the loss of indexing rules and the failure of the search function. Fixed the issue where the Synology NAS equipped with NVMe device might be woken up from hibernation by the update of NVMe device's health status cache. This update will restart your Synology NAS. Removed the support for Google Cloud Print in DSM 6.2.3 and above. To avoid the interruption of iSCSI service, the automatic DSM update and your power schedule to shut down may not be executed as expected if there are any active iSCSI sessions. Removed TWNIC from the list of DDNS service providers on DSM 6.2.3 since TWNIC will stop accepting new registrations for DSM as of Jul. 1, 2020. Your current TWNIC DDNS services can still be used and edited but will not be available again once deleted from DSM. This is the last major DSM version (6.2) that supports the video conversion to .flv and MPEG-4 Part 2 on certain models (RS814, RS214, DS414, DS414slim, DS414j, DS216se, DS215j, DS214+, DS214, DS214se, DS213j, DS120j, DS119j, DS115, DS115j, and DS114) in consideration of the termination of Adobe's support for Flash Player by the end of 2020. What's New in DSM 6.2.3 Thin Provisioning LUN will become protected upon insufficient volume space, preventing clients from writing data to the LUN while allowing read-only access to the existing data. Added support for domain users to sign in to DSM using a UPN (user principal name) via file protocols (including SMB, AFP, FTP, and WebDAV). Added support for the option of forcing password changes for importing local users. Enhanced the compatibility of the imported user list, providing clearer error messages when the imported file contains syntax errors. Added support to record only the events of SMB transfer selected by the user, providing transfer logs that meet the requirements more closely. Added support for client users to monitor the changes of subdirectories under shared folders via SMB protocol. Added details of desktop notifications to facilitate users' timely responses. Added support for external UDF file system devices. Added support for the Open vSwitch option in a high-availability cluster. Added support for IP conflict detection, providing logs and notifications accordingly. Added support for Let's Encrypt wildcard certificates for Synology DDNS. Added support to waive the need of DSM login again through an HTTPS connection after a change in client's IP address. Added support for hardware-assisted locking for Thick Provisioning LUN on an ext4 volume. Added support for customized footer message on DSM login pages. Fixed Issues Fixed the issue where certain cities might be mapped to incorrect time zones. Fixed the issue where LDAP users could not be notified of the upcoming password expiration. Fixed the issue where the upload of LDAP certificate could not overwrite the original one with the same file name. Fixed the issue where the application permissions settings might not be applied properly to the Domain Users group when such group in Windows AD domain was named other than "Domain Users". Fixed the issue of inaccurate time of usage history in Resource Monitor. Improved system responsiveness by reducing the latency of the Btrfs file system in certain scenarios. Fixed the issue where SNMP did not provide the indices of Disk and RAID correctly. Fixed the issue where the recycle bin of an encrypted shared folder might not be emptied properly. Enhanced the DSM login performance for multiple concurrent logins. Adjusted the personal notification mechanism to comply with the latest Gmail API. Fixed the issue where the iSCSI service might be interrupted when the LUN backup task is stopped. Removed the function of expanding the capacity of a block LUN. Known Issues & Limitations Access to DSM via HTTPS using Google Chrome on a client device running macOS 10.15 might fail after a DSM update from an older version. To run Centralized Management System (CMS) on Surveillance Station after updating to DSM 6.2.3-25426, Surveillance Station 8.2.7 or above is required.
mprinfo Posté(e) le 15 mai 2020 Auteur Signaler Posté(e) le 15 mai 2020 mise a jours ok chez moi Mise a jour 6.2.3-25423 vers Mise a jour 6.2.3-25426 Si vous n’êtes pas 6.2.3 lire le post qui suit
mprinfo Posté(e) le 15 mai 2020 Auteur Signaler Posté(e) le 15 mai 2020 Le 29/04/2020 à 16:46, mprinfo a dit : Mise a jour 6.2.3-25423 ok sur mon DSM de test mais on voit le boolloader A lire pour ceux qui utilisent des drivers Extension : https://xpenology.com/forum/topic/21663-driver-extension-jun-103b104b-for-dsm622-for-3615xs-3617xs-918/ ATTENTION AVANT DE FAIRE LE MISE A JOUR BIEN LIRE CE TOPIC https://xpenology.com/forum/topic/28183-running-623-on-esxi-synoboot-is-broken-fix-available/ Voici la traduction Lors de l'exécution de DSM 6.2.3 sous ESXi, les chargeurs de démarrage 1.03b et 1.04b de Jun ne parviennent pas à créer / dev / synoboot(cela peut être résolu en installant un script extrait du chargeur pour le réexécuter une fois le démarrage terminé) DSM 6.2.3 affiche les périphériques SATA (c'est-à-dire le chargeur de démarrage sur 1.04b) qui sont mappés au-delà de la limite MaxDisks lorsque les versions précédentes ne DSM 6.2.3 met à jour les masques de bits du port de disque synoinfo.cfg qui peuvent casser certains tableaux à nombre de disques élevé et provoquer un comportement étrange avec le périphérique du chargeur de démarrage Contexte: La définition du PID / VID pour une installation baremetal permet au chargeur de Jun de prétendre que la clé USB est un véritable chargeur flash Synology. Sur une installation ESXi, il n'y a pas de clé USB - à la place, le chargeur exécute un script pour trouver son propre périphérique de démarrage, puis le refait en tant que / dev / synoboot. C'était très fiable sur 6.1.x et le chargeur 1.02b de Jun. Mais en passant à DSM 6.2.x et aux chargeurs 1.03b et 1.04b, il y a des circonstances où / dev / synoboot est créé et le périphérique de démarrage d'origine n'est pas supprimé. Le résultat est que parfois le périphérique de chargement est visible dans Storage Manager. Quelqu'un a découvert que si le contrôleur était mappé au-delà du nombre maximal de périphériques de disque (MaxDisks), tout périphérique de démarrage / dev / sd errant était supprimé. L'ajustement de DiskIdxMap est devenu un autre moyen de "masquer" le périphérique de chargement sur ESXi et Jun ' Maintenant, DSM 6.2.3: la mise à niveau modifie au moins deux comportements DSM fondamentaux: Les périphériques SATA qui sont mappés au-delà de la limite MaxDisks ne sont plus supprimés, y compris le chargeur (apparaissant comme / dev / sdm si DiskIdxMap est défini sur 0C) Les masques de configuration de port de disque sont réécrits dans synoinfo.conf: internalportcfg, usbportcfg et esataportcfg et sur 1.04b, ne correspondent plus avec MaxDisks par défaut = 16. REMARQUE: Si vous avez plus de 12 disques, cela cassera probablement votre baie et vous devrez les modifier à nouveau (et ce n'est pas seulement un problème ESXi)! De plus, lors de l'exécution sous ESXi, DSM 6.2.3 interrompt le script de synoboot du chargeur de Jun de sorte que / dev / synoboot n'est pas créé du tout . Impacts négatifs: Le périphérique de chargement peut être accidentellement configuré dans Storage Manager, ce qui entraînera une panne du système Les partitions du chargeur peuvent être mappées par inadvertance en tant que dossiers USB ou eSata dans File Station et être endommagées L'absence de périphériques / dev / synoboot peut entraîner l'échec des futures mises à niveau, lorsque la mise à niveau souhaite modifier rd.gz dans le chargeur Le déballage du script synoboot de Jun révèle qu'il récolte les nœuds de périphérique, supprime complètement les périphériques et les refaits en / dev / synoboot. Il essaie d'identifier le périphérique de démarrage en recherchant une partition plus petite que la plus petite partition de baie autorisée. C'est une stratégie ambiguë pour identifier le périphérique, et quelque chose de nouveau dans 6.2.3 le fait échouer lors de l'état initial du système de démarrage. Il existe quelques options de configuration technique qui peuvent amener le script à sélectionner le bon périphérique, mais elles sont difficiles et dépendent de la version du chargeur, de la plate-forme DSM et du démarrage BIOS / EFI. Cependant, si le script de Jun est réexécuté après le démarrage complet du système, tout est comme il se doit. Extraire le script du chargeur et l'ajouter aux actions post-démarrage est donc une solution universelle à ce problème: Téléchargez le script FixSynoboot.sh ci-joint Copiez le fichier dans /usr/local/etc/rc.d chmod 0755 /usr/local/etc/rc.d/FixSynoboot.sh Ainsi, le propre code de Jun sera réexécuté après le démarrage initial après que les paramètres d'initialisation du système qui interrompent la première exécution du script ne s'appliquent plus. Cette solution fonctionne avec 1.03b ou 1.04b et est simple à installer. Cela devrait être considéré comme requis pour ESXi exécutant 6.2.3, et cela ne nuira à rien s'il est installé ou porté vers un autre environnement.
mprinfo Posté(e) le 18 mai 2020 Auteur Signaler Posté(e) le 18 mai 2020 Personne n'a fait la mise à jour ? Envoyé de mon BLA-L29 en utilisant Tapatalk
jojo Posté(e) le 19 mai 2020 Signaler Posté(e) le 19 mai 2020 non, le mien va bien, cette majorité semble très barbue ...
mprinfo Posté(e) le 19 mai 2020 Auteur Signaler Posté(e) le 19 mai 2020 @jojo si besoin je suis là j'ai beaucoup de temps libre en ce moment Envoyé de mon BLA-L29 en utilisant Tapatalk 1
djksage Posté(e) le 29 mai 2020 Signaler Posté(e) le 29 mai 2020 Je n'avais pas fait l'update avant car il ne me la proposais pas, je voulais pas forcer. Je viens de vérifier et de la faire, nickel tous est passé sans problème merci pour tes explications 1
jojo Posté(e) le 29 mai 2020 Signaler Posté(e) le 29 mai 2020 tout s'est bien passé en faisant la màj tout court, ou également en faisant les manip décrites ?
djksage Posté(e) le 29 mai 2020 Signaler Posté(e) le 29 mai 2020 Avec la manipulation avant, j'avais déjà préparé le script dès que j'avais vue le poste mais j'ai attendu que dsm me propose l'update pour le faire aujourd'huiEnvoyé de mon HD1913 en utilisant Tapatalk
sebcbien Posté(e) le 4 juin 2020 Signaler Posté(e) le 4 juin 2020 Le 29/04/2020 à 23:52, sebcbien a dit : lol, non, toujours neuf sur l'étagère. Me suis acheté un DS 718+ et je fais tourner des Docker, dont PiHole et Home Assistant... ça consomme rien et ça marche, donc lancer un truc de 100W en plus pour rien, pour le moment, pas d'utilité. Et Xpeno, trop de chipo a mon sens, trop de risque pour un truc qui stocke mes données. Mais une install "propre" en esxi 7 sans chipos de drivers etc, why not... :-) Salut les gars... Bon, mon syno 718+ ... ca va bien j'ai mis HASS dessus avec docker et 4-5 autres containers qui vont avec (nodejs, mariadb etc..) J'ai aussi installé pihole dans un docker. Tout va bien tout va bien , mais à un certain moment, parfois, il se met à "ramer" les containers deviennent lents malgré que le CPU et les disques ne sont pas fort sollicités. Par exemple, si je regarde un film hébergé sur le syno (file sharing, pas de transcodage) .... bah après 1/2h j'ai mes Docker qui n'avancent plus, ca revient à la normale 1/2h après la fin du film. Ou par exemple si surveillance station a "du boulôt" Donc, bon, ben, bref, je regarde de nouveau mon Gen8 avec amour Je suis quasi parti pour installer Proxmox et open media vault 5. + une autre VM pour faire tourner mes docker (ou les faire tourner dans OMV) + une VM pour Jeedom - avantage: j'ai une "couche" qui me permet de faire des snapshots/backups de mes VM pour les upgrades - inconvénient: perte de perfs si j'ainstalle OMV directement. Ou open media vault en bare metal et faire tourner mes docker et VM dedans (via cockpit et portainer) J'aime bien: - c'est une Debian, pas de chipos de drivers raid exotiques à la ESXI, des upgrades qui font pas planter le système si on a pas lu 200 pages de forum avant pour savoir si ça va pas péter etc... - c'est open source, ca développe à vitesse grand V - on peut quasi TOUT faire tourner dessus Est-ce que vous auriez des reproches à faire à cette solution ? Merrrrciiii :-)
Messages recommandés