NVME SSD als Volume nutzen - Erfahrungen

Jürgen_I

Benutzer
Mitglied seit
27. Feb 2018
Beiträge
115
Punkte für Reaktionen
10
Punkte
18
ist das so ok?

root@DS720:~# fdisk -l /dev/sata2

GPT PMBR size mismatch (488378645 != 3907029167) will be corrected by w(rite).
Disk /dev/sata2: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x00000000

Device Boot Start End Sectors Size Id Type
/dev/sata2p1 1 488378645 488378645 232.9G ee GPT

root@DS720:~# fdisk -l /dev/nvme0n1

Disk /dev/nvme0n1: 1.8 TiB, 1920383410176 bytes, 3750748848 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x6a83ba10

root@DS720:~# fdisk -l /dev/nvme1n1

Disk /dev/nvme1n1: 1.8 TiB, 1920383410176 bytes, 3750748848 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x437a264d

Device Boot Start End Sectors Size Id Type

/dev/nvme1n1p1 256 4980735 4980480 2.4G fd Linux raid autodetect
/dev/nvme1n1p2 4980736 9175039 4194304 2G fd Linux raid autodetect
/dev/nvme1n1p3 9437184 3750743744 3741306561 1.8T fd Linux raid autodetect

root@DS720:~#
 

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
13.772
Punkte für Reaktionen
3.743
Punkte
468
In code-Tags wäre es besser zu lesen :rolleyes:
Nur /dev/nvme1n1 sieht gut aus. Weißt du noch, wie du das hinbekommen hast?

Ich vermute mal, sowas wie
Code:
synopartition --part --force /dev/sata2 12
Du weißt das besser als ich, du hast es ja schon gemacht.
 

Jürgen_I

Benutzer
Mitglied seit
27. Feb 2018
Beiträge
115
Punkte für Reaktionen
10
Punkte
18
Ist das so ok?

root@DS720:~# synopartition --part --force /dev/sata2 12

Device Sectors (Version7: SupportRaid)
/dev/sata21 4980480 (2431 MB)
/dev/sata22 4194304 (2048 MB)

Reserved size: 262144 ( 128 MB)

Primary data partition will be created.
WARNING! You have only one disk.
Cleaning all partitions...
Creating sys partitions...
Creating primary data partition...

Please remember to mdadm and mkfs new partitions.
 

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
13.772
Punkte für Reaktionen
3.743
Punkte
468
  • Like
Reaktionen: Jürgen_I

Jürgen_I

Benutzer
Mitglied seit
27. Feb 2018
Beiträge
115
Punkte für Reaktionen
10
Punkte
18
root@DS720:~# fdisk -l /dev/nvme0n1

Disk /dev/nvme0n1: 1.8 TiB, 1920383410176 bytes, 3750748848 sectors

Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x6a83ba10

root@DS720:~# fdisk -l /dev/nvme1n1

Disk /dev/nvme1n1: 1.8 TiB, 1920383410176 bytes, 3750748848 sectors

Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x437a264d


Device Boot Start End Sectors Size Id Type
/dev/nvme1n1p1 256 4980735 4980480 2.4G fd Linux raid autodetect
/dev/nvme1n1p2 4980736 9175039 4194304 2G fd Linux raid autodetect
/dev/nvme1n1p3 9437184 3750743744 3741306561 1.8T fd Linux raid autodetect

root@DS720:~# fdisk -l /dev/sata2

Disk /dev/sata2: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x29b5220e

Device Boot Start End Sectors Size Id Type

/dev/sata2p1 256 4980735 4980480 2.4G fd Linux raid autodetect
/dev/sata2p2 4980736 9175039 4194304 2G fd Linux raid autodetect
/dev/sata2p3 9437184 3907024064 3897586881 1.8T fd Linux raid autodetect

root@DS720:~#
 

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
13.772
Punkte für Reaktionen
3.743
Punkte
468
Du siehst ja selbst, /dev/sata2 passt nun auch. Also das selbe auch noch mit /dev/nvme0n1
Code:
synopartition --part --force /dev/nvme0n1 12

Poste danach bitte noch die Ausgabe von "fdisk -l ..." aller 3 SSDs und nochmal die aktuelle von "cat /proc/mdstat"
 
  • Like
Reaktionen: Jürgen_I

Jürgen_I

Benutzer
Mitglied seit
27. Feb 2018
Beiträge
115
Punkte für Reaktionen
10
Punkte
18
root@DS720:~# synopartition --part --force /dev/nvme0n1 12

Device Sectors (Version7: SupportRaid)
/dev/nvme0n11 4980480 (2431 MB)
/dev/nvme0n12 4194304 (2048 MB)

Reserved size: 262144 ( 128 MB)
Primary data partition will be created.

WARNING! You have only one disk.

Cleaning all partitions...
Creating sys partitions...
Creating primary data partition...

Please remember to mdadm and mkfs new partitions.

root@DS720:~# cat /proc/mdstat

Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]

md2 : active raid1 sata1p5[0]
17573494400 blocks super 1.2 [1/1]

md1 : active raid1 sata1p2[0]
2097088 blocks [2/1] [U_]

md0 : active raid1 sata1p1[0]
2490176 blocks [2/1] [U_]
unused devices: <none>
 

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
13.772
Punkte für Reaktionen
3.743
Punkte
468
Na siehst, geht doch. Jetzt bauen wir ein Raid0 aus den drei dritten Partitionen der SSDs. /dev/md3 als Name ist ja noch frei.
Code:
mdadm --create /dev/md3 --level=0 --raid-devices=3 --force /dev/nvme0n1p3 /dev/nvme1n1p3 /dev/sata2p3
Bitte danach nochmal die Ausgabe von "cat /proc/mdstat" posten.
Kannst du folgen bisher?
 
  • Like
Reaktionen: Jürgen_I

Jürgen_I

Benutzer
Mitglied seit
27. Feb 2018
Beiträge
115
Punkte für Reaktionen
10
Punkte
18
Es hat geklappt, ist am Formatieren.


Vielen Vielen Dank

Grüße
Jürgen


root@DS720:~# mdadm --create /dev/md3 --level=0 --raid-devices=3 --force /dev/nvme0n1p3 /dev/nvme1n1p3 /dev/sata2p3

mdadm: /dev/sata2p3 appears to be part of a raid array:
level=raid0 devices=0 ctime=Thu Jan 1 01:00:00 1970

mdadm: partition table exists on /dev/sata2p3 but will be lost or
meaningless after creating array

Continue creating array? yes

mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md3 started.

root@DS720:~# mkfs.btrfs -f /dev/md3

btrfs-progs v4.0
See http://btrfs.wiki.kernel.org for more information.

Performing full device TRIM (5.30TiB) ...
 
  • Like
Reaktionen: Benares

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
13.772
Punkte für Reaktionen
3.743
Punkte
468
Na siehste. Lief eigentlich alles so, wie @ctrlaltdelete es schon in #91 beschrieben hat, nur eben halt mit 3 SSDs.
 
  • Like
Reaktionen: Jürgen_I

Jürgen_I

Benutzer
Mitglied seit
27. Feb 2018
Beiträge
115
Punkte für Reaktionen
10
Punkte
18
Ich kam damit nicht klar, danke für die starke Hilfe.

Nochmal vielen vielen Dank
 

Jürgen_I

Benutzer
Mitglied seit
27. Feb 2018
Beiträge
115
Punkte für Reaktionen
10
Punkte
18
Das Ergebnis:
root@DS720:~# mkfs.btrfs -f /dev/md3

btrfs-progs v4.0
See http://btrfs.wiki.kernel.org for more information.

Performing full device TRIM (5.30TiB) ...

Label: (null)
UUID: 7cfc284c-6c93-4d25-8e39-f2459fb99682
Node size: 16384
Sector size: 4096
Filesystem size: 5.30TiB
Block group profiles:
Data: single 8.00MiB
Metadata: DUP 1.01GiB
System: DUP 12.00MiB
SSD detected: no
Incompat features: extref, skinny-metadata

Number of devices: 1
Devices:
ID SIZE PATH
1 5.30TiB /dev/md3
 

Mavalok2

Benutzer
Mitglied seit
05. Jun 2018
Beiträge
697
Punkte für Reaktionen
145
Punkte
69
Soll ich jetzt zur Verwirrung schreiben, dass ich das Kombinieren von SSDs und M.2 NVMe SDDs für keine gute Idee halte. Dann die ganze Erklärung noch mal für den Rückbau. :)

Aber im Ernst. Grundsätzlich ist eine NVMe M.2 SSD um einiges schneller als eine SSD am SATA-Anschluss und würde durch selbige ausgebremst werden. Aber hier? Vermutlich eher umgekehrt. Allerdings hat die NVMe vermutlich immer noch die höheren IOPS.
Lange Rede kurzer Sinn: Performance-Werte wären hier äusserst interessant.
 

Benares

Benutzer
Sehr erfahren
Mitglied seit
27. Sep 2008
Beiträge
13.772
Punkte für Reaktionen
3.743
Punkte
468
Grundsätzlich ist eine NVMe M.2 SSD um einiges schneller als eine SSD am SATA-Anschluss
Ist das bei den DSen wirklich so? Am PC mag das ja stimmen.
Ich hab hier irgendwo gelesen, dass die NVMe-Slots bei den DSen auch nur recht schmalspurig angebunden wären und kaum mehr als die SATA-Slots bringen, also so um die 500MB/s.
 

Jürgen_I

Benutzer
Mitglied seit
27. Feb 2018
Beiträge
115
Punkte für Reaktionen
10
Punkte
18
Hallo zusammen,

@Mavalok​

wie soll ich das Volume testen?

Ich habe in meiner DS1819+ eine DS1819+ eine Synology E10M20-T1 eingebaut, dort ist auch eine 512 SSD eingesetzt.
Wird aber nicht über cat /proc/mdstat nicht aufgeführt.

Was sollte ich da machen ? geht da was?

Vielen Dank
Jürgen

Bildschirmfoto 2021-04-26 um 21.25.50.png

root@DS1819:~# cat /proc/mdstat

Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md2 : active raid5 sda5[0] sdf5[5] sde5[4] sdd5[3] sdc5[2] sdb5[1]
39045977280 blocks super 1.2 level 5, 64k chunk, algorithm 2 [6/6] [UUUUUU]

md5 : active raid1 sdh5[0]
1870543296 blocks super 1.2 [1/1]

md1 : active raid1 sda2[0] sdb2[1] sdc2[2] sdd2[3] sde2[4] sdf2[5] sdh2[6]
2097088 blocks [8/7] [UUUUUUU_]

md0 : active raid1 sda1[0] sdb1[1] sdc1[2] sdd1[3] sde1[4] sdf1[6] sdh1[5]
2490176 blocks [8/7] [UUUUUUU_]
unused devices: <none>
 

Jürgen_I

Benutzer
Mitglied seit
27. Feb 2018
Beiträge
115
Punkte für Reaktionen
10
Punkte
18

@Mavalok​

root@DS720:~# hdparm -tT /dev/md3 Raid 0 mit (2 x Corsair MP510 1.920GB + Seagate Barracuda SSD 2TB )

/dev/md3:
Timing cached reads: 4050 MB in 2.00 seconds = 2025.87 MB/sec
Timing buffered disk reads: 3038 MB in 3.00 seconds = 1012.55 MB/sec
 

tproko

Benutzer
Sehr erfahren
Mitglied seit
11. Jun 2017
Beiträge
2.117
Punkte für Reaktionen
256
Punkte
129
Wenn bei deinen Festplatten der Schreibcache aktiviert wurde, dann testest du leider auch den RAM und nicht nur die SSDs ;)

Das war mir dann zu mühsam zum deaktivieren und erneut testen.
 

42HAL

Benutzer
Mitglied seit
10. Apr 2018
Beiträge
61
Punkte für Reaktionen
2
Punkte
8
Hallo zusammen,

ich überlege mir NVME SDDs' anzuschaffen, bin mir aber noch unsicher ob der Aufwand (Kauf + (noch?) nicht unterstütze Funktion seitens des OS) "lohnt".

Natürlich steht der Geschwindgkeitsvorteil an erster Stelle, jedoch nicht durch den direkten user-Zugriff. sondern durch das Verlagern der Applikationen (Pakete) und der Datenbanken mit vermutetem hohen I/O, hier Hyperbackup, Drive etc.

a.) Hat jemand Erfahrungswerte?
b.) Existiert (SuFu brachte kein Ergebnis) eine Übersicht, bei welche Apllikationen welche DBs' wie verschieden werden müssen?
c.) Fehlt noch etwas bei meinen Überlegungen / Fragen?

Geplante System(e): DS1621+ / DS 1618+

Fall das Thema hier fehl am Platze sein sollte, bitte verschieben.

Vielen Dank im Voraus
 

ctrlaltdelete

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
30. Dez 2012
Beiträge
13.636
Punkte für Reaktionen
5.809
Punkte
524

Mavalok2

Benutzer
Mitglied seit
05. Jun 2018
Beiträge
697
Punkte für Reaktionen
145
Punkte
69
@Jürgen_I
Versuch es mal mit
hdparm --direct -Tt /dev/md3
 


 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat