Scrutiny SMART Monitoring

Toby-ch

Benutzer
Mitglied seit
02. Okt 2013
Beiträge
453
Punkte für Reaktionen
18
Punkte
18
Und es geht mit den "cap_add"-Einträgen?
Ja Das ist die Yml:
YAML:
services:
  scrutiny:
    container_name: scrutiny
    image: ghcr.io/analogj/scrutiny:master-omnibus
    cap_add:
      - SYS_RAWIO
      - SYS_ADMIN
    ports:
      - "6090:8080" # webapp
      - "8086:8086" # influxDB admin
    volumes:
      - /run/udev:/run/udev:ro
      - /volume2/docker/scrutiny/config:/opt/scrutiny/config
      - /volume2/docker/scrutiny/influxdb:/opt/scrutiny/influxdb
    devices:
      - /dev/nvme0n1:/dev/nvme0n1
      - /dev/nvme1n1:/dev/nvme1n1
      - /dev/sata1:/dev/sata1
      - /dev/sata2:/dev/sata2
      - /dev/sata3:/dev/sata3
      - /dev/sata4:/dev/sata4
      - /dev/sata5:/dev/sata5
      - /dev/sata6:/dev/sata6
      - /dev/sata7:/dev/sata7
    environment:
      - SCRUTINY_WEB_INFLUXDB_TOKEN=ANYLONGSTRING
      - SCRUTINY_WEB_INFLUXDB_INIT_USERNAME=scrutiny
      - SCRUTINY_WEB_INFLUXDB_INIT_PASSWORD=strengGeheim
    restart: unless-stopped
Lediglich den Netzwerk Parameter
network_mode: synobridge
und Disk 8 da nicht vorhanden musste ich entfernen.

@plang.pl
Was möchtest du genau machen ?
 

plang.pl

Benutzer
Contributor
Sehr erfahren
Mitglied seit
28. Okt 2020
Beiträge
15.028
Punkte für Reaktionen
5.401
Punkte
564
Was möchtest du genau machen ?
Nicht den AIO Container installieren. Ich möchte auf einem Docker-Host den Webserver und die Datenbank haben, dem dann die anderen Hosts, wo wiederum nur der Collector läuft, die SMART-Werte übermitteln
 

plang.pl

Benutzer
Contributor
Sehr erfahren
Mitglied seit
28. Okt 2020
Beiträge
15.028
Punkte für Reaktionen
5.401
Punkte
564
Es ist eigentlich nicht soo "krass", da die Doku relativ gut ist. Aber manche Sachen sind eher spärlich beschrieben.
Deshalb ist es ein ziemliches Gefrickel. Aber der Webserver und die DB läuft ja schon mal. Den Collector habe ich nur auf meine Proxmox Hosts geklatscht. Das ist ja quasi nur ein Script, dass man ausführbar machen muss und dann in via Cron ab und an starten lassen.
EDIT: Und der Collector kommt dann noch als Docker auf die DS.
 

Toby-ch

Benutzer
Mitglied seit
02. Okt 2013
Beiträge
453
Punkte für Reaktionen
18
Punkte
18
Bei miner RS422+ kann ich die Webseite nicht aufrufen egal welches Netzwerk ich nutze, host oder Bridge...

Gelöst lag am https 😱
 
Zuletzt bearbeitet:
  • Like
Reaktionen: ctrlaltdelete

plang.pl

Benutzer
Contributor
Sehr erfahren
Mitglied seit
28. Okt 2020
Beiträge
15.028
Punkte für Reaktionen
5.401
Punkte
564
Endlich läuft es auch bei mir.
Der Webserver und die DB läuft auf einer Linux-VM unter Proxmox. Aktuell empfängt die nur die Daten der beiden Proxmox Hosts. Leider weiß man nicht, woher welche Daten kommen. Denn es nicht möglich anzugeben, in welche DB geschrieben wird und auch wird der Hostname o.Ä. auf dem Dashboard nicht gelistet.
1.png
 
  • Like
Reaktionen: Adama

Adama

Benutzer
Sehr erfahren
Maintainer
Mitglied seit
05. Mrz 2013
Beiträge
2.152
Punkte für Reaktionen
741
Punkte
154
Naja, vergiß nicht den ersten Satz auf der Github-Seite: "NOTE: Scrutiny is a Work-in-Progress and still has some rough edges." ;)

Ich werde auch noch mal schauen, ob ich sowas für meine PRTG-Instanz gebaut kriege. Für Windows gibt es einen vergleichbaren Sensor, aber nciht für Linux und Verwandte...
 

plang.pl

Benutzer
Contributor
Sehr erfahren
Mitglied seit
28. Okt 2020
Beiträge
15.028
Punkte für Reaktionen
5.401
Punkte
564
Ich habe den Collector nun auf der DS auch mithilfe der Datei ausgeführt und nicht via Docker, genau wie auf den PVE-Nodes. Mit folgender Config, aber es endet immer mit einem Error bei "scanning for devices"
Code:
devices:
  - device: /dev/sda
    type: 'sat'
  - device: /dev/sdb
    type: 'sat'
  - device: /dev/nvme0
    type: 'nvme'
  - device: /dev/nvme1
    type: 'nvme'
 

Adama

Benutzer
Sehr erfahren
Maintainer
Mitglied seit
05. Mrz 2013
Beiträge
2.152
Punkte für Reaktionen
741
Punkte
154
Hast du den Container mal "privileged" laufen lassen? Das war bei mir die einzige Möglichkeit.
 
  • Like
Reaktionen: plang.pl

haydibe

Benutzer
Sehr erfahren
Mitglied seit
12. Apr 2016
Beiträge
1.519
Punkte für Reaktionen
404
Punkte
103
  • Like
Reaktionen: plang.pl

plang.pl

Benutzer
Contributor
Sehr erfahren
Mitglied seit
28. Okt 2020
Beiträge
15.028
Punkte für Reaktionen
5.401
Punkte
564

Adama

Benutzer
Sehr erfahren
Maintainer
Mitglied seit
05. Mrz 2013
Beiträge
2.152
Punkte für Reaktionen
741
Punkte
154
Ah, sorry, das hatte ich überlesen...
 

plang.pl

Benutzer
Contributor
Sehr erfahren
Mitglied seit
28. Okt 2020
Beiträge
15.028
Punkte für Reaktionen
5.401
Punkte
564
Jetzt sieht es gut aus. Zumindest mit den PVE-Nodes. Die sind jetzt beschriftet. Geil.
Nun noch irgendwie das mit der DS hinfummeln und dann läufts
1.png
 
  • Like
Reaktionen: Adama und haydibe

plang.pl

Benutzer
Contributor
Sehr erfahren
Mitglied seit
28. Okt 2020
Beiträge
15.028
Punkte für Reaktionen
5.401
Punkte
564
Steh ich aufm Schlauch?
fdisk -l gibt Folgendes aus auf der DS:
1.png

Müsste der Inhalt der collector.yaml dann nicht so aussehen?
Code:
devices:
  - device: /dev/sata1
    type: 'sat'
  - device: /dev/sata2
    type: 'sat'
  - device: /dev/nvme0n1
    type: 'nvme'
  - device: /dev/nvme1n1
    type: 'nvme'
 

plang.pl

Benutzer
Contributor
Sehr erfahren
Mitglied seit
28. Okt 2020
Beiträge
15.028
Punkte für Reaktionen
5.401
Punkte
564
# scan_smart_devices: glob(3) aborted matching pattern /dev/discs/disc*
 

haydibe

Benutzer
Sehr erfahren
Mitglied seit
12. Apr 2016
Beiträge
1.519
Punkte für Reaktionen
404
Punkte
103
Unschön.

Lässt Du den Collector als Container laufen? Nachdem Synology ja gerne Binaries und Libraries verbiegt, würde ich den Collector eh nur als Container laufen lassen. Ich bin mal gespannt, ob das smartctl innerhalb des Containers anders reagiert.
 

plang.pl

Benutzer
Contributor
Sehr erfahren
Mitglied seit
28. Okt 2020
Beiträge
15.028
Punkte für Reaktionen
5.401
Punkte
564
Also nun als Docker:
YAML:
services:
  scrutiny:
    container_name: scrutiny
    image: ghcr.io/analogj/scrutiny:master-collector
    cap_add:
      - SYS_RAWIO
      - SYS_ADMIN
    volumes:
      - /run/udev:/run/udev:ro
      - /volume2/docker/scrutiny:/opt/scrutiny/config
    devices:
      - /dev/nvme0n1:/dev/nvme0n1
      - /dev/nvme1n1:/dev/nvme1n1
      - /dev/sata1:/dev/sata1
      - /dev/sata2:/dev/sata2
    restart: always

Die collector.yaml:
Code:
version: 1

host:
  id: "File-Server"

devices:
  - device: /dev/sata1
    type: 'sat'
  - device: /dev/sata2
    type: 'sat'
  - device: /dev/nvme0n1
    type: 'nvme'
  - device: /dev/nvme1n1
    type: 'nvme'

api:
  endpoint: 'http://10.1.1.10:8080'

Das sagt der Portainer Log (Container 1x neu gestartet, weil ich den Endpoint in der Conig ergänzt habe):
1.png

Ist jetzt seit ein paar Minuten up and running, aber im Dashboard kommt nix.
 

haydibe

Benutzer
Sehr erfahren
Mitglied seit
12. Apr 2016
Beiträge
1.519
Punkte für Reaktionen
404
Punkte
103

plang.pl

Benutzer
Contributor
Sehr erfahren
Mitglied seit
28. Okt 2020
Beiträge
15.028
Punkte für Reaktionen
5.401
Punkte
564
Gar nix...
1.png
 


 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat