Scrutiny SMART Monitoring

Da muss ich nicht beim manuellen Start daran denken, die Parameter mit anzugeben.
Ich werde den Collector nie wieder manuell starten :)

Docker würde ich auf dem PVE Host auch nicht installieren, außer ich bräuchte für einen Container Zugriff auf die Host-GPU. Auf Intel Systemen mit iGPU könnte man mit GVT-g auch die Grafikkarte Partitionieren und diese per IOMMU in die VMs durchreichen, aber das scheint nicht sonderlich stabil zu funktionieren.
 
Das mit dem Partitionieren habe ich noch nicht versucht. Bei mir ist die iGPU des einen Hosts an meine Windows 11 VM durchgereicht und auf dem anderen Host an die Linux Mint VM. Ich hab ja 2 Intel-Hosts
 
  • Like
Reaktionen: ctrlaltdelete
Also ich hab jetzt auch die Docker Variante Scrutiny am laufen, sehr schick gefällt mir.

Aber kann ich das auch einstellen, das es ein PW benötigt, um darauf zugreifen zu können? Aktuell könnte jeder mit der Adresse meine Festplatten sehen im Internet...
 
Wieso im Internet? Wenn du den Port nicht weiterleitest/öffnest, dann kann doch auch niemand zugreifen. Oder wie betreibst du es?
 
Stimmt HDD02 stirbt bald.
Nein, Spaß beiseite, nimm einen Proxy mit Authentifizierung.
 
Naja, ich hab mir eine Adresse beim Reverse Proxy angelegt und leite ja den Port von 443 auf meine bestimmten um, und da muss ich auch keine BN oder PW angeben.

Hab es nach dieser Anleitung gemacht:

dr Frankenstein synology, link kann ich nicht teilen denk ich mal, einfach googlen.
 
Ja, dann musst das dein Reverse Proxy regeln. Die meisten haben die Möglichkeit eine Authentifizierung vorzuschalten.
 
Der Synology Reverse Proxy kann keine Authentifizierung da bräuchtest du nginx proxy manager oder SWAG.
 
ja, das dachte ich mir schon, ich hab da auch nix gefunden.

Wie habt ihr das den gemacht?
 
Ich bin gerade drüber mir nginx proxy manager auf einem raspberry zu installieren. Habe derzeit keine "offenen" Container.
 
Bei mir läuft SWAG in einer VM in Proxmox. Ich unterscheide auch bei den Domains, ob es von außen erreichbar ist oder nicht. Also *.example.de ist von außen erreichbar während *.intern.example.de nur intern erreichbar ist
 
Weiß jemand wie man die Email Funktion von Scrutiny testen kann?
 
Kann man den Update Interval festlegen?
 
Auszug aus der Doku:
https://github.com/AnalogJ/scrutiny?tab=readme-ov-file#cron-schedule schrieb:
...if you are using the official ghcr.io/analogj/scrutiny:master-collector or ghcr.io/analogj/scrutiny:master-omnibus docker images, you can use the COLLECTOR_CRON_SCHEDULE environmental variable to override the default cron schedule (daily @ midnight - 0 0 * * *).

docker run -e COLLECTOR_CRON_SCHEDULE="0 0 * * *" ...
Ich hab noch einen kleinen Lichtblick für alle, die Scrutiny auf einer modernen DS betreiben (oder einem anderen Host), und gerne den Collector auf einer DS betreiben wollen, für die es kein Docker gibt.: man kann über Entware die Pakete "make", "go", "git" und "git-http" installieren, dann die Sourcen vom Github-Projekt clonen und sich die Binary selbst bauen. Neulich haben wir das mit einem Kumpel für eine DS214 (die nur i686 ist und kein x86_64) gemacht. Installation für i686:
Code:
wget -O - https://bin.entware.net/x86-k2.6/installer/generic.sh | /bin/sh
(die fehlt oben im Wiki-Eintrag)
 
  • Like
Reaktionen: dil88
Scheduler habe ich versucht, griff aber nicht. Keine Fehler im Log.
 
Wenn man sich im Github Projekt das Dockerfile vom Omnisbus Image anschaut, dann sieht man das Dateien in das Image kopiert werden, die die eigentliche Arbeit machen:
Code:
https://github.com/AnalogJ/scrutiny/blob/master/docker/Dockerfile#L51

Beim Containerstart wird die Variable per sed in die cron Konfiguration geschrieben:
Code:
https://github.com/AnalogJ/scrutiny/blob/master/rootfs/etc/cont-init.d/50-cron-config#L15

Genau in diese Zeile:
Code:
https://github.com/AnalogJ/scrutiny/blob/master/rootfs/etc/cron.d/scrutiny#L14

Du könntest in den Container rein "exec" en und schauen ob die Datei so aussieht wie man es erwarten würde.
 
Bei mir reported der Container auch nicht automatisch. Ich musste manuell einen Cronjob anlegen, der per Docker exec das Ausliefern der Daten triggert.
 
Bei mir liest er alle 15 Minuten aus. Merkwürdig: die Logzeilen zum Auslesen und Übertragen werden in stderr statt stdout gelogged.

Update: das muss wohl wirklich ein Fehler sein: meine Einträge sind auch von heute 1:00, obwohl die Logs alle 15 Minuten durchcyclen. Muss ich mir wohl mal näher ansehen..

Update2:
Das hier funktioniert nicht:
Code:
      COLLECTOR_CRON_SCHEDULE: "0/5 * * * *"
Das hier funktioniert:
Code:
      COLLECTOR_CRON_SCHEDULE: "0,5,10,15,20,25,30,35,40,45,50,55 * * * *"

Jetzt ist es trotzdem spannend was da alle 15 Minuten auf stderr logged.
 
Zuletzt bearbeitet:
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat