Scrutiny SMART Monitoring

haydibe

Benutzer
Sehr erfahren
Mitglied seit
12. Apr 2016
Beiträge
1.519
Punkte für Reaktionen
404
Punkte
103
Da muss ich nicht beim manuellen Start daran denken, die Parameter mit anzugeben.
Ich werde den Collector nie wieder manuell starten :)

Docker würde ich auf dem PVE Host auch nicht installieren, außer ich bräuchte für einen Container Zugriff auf die Host-GPU. Auf Intel Systemen mit iGPU könnte man mit GVT-g auch die Grafikkarte Partitionieren und diese per IOMMU in die VMs durchreichen, aber das scheint nicht sonderlich stabil zu funktionieren.
 

plang.pl

Benutzer
Contributor
Sehr erfahren
Mitglied seit
28. Okt 2020
Beiträge
15.028
Punkte für Reaktionen
5.401
Punkte
564
Das mit dem Partitionieren habe ich noch nicht versucht. Bei mir ist die iGPU des einen Hosts an meine Windows 11 VM durchgereicht und auf dem anderen Host an die Linux Mint VM. Ich hab ja 2 Intel-Hosts
 

p4-freak

Benutzer
Mitglied seit
29. Jul 2022
Beiträge
65
Punkte für Reaktionen
3
Punkte
8
Gibt es schon eine sinnvolle Alternative smart Anzeige für die Synology?
 

Benie

Benutzer
Contributor
Sehr erfahren
Mitglied seit
19. Feb 2014
Beiträge
8.474
Punkte für Reaktionen
3.510
Punkte
344
  • Like
Reaktionen: ctrlaltdelete

p4-freak

Benutzer
Mitglied seit
29. Jul 2022
Beiträge
65
Punkte für Reaktionen
3
Punkte
8
Also ich hab jetzt auch die Docker Variante Scrutiny am laufen, sehr schick gefällt mir.

Aber kann ich das auch einstellen, das es ein PW benötigt, um darauf zugreifen zu können? Aktuell könnte jeder mit der Adresse meine Festplatten sehen im Internet...
 

alexhell

Benutzer
Sehr erfahren
Mitglied seit
13. Mai 2021
Beiträge
2.831
Punkte für Reaktionen
853
Punkte
154
Wieso im Internet? Wenn du den Port nicht weiterleitest/öffnest, dann kann doch auch niemand zugreifen. Oder wie betreibst du es?
 

ctrlaltdelete

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
30. Dez 2012
Beiträge
13.633
Punkte für Reaktionen
5.809
Punkte
524
Stimmt HDD02 stirbt bald.
Nein, Spaß beiseite, nimm einen Proxy mit Authentifizierung.
 

p4-freak

Benutzer
Mitglied seit
29. Jul 2022
Beiträge
65
Punkte für Reaktionen
3
Punkte
8
Naja, ich hab mir eine Adresse beim Reverse Proxy angelegt und leite ja den Port von 443 auf meine bestimmten um, und da muss ich auch keine BN oder PW angeben.

Hab es nach dieser Anleitung gemacht:

dr Frankenstein synology, link kann ich nicht teilen denk ich mal, einfach googlen.
 

alexhell

Benutzer
Sehr erfahren
Mitglied seit
13. Mai 2021
Beiträge
2.831
Punkte für Reaktionen
853
Punkte
154
Ja, dann musst das dein Reverse Proxy regeln. Die meisten haben die Möglichkeit eine Authentifizierung vorzuschalten.
 

ctrlaltdelete

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
30. Dez 2012
Beiträge
13.633
Punkte für Reaktionen
5.809
Punkte
524
Der Synology Reverse Proxy kann keine Authentifizierung da bräuchtest du nginx proxy manager oder SWAG.
 

p4-freak

Benutzer
Mitglied seit
29. Jul 2022
Beiträge
65
Punkte für Reaktionen
3
Punkte
8
ja, das dachte ich mir schon, ich hab da auch nix gefunden.

Wie habt ihr das den gemacht?
 

ctrlaltdelete

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
30. Dez 2012
Beiträge
13.633
Punkte für Reaktionen
5.809
Punkte
524
Ich bin gerade drüber mir nginx proxy manager auf einem raspberry zu installieren. Habe derzeit keine "offenen" Container.
 

alexhell

Benutzer
Sehr erfahren
Mitglied seit
13. Mai 2021
Beiträge
2.831
Punkte für Reaktionen
853
Punkte
154
Bei mir läuft SWAG in einer VM in Proxmox. Ich unterscheide auch bei den Domains, ob es von außen erreichbar ist oder nicht. Also *.example.de ist von außen erreichbar während *.intern.example.de nur intern erreichbar ist
 

ctrlaltdelete

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
30. Dez 2012
Beiträge
13.633
Punkte für Reaktionen
5.809
Punkte
524
Weiß jemand wie man die Email Funktion von Scrutiny testen kann?
 

ctrlaltdelete

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
30. Dez 2012
Beiträge
13.633
Punkte für Reaktionen
5.809
Punkte
524
Kann man den Update Interval festlegen?
 

haydibe

Benutzer
Sehr erfahren
Mitglied seit
12. Apr 2016
Beiträge
1.519
Punkte für Reaktionen
404
Punkte
103
Auszug aus der Doku:
https://github.com/AnalogJ/scrutiny?tab=readme-ov-file#cron-schedule schrieb:
...if you are using the official ghcr.io/analogj/scrutiny:master-collector or ghcr.io/analogj/scrutiny:master-omnibus docker images, you can use the COLLECTOR_CRON_SCHEDULE environmental variable to override the default cron schedule (daily @ midnight - 0 0 * * *).

docker run -e COLLECTOR_CRON_SCHEDULE="0 0 * * *" ...
Ich hab noch einen kleinen Lichtblick für alle, die Scrutiny auf einer modernen DS betreiben (oder einem anderen Host), und gerne den Collector auf einer DS betreiben wollen, für die es kein Docker gibt.: man kann über Entware die Pakete "make", "go", "git" und "git-http" installieren, dann die Sourcen vom Github-Projekt clonen und sich die Binary selbst bauen. Neulich haben wir das mit einem Kumpel für eine DS214 (die nur i686 ist und kein x86_64) gemacht. Installation für i686:
Code:
wget -O - https://bin.entware.net/x86-k2.6/installer/generic.sh | /bin/sh
(die fehlt oben im Wiki-Eintrag)
 
  • Like
Reaktionen: dil88

ctrlaltdelete

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
30. Dez 2012
Beiträge
13.633
Punkte für Reaktionen
5.809
Punkte
524
Scheduler habe ich versucht, griff aber nicht. Keine Fehler im Log.
 

haydibe

Benutzer
Sehr erfahren
Mitglied seit
12. Apr 2016
Beiträge
1.519
Punkte für Reaktionen
404
Punkte
103
Wenn man sich im Github Projekt das Dockerfile vom Omnisbus Image anschaut, dann sieht man das Dateien in das Image kopiert werden, die die eigentliche Arbeit machen:
Code:
https://github.com/AnalogJ/scrutiny/blob/master/docker/Dockerfile#L51

Beim Containerstart wird die Variable per sed in die cron Konfiguration geschrieben:
Code:
https://github.com/AnalogJ/scrutiny/blob/master/rootfs/etc/cont-init.d/50-cron-config#L15

Genau in diese Zeile:
Code:
https://github.com/AnalogJ/scrutiny/blob/master/rootfs/etc/cron.d/scrutiny#L14

Du könntest in den Container rein "exec" en und schauen ob die Datei so aussieht wie man es erwarten würde.
 

plang.pl

Benutzer
Contributor
Sehr erfahren
Mitglied seit
28. Okt 2020
Beiträge
15.028
Punkte für Reaktionen
5.401
Punkte
564
Bei mir reported der Container auch nicht automatisch. Ich musste manuell einen Cronjob anlegen, der per Docker exec das Ausliefern der Daten triggert.
 

haydibe

Benutzer
Sehr erfahren
Mitglied seit
12. Apr 2016
Beiträge
1.519
Punkte für Reaktionen
404
Punkte
103
Bei mir liest er alle 15 Minuten aus. Merkwürdig: die Logzeilen zum Auslesen und Übertragen werden in stderr statt stdout gelogged.

Update: das muss wohl wirklich ein Fehler sein: meine Einträge sind auch von heute 1:00, obwohl die Logs alle 15 Minuten durchcyclen. Muss ich mir wohl mal näher ansehen..

Update2:
Das hier funktioniert nicht:
Code:
      COLLECTOR_CRON_SCHEDULE: "0/5 * * * *"
Das hier funktioniert:
Code:
      COLLECTOR_CRON_SCHEDULE: "0,5,10,15,20,25,30,35,40,45,50,55 * * * *"

Jetzt ist es trotzdem spannend was da alle 15 Minuten auf stderr logged.
 
Zuletzt bearbeitet:


 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat