Scrutiny SMART Monitoring

haydibe

Benutzer
Sehr erfahren
Mitglied seit
12. Apr 2016
Beiträge
1.481
Punkte für Reaktionen
364
Punkte
103
Da muss ich nicht beim manuellen Start daran denken, die Parameter mit anzugeben.
Ich werde den Collector nie wieder manuell starten :)

Docker würde ich auf dem PVE Host auch nicht installieren, außer ich bräuchte für einen Container Zugriff auf die Host-GPU. Auf Intel Systemen mit iGPU könnte man mit GVT-g auch die Grafikkarte Partitionieren und diese per IOMMU in die VMs durchreichen, aber das scheint nicht sonderlich stabil zu funktionieren.
 

plang.pl

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
28. Okt 2020
Beiträge
14.311
Punkte für Reaktionen
4.977
Punkte
519
Das mit dem Partitionieren habe ich noch nicht versucht. Bei mir ist die iGPU des einen Hosts an meine Windows 11 VM durchgereicht und auf dem anderen Host an die Linux Mint VM. Ich hab ja 2 Intel-Hosts
 

p4-freak

Benutzer
Mitglied seit
29. Jul 2022
Beiträge
59
Punkte für Reaktionen
3
Punkte
8
Gibt es schon eine sinnvolle Alternative smart Anzeige für die Synology?
 

Benie

Benutzer
Sehr erfahren
Mitglied seit
19. Feb 2014
Beiträge
6.089
Punkte für Reaktionen
2.062
Punkte
279
  • Like
Reaktionen: ctrlaltdelete

p4-freak

Benutzer
Mitglied seit
29. Jul 2022
Beiträge
59
Punkte für Reaktionen
3
Punkte
8
Also ich hab jetzt auch die Docker Variante Scrutiny am laufen, sehr schick gefällt mir.

Aber kann ich das auch einstellen, das es ein PW benötigt, um darauf zugreifen zu können? Aktuell könnte jeder mit der Adresse meine Festplatten sehen im Internet...
 

alexhell

Benutzer
Sehr erfahren
Mitglied seit
13. Mai 2021
Beiträge
2.632
Punkte für Reaktionen
765
Punkte
154
Wieso im Internet? Wenn du den Port nicht weiterleitest/öffnest, dann kann doch auch niemand zugreifen. Oder wie betreibst du es?
 

ctrlaltdelete

Benutzer
Sehr erfahren
Maintainer
Mitglied seit
30. Dez 2012
Beiträge
10.204
Punkte für Reaktionen
3.710
Punkte
414
Stimmt HDD02 stirbt bald.
Nein, Spaß beiseite, nimm einen Proxy mit Authentifizierung.
 

p4-freak

Benutzer
Mitglied seit
29. Jul 2022
Beiträge
59
Punkte für Reaktionen
3
Punkte
8
Naja, ich hab mir eine Adresse beim Reverse Proxy angelegt und leite ja den Port von 443 auf meine bestimmten um, und da muss ich auch keine BN oder PW angeben.

Hab es nach dieser Anleitung gemacht:

dr Frankenstein synology, link kann ich nicht teilen denk ich mal, einfach googlen.
 

alexhell

Benutzer
Sehr erfahren
Mitglied seit
13. Mai 2021
Beiträge
2.632
Punkte für Reaktionen
765
Punkte
154
Ja, dann musst das dein Reverse Proxy regeln. Die meisten haben die Möglichkeit eine Authentifizierung vorzuschalten.
 

ctrlaltdelete

Benutzer
Sehr erfahren
Maintainer
Mitglied seit
30. Dez 2012
Beiträge
10.204
Punkte für Reaktionen
3.710
Punkte
414
Der Synology Reverse Proxy kann keine Authentifizierung da bräuchtest du nginx proxy manager oder SWAG.
 

p4-freak

Benutzer
Mitglied seit
29. Jul 2022
Beiträge
59
Punkte für Reaktionen
3
Punkte
8
ja, das dachte ich mir schon, ich hab da auch nix gefunden.

Wie habt ihr das den gemacht?
 

ctrlaltdelete

Benutzer
Sehr erfahren
Maintainer
Mitglied seit
30. Dez 2012
Beiträge
10.204
Punkte für Reaktionen
3.710
Punkte
414
Ich bin gerade drüber mir nginx proxy manager auf einem raspberry zu installieren. Habe derzeit keine "offenen" Container.
 

alexhell

Benutzer
Sehr erfahren
Mitglied seit
13. Mai 2021
Beiträge
2.632
Punkte für Reaktionen
765
Punkte
154
Bei mir läuft SWAG in einer VM in Proxmox. Ich unterscheide auch bei den Domains, ob es von außen erreichbar ist oder nicht. Also *.example.de ist von außen erreichbar während *.intern.example.de nur intern erreichbar ist
 

ctrlaltdelete

Benutzer
Sehr erfahren
Maintainer
Mitglied seit
30. Dez 2012
Beiträge
10.204
Punkte für Reaktionen
3.710
Punkte
414
Weiß jemand wie man die Email Funktion von Scrutiny testen kann?
 

ctrlaltdelete

Benutzer
Sehr erfahren
Maintainer
Mitglied seit
30. Dez 2012
Beiträge
10.204
Punkte für Reaktionen
3.710
Punkte
414
Kann man den Update Interval festlegen?
 

haydibe

Benutzer
Sehr erfahren
Mitglied seit
12. Apr 2016
Beiträge
1.481
Punkte für Reaktionen
364
Punkte
103
Auszug aus der Doku:
https://github.com/AnalogJ/scrutiny?tab=readme-ov-file#cron-schedule schrieb:
...if you are using the official ghcr.io/analogj/scrutiny:master-collector or ghcr.io/analogj/scrutiny:master-omnibus docker images, you can use the COLLECTOR_CRON_SCHEDULE environmental variable to override the default cron schedule (daily @ midnight - 0 0 * * *).

docker run -e COLLECTOR_CRON_SCHEDULE="0 0 * * *" ...
Ich hab noch einen kleinen Lichtblick für alle, die Scrutiny auf einer modernen DS betreiben (oder einem anderen Host), und gerne den Collector auf einer DS betreiben wollen, für die es kein Docker gibt.: man kann über Entware die Pakete "make", "go", "git" und "git-http" installieren, dann die Sourcen vom Github-Projekt clonen und sich die Binary selbst bauen. Neulich haben wir das mit einem Kumpel für eine DS214 (die nur i686 ist und kein x86_64) gemacht. Installation für i686:
Code:
wget -O - https://bin.entware.net/x86-k2.6/installer/generic.sh | /bin/sh
(die fehlt oben im Wiki-Eintrag)
 
  • Like
Reaktionen: dil88

ctrlaltdelete

Benutzer
Sehr erfahren
Maintainer
Mitglied seit
30. Dez 2012
Beiträge
10.204
Punkte für Reaktionen
3.710
Punkte
414
Scheduler habe ich versucht, griff aber nicht. Keine Fehler im Log.
 

haydibe

Benutzer
Sehr erfahren
Mitglied seit
12. Apr 2016
Beiträge
1.481
Punkte für Reaktionen
364
Punkte
103
Wenn man sich im Github Projekt das Dockerfile vom Omnisbus Image anschaut, dann sieht man das Dateien in das Image kopiert werden, die die eigentliche Arbeit machen:
Code:
https://github.com/AnalogJ/scrutiny/blob/master/docker/Dockerfile#L51

Beim Containerstart wird die Variable per sed in die cron Konfiguration geschrieben:
Code:
https://github.com/AnalogJ/scrutiny/blob/master/rootfs/etc/cont-init.d/50-cron-config#L15

Genau in diese Zeile:
Code:
https://github.com/AnalogJ/scrutiny/blob/master/rootfs/etc/cron.d/scrutiny#L14

Du könntest in den Container rein "exec" en und schauen ob die Datei so aussieht wie man es erwarten würde.
 

plang.pl

Benutzer
Contributor
Sehr erfahren
Maintainer
Mitglied seit
28. Okt 2020
Beiträge
14.311
Punkte für Reaktionen
4.977
Punkte
519
Bei mir reported der Container auch nicht automatisch. Ich musste manuell einen Cronjob anlegen, der per Docker exec das Ausliefern der Daten triggert.
 

haydibe

Benutzer
Sehr erfahren
Mitglied seit
12. Apr 2016
Beiträge
1.481
Punkte für Reaktionen
364
Punkte
103
Bei mir liest er alle 15 Minuten aus. Merkwürdig: die Logzeilen zum Auslesen und Übertragen werden in stderr statt stdout gelogged.

Update: das muss wohl wirklich ein Fehler sein: meine Einträge sind auch von heute 1:00, obwohl die Logs alle 15 Minuten durchcyclen. Muss ich mir wohl mal näher ansehen..

Update2:
Das hier funktioniert nicht:
Code:
      COLLECTOR_CRON_SCHEDULE: "0/5 * * * *"
Das hier funktioniert:
Code:
      COLLECTOR_CRON_SCHEDULE: "0,5,10,15,20,25,30,35,40,45,50,55 * * * *"

Jetzt ist es trotzdem spannend was da alle 15 Minuten auf stderr logged.
 
Zuletzt bearbeitet:


 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat 

 
 
  AdBlocker gefunden!

Du bist nicht hier, um Support für Adblocker zu erhalten. Dein Adblocker funktioniert bereits ;-)

Klar machen Adblocker einen guten Job, aber sie blockieren auch nützliche Funktionen.

Das Forum wird mit hohem technischen, zeitlichen und finanziellen Aufwand kostenfrei zur Verfügung gestellt. Wir zeigen keine offensive Werbung und bemühen uns um eine dezente Integration.

Bitte unterstütze dieses Forum, in dem du deinen Adblocker für diese Seite deaktivierst.

Du kannst uns auch über unseren Kaffeautomat einen Kaffe ausgeben oder ein PUR Abo abschließen und das Forum so werbefrei nutzen.

Vielen Dank für Deine Unterstützung!