Metadaten der Video Station sichern

Status
Für weitere Antworten geschlossen.

DS_Starter

Benutzer
Mitglied seit
15. Jan 2012
Beiträge
271
Punkte für Reaktionen
0
Punkte
16
Hallo miteinander,

weiß jemand wo die Video Station die Metadaten der Filmsammlung ablegt und wie man die sichern kann ?
Hintergrund ist, dass es teilweise sehr viel Arbeit macht private Videos komplett zu taggen, richtiges Aufnahmedatum , Erläuterungen zum Inhalt, etc.
Das zurücksichern von Videodateien vom Backup ist ja im Fehlerfall kein Problem. Aber wie verhält sich das mit den Video Station Metadaten ?

Weiß jemand Rat ?

beste Grüße
DS_Starter
 

klmpf

Benutzer
Mitglied seit
03. Dez 2012
Beiträge
61
Punkte für Reaktionen
10
Punkte
8
Dem schließe ich mich an, würde mich auch sehr interessieren...
 

menena

Benutzer
Mitglied seit
03. Nov 2012
Beiträge
28
Punkte für Reaktionen
0
Punkte
1
Hallo,
ich habe das gleiche Problem und habe deshalb den Syno Support angeschrieben.
Hier die Antwort:
Thanks for your feedback. We are sorry for this late response. Please allow us to reply in English.


After consulting with our PM team, unfortunately, this feature of backuping database for Video Station hasn't been supported and tested. However, there is one thing for certain, this suggestion of yours has certainly caught our attention. We have put this suggestion in our enhancement database. If you need to suggest more features, you could also submit the following form to let the PM team know you ideas: http://www.synology.com/support/inquiry_form.php?lang=enu&type=1


Hope this helps.

Best Regards,
Adair Hsu

Vielleicht hilft´s, wenn noch mehr Leute den Support anschreiben??
 
Zuletzt bearbeitet:

DS_Starter

Benutzer
Mitglied seit
15. Jan 2012
Beiträge
271
Punkte für Reaktionen
0
Punkte
16
Hallo,

danke für die Info. Ich glaube dann muß man die Damen und Herren nochmal darauf stubsen. :)
Schönen Abend noch ...
 

meffi

Benutzer
Mitglied seit
24. Jan 2013
Beiträge
8
Punkte für Reaktionen
0
Punkte
0
So, habe auch mal beim Support deswegen angeklopft und auch eine Feature-Anfrage gestellt.
 

DS_Starter

Benutzer
Mitglied seit
15. Jan 2012
Beiträge
271
Punkte für Reaktionen
0
Punkte
16
Hallo miteinander,

inzwischen ist klar geworden, dass diese Daten sich in der PostgreSQL-Datenbank befinden. Damit im Fehlerfall eine Wiederherstellung möglich ist, dumpe ich die gesamte DB jeden Tag über Export-Scripts mit anschließender Sicherung per Timebackup. Restore habe ich noch nicht gestestet (testen müssen).

Backup aller Datenbanken mit pg_dumpall:

pg_dumpall -- extract a PostgreSQL database cluster into a script file

Backup / Restore-Tools befinden sich in /usr/syno/pgsql/bin/

Backup aller Datenbanken:

cd /usr/syno/pgsql/bin/
./pg_dumpall -U admin -c > /volume1/Shared_Data/'Backup PostgreSQL DS413'/pgdumpall.sql


Es werden beim Restore evtl. vorhandene Datenbanken gedroppt und neu angelegt / befüllt.


Backup einzelner Datenbanken mit pg_dump

pg_dump [option...] [dbname]

cd /usr/syno/pgsql/bin/
./pg_dump -U admin -c <dbname> > /volume1/Shared_Data/'Backup PostgreSQL DS413'/<dbname>.sql

Dafür habe ich das Script /volume1/Shared_Data/Backup PostgreSQL DS413/pgdump.sh erstellt mit dem Inhalt:

#!/bin/sh
# alle Datenbanken in einem File
cd /usr/syno/pgsql/bin/
./pg_dumpall -U admin -c > /volume1/Shared_Data/'Backup PostgreSQL DS413'/pgdumpall.sql
# jede Datenbank einzeln gesichert
./pg_dump -U admin -c download > /volume1/Shared_Data/'Backup PostgreSQL DS413'/download_dump.sql
./pg_dump -U admin -c mediaserver > /volume1/Shared_Data/'Backup PostgreSQL DS413'/mediaserver_dump.sql
./pg_dump -U admin -c photo > /volume1/Shared_Data/'Backup PostgreSQL DS413'/photo_dump.sql
./pg_dump -U admin -c postgres > /volume1/Shared_Data/'Backup PostgreSQL DS413'/postgres_dump.sql
./pg_dump -U admin -c surveillance > /volume1/Shared_Data/'Backup PostgreSQL DS413'/surveillance_dump.sql
./pg_dump -U admin -c synolog > /volume1/Shared_Data/'Backup PostgreSQL DS413'/synolog_dump.sql
./pg_dump -U admin -c video_metadata > /volume1/Shared_Data/'Backup PostgreSQL DS413'/video_metadata_dump.sql


Crontabeintrag für den täglichen Dump:

# Backup PostgreSQL Datenbank
45 23 * * * root /volume1/Shared_Data/'Backup PostgreSQL DS413'/pgdump.sh


Es werden beim Restore evtl. vorhandene Datenbanken gedropt und neu angelegt / befüllt.

Nachstehend eine Auswahl hilfreicher Optionen:

Include SQL commands to clean (drop) databases before recreating them. DROP commands for roles and tablespaces are added as well.

-c
--clean

Connect as the given user

-U username


Restore mit psql könnte so passieren:

cd /usr/syno/pgsql/bin/
psql -U admin -1 -L /volume1/Shared_Data/'Backup PostgreSQL DS413'/pgdump_restore.log -f /volume1/Shared_Data/'Backup PostgreSQL DS413'/<file>.sql




Erwähnt soll noch das Tool phpPgAdmin sein, welches ich über das Paketcenter installiert habe und mit dem man auch die DB entsprechend managen kann.
Ich hoffe diese kleine Anleitung hilft etwas. Anregungen und weitere Wissensvermittlung sind natürlich gern willkommen.
 

Aevin

Benutzer
Mitglied seit
22. Nov 2010
Beiträge
1.371
Punkte für Reaktionen
96
Punkte
74
Warum nur so kompliziert, hätte ruhig in der normalen SQL Datenbank abgelegt werden können.
Nach dem Backup der DS auf die 4.3 Beta und auch Aktualisierung der Videostation, stand ich wieder am Anfang :( Musste meine Filme/Serien erneut taggen.

Hoffe auf eine zukünftige einfachere Lösung, ala Datenbank sichern unter... in der Videostation

Gruß Aevin
 

menena

Benutzer
Mitglied seit
03. Nov 2012
Beiträge
28
Punkte für Reaktionen
0
Punkte
1
Nach dem Backup der DS auf die 4.3 Beta und auch Aktualisierung der Videostation, stand ich wieder am Anfang :( Musste meine Filme/Serien erneut taggen.

:confused::confused: Ist das Dein Ernst???? Nee, Neeee, dann ist die Aktualisierung für mich gestorben. Ich habe momentan 1006 Filme und 31 Serien, die ich alle mehr oder weniger von Hand bearbeitet habe, den Stress gebe ich mir nicht nochmal. Das ist schliesslich mein Hobby und nicht mein Beruf und so soll das auch bleiben :)
 

otmanix

Benutzer
Mitglied seit
06. Jan 2012
Beiträge
43
Punkte für Reaktionen
0
Punkte
0
Hallo miteinander,
inzwischen ist klar geworden, dass diese Daten sich in der PostgreSQL-Datenbank befinden. Damit im Fehlerfall eine Wiederherstellung möglich ist, dumpe ich die gesamte DB jeden Tag über Export-Scripts mit anschließender Sicherung per Timebackup. Restore habe ich noch nicht gestestet (testen müssen).
...
Erwähnt soll noch das Tool phpPgAdmin sein, welches ich über das Paketcenter installiert habe und mit dem man auch die DB entsprechend managen kann.
Ich hoffe diese kleine Anleitung hilft etwas. Anregungen und weitere Wissensvermittlung sind natürlich gern willkommen.

@DS_Starter:
Ich mache das letztendlich fast genauso. Ich möchte dir nur ein paar Ratschläge mitgeben:
- Beim Dump solltest du auch BLOBs exportieren, da Synology diese teilweise einsetzt. Ansonsten fehlt dir beim Restore etwas... Beispiel für Videostation-DB: /usr/syno/pgsql/bin/pg_dump -U admin -C -F p -b -v -f /volume1/backup/videostation_backup.sql video_metadata (hier die Parameter: http://www.postgresql.org/docs/8.4/static/app-pgdump.html)
- phpPgAdmin ist ein echt klasse Tool, ähnlich phpmyadmin. Synology konfiguriert aber standardmäßig Authentifizierung via OS-User. Hat man nun sein NAS via DynDNS/Portweiterleitung im Internet verfügbar gemacht steht phpPgAdmin automatisch auch dort zur Verfügung. Durch die Authentifizierungsmethode, die synology für den Zugriff auf Postgres gewählt hat steht der Zugriff via Internet auf die Applikationsdatenbanken nun jedermann zur Verfügung. Als User admin und als Paßwort wird jeglicher Blödsinn akzeptiert. Ich würde phpPgAdmin in der Synology Postgres-config definitiv nicht laufen lassen. weitere Infos hier: http://www.cphub.net/index.php?id=40&pid=103 ==> Update: Zugriffsbeschränkungen für phpPgAdmin funktionieren scheinbar via /usr/syno/etc/sites-enabled-user/SYNO.SDS.phpPgAdmin.conf
- Hier meine Vorgehensweise im Detail: http://backupinferno.de/?p=49
Gruß, Otmanix
 
Zuletzt bearbeitet:

SammyLi

Benutzer
Mitglied seit
21. Jan 2014
Beiträge
77
Punkte für Reaktionen
0
Punkte
0
Ich sehe das ja wohl richtig, dass sich da noch nichts getan hat, oder? Ich frage mich auch etwas, was daran eigentlich so schwer ist.
 

otmanix

Benutzer
Mitglied seit
06. Jan 2012
Beiträge
43
Punkte für Reaktionen
0
Punkte
0
Ich hab mal einen Blick in die dsm 5.0 beta live-demo geworfen. http://www.synology.com/de-de/products/dsm_livedemo
Da hat sich leider nichts getan. Es werden nur die Datenbanken von surv. und photo station zum Sichern angeboten - keine Rede von Audio, Video ... station.
Also werde ich wohl bei meinem bash Skript mit postgres dump bleiben müssen...
 

SammyLi

Benutzer
Mitglied seit
21. Jan 2014
Beiträge
77
Punkte für Reaktionen
0
Punkte
0
Na mal sehen, vielleicht findet man ja auch ein Paket 'von extern', dass die Sicherung übernimmt.
 

PaddyPat

Benutzer
Mitglied seit
13. Sep 2013
Beiträge
46
Punkte für Reaktionen
0
Punkte
0
@DS_Starter:
Ich mache das letztendlich fast genauso. Ich möchte dir nur ein paar Ratschläge mitgeben:
- Beim Dump solltest du auch BLOBs exportieren, da Synology diese teilweise einsetzt. Ansonsten fehlt dir beim Restore etwas... Beispiel für Videostation-DB: /usr/syno/pgsql/bin/pg_dump -U admin -C -F p -b -v -f /volume1/backup/videostation_backup.sql video_metadata (hier die Parameter: http://www.postgresql.org/docs/8.4/static/app-pgdump.html)
- phpPgAdmin ist ein echt klasse Tool, ähnlich phpmyadmin. Synology konfiguriert aber standardmäßig Authentifizierung via OS-User. Hat man nun sein NAS via DynDNS/Portweiterleitung im Internet verfügbar gemacht steht phpPgAdmin automatisch auch dort zur Verfügung. Durch die Authentifizierungsmethode, die synology für den Zugriff auf Postgres gewählt hat steht der Zugriff via Internet auf die Applikationsdatenbanken nun jedermann zur Verfügung. Als User admin und als Paßwort wird jeglicher Blödsinn akzeptiert. Ich würde phpPgAdmin in der Synology Postgres-config definitiv nicht laufen lassen. weitere Infos hier: http://www.cphub.net/index.php?id=40&pid=103 ==> Update: Zugriffsbeschränkungen für phpPgAdmin funktionieren scheinbar via /usr/syno/etc/sites-enabled-user/SYNO.SDS.phpPgAdmin.conf
- Hier meine Vorgehensweise im Detail: http://backupinferno.de/?p=49
Gruß, Otmanix

ich habe das backup wie in backupinferno gemacht

das wiederherstellen funktioniert, jedoch werden alle videos aus \photo nicht erkannt und der medienindizierungsdienst läuft erneut los,..

ich sehe, dass jedes foto wieder bearbeitet wird (/var/spool sieht man das, dass jede sekunde ein bild bearbeitet wird)
 
Zuletzt bearbeitet:

niGH7m4rE

Benutzer
Mitglied seit
15. Jan 2013
Beiträge
2
Punkte für Reaktionen
0
Punkte
0
Hallo DS Starter ,


ich nach deiner Anleitung gegangen , um meine komplette Datenbank zu sichern . Sieht aus wie folgt :

#!/bin/sh
cd /usr/syno/pgsql/bin/
./pg_dumpall -U admin -c > /volume1/config/BackupDB/'Backup'/pgdumpall.sql

Wenn ich das Skript so gestalte , passiert garnichts . Lasse ich das /pgdumpall.sql am Ende weg versucht er eine Backup Date im BackupDB anzulegen die ich auch sehe, aber diese datei bleibt leer ( 0 KB )
Starte ich diesen Befehl direkt über die SSH Konsole wird eine Backup Datei erzeugt mit ein paar MB Größe .

Im Aufgabenplaner sieht das ganze wie folgt aus :

Pfadt zum Skript --> sh /volume1/config/Backup.sh
Ausgeführt vom Admin da bei Root nichts passiert .
Rechte für admin sind im Verzeichniss RW .
Täglich um 8 Uhr soll dieser Task laufen .

Habe im Skript auch mal den Pfad ohne den cd Befehl mit kompletten Pfad zur PGdumpall eingegeben auch ohne Erfolg !

Hast du vielleicht eine Idee wo der Fehler liegen könnte ?

Danke
 

DS_Starter

Benutzer
Mitglied seit
15. Jan 2012
Beiträge
271
Punkte für Reaktionen
0
Punkte
16
Hallo,

das sieht mir nach einem Rechteproblem aus.
das Script sollte so wie du es geschrieben hast funktionieren. Die Hochkommas kannst du in deinem FAll sicherlich weglassen, ich hatte sie nur drin wegen der Leerzeichen im Verzeichnisnamen "Backup ...".

Probiere doch aus ob das script als root auf der Konsole ausgeführt werden kann, also "cd <Verzeichnis>", dann "./Backup.sh."
Achte bitte vorher darauf, dass Backup.sh auch ausführbar ist. Das siehst du mit dem Befehl "ll Backup.sh" in dem Verzeichnis wo die Datei ist. Wenn du dich mit Linux nicht auskennen solltest und es nicht deuten kannst ob die Datei ausführbar ist, kannst du den Befehl "chmod 777 Backup.sh" absetzen. Dann ist sie auf jeden Fall für jeden Benutzer des Systems ausführbar.

Wenn der Befehl ./Bachup.sh auf der Konsole funktioniert, er sollte eine Datei pgdumpall.sql schreiben deren Größe vom Inhalt der DB abhängig ist, kannst du den Task im Aufgabenplaner der Syno eintragen.
Nimm auch hier den root und trage im Feld "benutzedefiniertes Script" nur den Pfad und den Namen des Scripts ein. Bei mir wäre das der String /volume1/ApplicationBackup/'Backup PostgreSQL DS413'/pgdump.sh.

Deinen obigen Satz "Pfadt zum Skript --> sh /volume1/config/Backup.sh" kann ich nicht richtig deuten.
Versuchs mal ...
 

Hoffy

Benutzer
Mitglied seit
16. Jan 2014
Beiträge
241
Punkte für Reaktionen
1
Punkte
24
Hallo,
ich wollte diese Backup Methode auch mal testen, aber ich kriege immer die gleiche Fehlermeldung:

pg_dump: [archiver (db)] connection to database "video_metadata" failed: FATAL: role "admin" does not exist

Ich hab schon alle Benutzer die ich habe durchprobiert mit allen Datenbanken und auch dumpall.
Woran kann das liegen?
Danke im Voraus

Grüße
 

X5_492_Neo

Gesperrt
Mitglied seit
24. Sep 2008
Beiträge
2.714
Punkte für Reaktionen
2
Punkte
0
ich habe nun auch mal ein Feature request an Synology geschickt diesbezüglich!
 

PainKNero

Benutzer
Mitglied seit
16. Apr 2014
Beiträge
13
Punkte für Reaktionen
0
Punkte
0
Hi,

habe den Script von DS Starter eingebaut im Aufgabenplaner, es funktioniert. Danke ! Was ist ein Blob ? Otmanix Syntax teste ich morgen mal.

Grüße,

Nero
 

PainKNero

Benutzer
Mitglied seit
16. Apr 2014
Beiträge
13
Punkte für Reaktionen
0
Punkte
0
Sauber, DS Starter und Otmanix Scripte laufen, danke. Den Restore-Fall kann ich leider mangels zweiter Syn nicht testen, die einzelnen SQL Datenbanken sind aber lesbar, hab den Import unter Wamp getestet. Wäre natürlich mal toll, wenn das Synology-eigene Backup das alles mit machen täte, weil die händische Neueingabe der Meta-Daten nach einem Crash / Backup ist ab einer bestimmten Anzahl Filme ein echtes Projekt, was keiner privat noch ein zweites Mal machen will denk ich...

Das Script mit den Eventualitäten sieht bei mir so aus und läuft im Aufgaben-Planer, hab zur Vorsicht mal ohne BLOBs und mit BLOBs (Binary Large Object) gemacht:

#!/bin/sh
# alle Datenbanken in einem File 01
#cd /usr/syno/pgsql/bin/
/usr/syno/pgsql/bin/pg_dumpall -U admin -c > /volume1/Daten/MetaBackup/01_dump_all.sql
# ---------------------------------------
# alle Datenbanken einzeln 01
/usr/syno/pgsql/bin/pg_dump -U admin -c download > /volume1/Daten/MetaBackup/01_dump_download.sql
/usr/syno/pgsql/bin/pg_dump -U admin -c mediaserver > /volume1/Daten/MetaBackup/01_dump_mediaserver.sql
/usr/syno/pgsql/bin/pg_dump -U admin -c photo > /volume1/Daten/MetaBackup/01_dump_photo.sql
/usr/syno/pgsql/bin/pg_dump -U admin -c postgres > /volume1/Daten/MetaBackup/01_dump_postgres.sql
#/usr/syno/pgsql/bin/pg_dump -U admin -c surveillance > /volume1/Daten/MetaBackup/01_dump_surveillance.sql
/usr/syno/pgsql/bin/pg_dump -U admin -c synolog > /volume1/Daten/MetaBackup/01_dump_synolog.sql
/usr/syno/pgsql/bin/pg_dump -U admin -c video_metadata > /volume1/Daten/MetaBackup/01_dump_video_metadata.sql
# ---------------------------------------
# Sicherung mit BLOBs 02
/usr/syno/pgsql/bin/pg_dump -U admin -C -F p -b -v -f /volume1/Daten/MetaBackup/02_dump_download.sql download
/usr/syno/pgsql/bin/pg_dump -U admin -C -F p -b -v -f /volume1/Daten/MetaBackup/02_dump_mediaserver.sql mediaserver
/usr/syno/pgsql/bin/pg_dump -U admin -C -F p -b -v -f /volume1/Daten/MetaBackup/02_dump_photo.sql photo
/usr/syno/pgsql/bin/pg_dump -U admin -C -F p -b -v -f /volume1/Daten/MetaBackup/02_dump_postgres.sql postgres
/usr/syno/pgsql/bin/pg_dump -U admin -C -F p -b -v -f /volume1/Daten/MetaBackup/02_dump_synolog.sql synolog
#/usr/syno/pgsql/bin/pg_dump -U admin -C -F p -b -v -f /volume1/Daten/MetaBackup/02_dump_surveillance.sql surveillance
/usr/syno/pgsql/bin/pg_dump -U admin -C -F p -b -v -f /volume1/Daten/MetaBackup/02_dump_video_metadata.sql video_metadata
/usr/syno/pgsql/bin/pg_dump -U admin -C -F p -b -v -f /volume1/Daten/MetaBackup/02_dump_postgres.sql postgres
# ---------------------------------------
# Restore-Script Beispiel 01
#cd /usr/syno/pgsql/bin/
#psql -U admin -1 -L /volume1/Shared_Data/'Backup PostgreSQL DS413'/pgdump_restore.log -f /volume1/Shared_Data/'Backup PostgreSQL DS413'/<file>.sql
# ---------------------------------------
# Restore-Script 02 Beispiel DB Download
# stop indexing and thumbnails
#/usr/syno/etc/rc.d/S66synoindexd.sh stop
#/usr/syno/etc/rc.d/S77synomkthumbd.sh stop
#/usr/syno/etc/rc.d/S88synomkflvd.sh stop
# list postgres databases
#/usr/syno/pgsql/bin/psql -U admin -l
#su - admin
#/usr/syno/pgsql/bin/dropdb download
#/usr/syno/pgsql/bin/psql -U admin -d template1 -f /volume1/Daten/MetaBackup/dump_download.sql
 
Status
Für weitere Antworten geschlossen.
 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat