Storj - Speicher vermieten

maalik

Benutzer
Mitglied seit
05. Feb 2016
Beiträge
708
Punkte für Reaktionen
11
Punkte
38
kann ich bestätigen, in meinem node steht misconfigured. habe aber seit bestimmt 6 monaten nichts mehr geändert, außer eben der watchtower der drüber schaut. eventuell ein fehler von storj?
 

harun

Benutzer
Mitglied seit
13. Jan 2015
Beiträge
11
Punkte für Reaktionen
1
Punkte
3
Ich habe das gleiche oder ein ähniches Problem:
sudo docker run -d --restart unless-stopped -p 28967:28967/tcp -p 28967:28967/udp -p :14002:14002 -e WALLET="xxxxx" -e EMAIL="xxxxx" -e ADDRESS="xxxxx:28967" -e BANDWIDTH="20TB" -e STORAGE="7.5TB" --mount type=bind,source="/volume1/docker/storj",destination=/app/identity --mount type=bind,source="/volume1/docker/storj/share",destination=/app/config --name storagenode storjlabs/storagenode:latest
Mein Docker Run Befehl sieht ähnlich aus:
Code:
docker run -d --restart unless-stopped --stop-timeout 300 -p 28967:28967/tcp -p 28967:28967/udp \
    -p 14002:14002 \
    -e WALLET="XXXXXX" \
    -e EMAIL="XXXXXX" \
    -e ADDRESS="XXXXXX:28967" \
    -e STORAGE="15TB" \
    --mount type=bind,source="/volume1/docker/storj/identity",destination=/app/identity \
    --mount type=bind,source="/volume1/docker/storj/config",destination=/app/config \
    --name storagenode storjlabs/storagenode:latest

hier funktioniert es aber mit dem Quic Status = OK. Bist du sicher, dass die Freigabe in der Fritz!Box hinhaut?
 

maalik

Benutzer
Mitglied seit
05. Feb 2016
Beiträge
708
Punkte für Reaktionen
11
Punkte
38
Meine sieht so aus, 28967 ist sowohl per TCP als auch UDP auf die Syno freigegeben. Trotzdem Misconfigured.


Code:
docker run -d --restart unless-stopped --stop-timeout 300 \
    -p 28967:28967/tcp \
    -p 28967:28967/udp \
    -p 14002:14002 \
    -e WALLET="xxx" \
    -e EMAIL="xxx" \
    -e ADDRESS="xxx:28967" \
    -e STORAGE="3000GB" \
    --mount type=bind,source="/volume1/docker/storj/identity",destination=/app/identity \
    --mount type=bind,source="/volume1/docker/storj/config",destination=/app/config \
    --name storagenode storjlabs/storagenode:latest
 

Frieseba

Benutzer
Mitglied seit
27. Nov 2011
Beiträge
465
Punkte für Reaktionen
20
Punkte
24
hier funktioniert es aber mit dem Quic Status = OK. Bist du sicher, dass die Freigabe in der Fritz!Box hinhaut?
Hab die Einstellungen in der Fritz nochmals neu eingegeben. Ändert nix. Lustig/Komisch ist, dass das Node auf dem Raspberry pi (hinter der gleichen Fritz) problemlos läuft und keinen Fehler anzeigt.
 

MAteo

Benutzer
Mitglied seit
23. Dez 2018
Beiträge
93
Punkte für Reaktionen
2
Punkte
8
hab es nun auch hinbekommen, einziges problem ist, das kein neuer docker in der gui angelegt wird.
jemand ne ahnung wieso der nun nicht mehr automatisch erzeugt wird?

lg
 

maalik

Benutzer
Mitglied seit
05. Feb 2016
Beiträge
708
Punkte für Reaktionen
11
Punkte
38
Bei mir geht es jetzt auch. Habe den Docker nochmal entfernt, dann die Portfreigaben neu gesetzt und erst als alle Portfreigaben aktiv waren habe ich den Docker wieder gestartet.
 

MAteo

Benutzer
Mitglied seit
23. Dez 2018
Beiträge
93
Punkte für Reaktionen
2
Punkte
8
nochmal ne frage an euch, bei mir läuft nun alles, allerdings habe ich 2 Nodes am laufen.
Eine Node wird als Container angelegt und dort finde ich auch die richtigen Parameter der config.
Meine zweite Node wird allerdinmgs nicht als docker contasiner gestartet..

jemand eine idee?

LG
 

MAteo

Benutzer
Mitglied seit
23. Dez 2018
Beiträge
93
Punkte für Reaktionen
2
Punkte
8
HAllo zusammen,

heute nacht ist mein Container gestopt und ist aus der GUI im docker verschwunden.
Die Nodes wurden neugestartet.
Nun frage ich mich wieso der nicht mehr in der GUI vorhanden ist, meine nodes laufen ja wieder und ich möchte ungern diese im putty neustarten.
jemand einen tip wie man die docker-container wieder zu laufen bekommet?

lg
 

maalik

Benutzer
Mitglied seit
05. Feb 2016
Beiträge
708
Punkte für Reaktionen
11
Punkte
38
Ich würde den Container einmal mit Putty entfernen und neustarten. Dauert ja keine Minute.
 

denbo

Benutzer
Mitglied seit
13. Mrz 2018
Beiträge
7
Punkte für Reaktionen
0
Punkte
1
Bin heute auf allen Notes suspended worden. Scheint so als ob die Verbindung über synology.me nicht mehr möglich ist, muss ich mir mal näher ansehen.
 

luddi

Benutzer
Sehr erfahren
Mitglied seit
05. Sep 2012
Beiträge
3.259
Punkte für Reaktionen
601
Punkte
174
@denbo Aber das passierte sicher nicht über Nacht oder? Deine Reputation ging sicher nicht schlagartig auf Null.
Was schätzt du wie lange die Downtime deines Knoten gewesen ist?
 

unrealSpeedy

Benutzer
Mitglied seit
30. Mrz 2016
Beiträge
95
Punkte für Reaktionen
13
Punkte
8
Dyndns - und nichts anderes ist synology.me ja eigentlich, hat sich bei mir auch durchaus als etwas unzuverlässig herausgestellt.
Aber irgendwie hat mich das Projekt dann gepackt ;)))

Meine Lösung ist nun etwas komplizierter, sie funktioniert aber mittlerweile sehr zuverlässig:
Ich habe aktuell 20, bald 30 Nodes am laufen. 20 davon auf einem NAS, 10 auf einem anderen.
Alle Nodes haben ihren eigenen Port und laufen über ihren eigenen Docker-Container.

Da aber jeder Node ja eine eigene IP aus einem /24-Netz braucht, habe ich das mittels gemieteten VPS und einem dort jeweils installierten VPN-Server gelöst. Im Virtual-Maschine-Manager laufen jetzt 20 virtuelle Maschinen, die nichts anderes machen als eine VPN-Verbindung zu den VPS herzustellen und den Traffic über einen Proxy (Docker-Container) an meine Nodes zu verteilen :p

Aktuell ist ja ein enormer Peak beim Egress, also Upload von den Nodes. Meine Internetleitung ist durch meine Nodes aktuell komplett gesättigt, ich glaube hier ist mal Aufrüsten angesagt :p

Mein größtes Problem ist aktuell der Ärger mit meiner besseren Hälfte, wenn der Amazon-Bote wieder mit einer neuen Festplatte vor der Tür steht xD

Beste Grüße
 
  • Like
Reaktionen: faxxe

luddi

Benutzer
Sehr erfahren
Mitglied seit
05. Sep 2012
Beiträge
3.259
Punkte für Reaktionen
601
Punkte
174
Da aber jeder Node ja eine eigene IP aus einem /24-Netz braucht....
Ein Knoten benötigt nicht je eine eigene IP, aber jeder Dcoker Container bekommt automatisch eine eigene IP-Adresse.
Es können mehrere Nodes auf einem Host laufen man muss die Container nur mit unterschiedlichen Ports konfigurieren auf denen sie lauschen und angesprochen werden können.


Als Beispiel...

Node #1 wird mit folgenden Parametern erstellt (gestartet)

docker run -d --restart unless-stopped \
-p 10021:28967/tcp \
-p 10021:28967/udp \

-p 14001:14002 \
-e ADDRESS="<SUB.MYDOMAIN.TLD>:10021" \
--name node1 storjlabs/storagenode:latest

Node #2 wird mit diesen Parametern erstellt (gestartet)

docker run -d --restart unless-stopped \
-p 10022:28967/tcp \
-p 10022:28967/udp \
-p 14002:14002 \
-e ADDRESS="<SUB.MYDOMAIN.TLD>:10022" \
--name node2 storjlabs/storagenode:latest

und das ganze kann dann bis auf n-Knoten erweitert werden.

docker run -d --restart unless-stopped \
-p 100xx:28967/tcp \
-p 100xx:28967/udp \
-p 140xx:14002 \
-e ADDRESS="<SUB.MYDOMAIN.TLD>:100xx" \
--name node[n] storjlabs/storagenode:latest


Somit laufen n Knoten auf einem Host die nur auf unterschiedliche Ports lauschen um von extern erreichbar zu sein (in diesem Beispiel blau markeirt).
Alle sind aber über die gleiche Domain erreichbar wie hier orange markiert.
Der grün markierte Port ist lediglich für das Webinterface der Statistik des jeweiligen Knoten von Nöten und ist nicht für die Kommunikation mit den Satelliten vorgesehen.

Die einzige Notwendigkeit ist es nun jeden dieser Ports für die Kommunikation nach Außen im Router auf diesen einen Host weiterzuleiten.
In diesem Bespiel müsste man lediglich folgende Ports (jeweils TCP und UDP) vom Router an den Host weiterleiten:
  • 10021
  • 10022
  • 100xx
Deshalb kann ich den ganzen Aufwand deiner Konfiguration nicht nachvollziehen :unsure:
 
Zuletzt bearbeitet:

boxi360

Benutzer
Mitglied seit
13. Mrz 2014
Beiträge
95
Punkte für Reaktionen
3
Punkte
8
Dyndns - und nichts anderes ist synology.me ja eigentlich, hat sich bei mir auch durchaus als etwas unzuverlässig herausgestellt.
Aber irgendwie hat mich das Projekt dann gepackt ;)))

Meine Lösung ist nun etwas komplizierter, sie funktioniert aber mittlerweile sehr zuverlässig:
Ich habe aktuell 20, bald 30 Nodes am laufen. 20 davon auf einem NAS, 10 auf einem anderen.
Alle Nodes haben ihren eigenen Port und laufen über ihren eigenen Docker-Container.

Da aber jeder Node ja eine eigene IP aus einem /24-Netz braucht, habe ich das mittels gemieteten VPS und einem dort jeweils installierten VPN-Server gelöst. Im Virtual-Maschine-Manager laufen jetzt 20 virtuelle Maschinen, die nichts anderes machen als eine VPN-Verbindung zu den VPS herzustellen und den Traffic über einen Proxy (Docker-Container) an meine Nodes zu verteilen :p

Aktuell ist ja ein enormer Peak beim Egress, also Upload von den Nodes. Meine Internetleitung ist durch meine Nodes aktuell komplett gesättigt, ich glaube hier ist mal Aufrüsten angesagt :p

Mein größtes Problem ist aktuell der Ärger mit meiner besseren Hälfte, wenn der Amazon-Bote wieder mit einer neuen Festplatte vor der Tür steht xD

Beste Grüße
Könntest du es genauer beschreiben wie du es gemacht hast pls ?
 

unrealSpeedy

Benutzer
Mitglied seit
30. Mrz 2016
Beiträge
95
Punkte für Reaktionen
13
Punkte
8
Ein Knoten benötigt nicht je eine eigene IP, aber jeder Dcoker Container bekommt automatisch eine eigene IP-Adresse.
Es können mehrere Nodes auf einem Host laufen man muss die Container nur mit unterschiedlichen Ports konfigurieren auf denen sie lauschen und angesprochen werden können.


Als Beispiel...

Node #1 wird mit folgenden Parametern erstellt (gestartet)

docker run -d --restart unless-stopped \
-p 10021:28967/tcp \
-p 10021:28967/udp \

-p 14001:14002 \
-e ADDRESS="<SUB.MYDOMAIN.TLD>:10021" \
--name node1 storjlabs/storagenode:latest

Node #2 wird mit diesen Parametern erstellt (gestartet)

docker run -d --restart unless-stopped \
-p 10022:28967/tcp \
-p 10022:28967/udp \
-p 14002:14002 \
-e ADDRESS="<SUB.MYDOMAIN.TLD>:10022" \
--name node2 storjlabs/storagenode:latest

und das ganze kann dann bis auf n-Knoten erweitert werden.

docker run -d --restart unless-stopped \
-p 100xx:28967/tcp \
-p 100xx:28967/udp \
-p 140xx:14002 \
-e ADDRESS="<SUB.MYDOMAIN.TLD>:100xx" \
--name node[n] storjlabs/storagenode:latest


Somit laufen n Knoten auf einem Host die nur auf unterschiedliche Ports lauschen um von extern erreichbar zu sein (in diesem Beispiel blau markeirt).
Alle sind aber über die gleiche Domain erreichbar wie hier orange markiert.
Der grün markierte Port ist lediglich für das Webinterface der Statistik des jeweiligen Knoten von Nöten und ist nicht für die Kommunikation mit den Satelliten vorgesehen.

Die einzige Notwendigkeit ist es nun jeden dieser Ports für die Kommunikation nach Außen im Router auf diesen einen Host weiterzuleiten.
In diesem Bespiel müsste man lediglich folgende Ports (jeweils TCP und UDP) vom Router an den Host weiterleiten:
  • 10021
  • 10022
  • 100xx
Deshalb kann ich den ganzen Aufwand deiner Konfiguration nicht nachvollziehen :unsure:

Nein, rein technisch brauchen sie natürlich keine einzelne IP, das stimmt.
Ich habe ja auch alle Nodes, die auf einer DS laufen lokal unter einer IP und nur mit unterschiedlichen Ports.

Aber das Storj-Netzwerk "verlangt" für jeden Node eine einzelne IP aus einem unterschiedlichen /24 IP-Netz. Sonst werden alle Nodes vom Netzwerk als ein großer Node betrachtet.
Auch das funktioniert.
Aber der Traffic und die Anfragen des Netzwerkes werden der Dezentralisierung zuliebe aufgeteilt. Jede IP bekommt maximal ein X-tel des Gesamttraffics.
Ich möchte aber nartürlich so viel Traffic wie möglich, so als ob jeder Node unabhängig an einem anderen Anschluss laufen würde.
Daher der Aufwand. Ich kriege so bei 20 Nodes mit 20 öffentlichen IPs 20 mal so viel Traffic wie mit 20m Nodes mit nur einer öffentlichen IP.

Beste Grüße
 

King3R

Benutzer
Mitglied seit
14. Mrz 2017
Beiträge
361
Punkte für Reaktionen
82
Punkte
28
Wie sieht da das Kosten/Nutzen-Verhältnis aus? Könntest du da mal einen groben Abriss geben, was da an Kosten bei dir auflaufen? Lohnt sich das Ganze noch oder ist das nur wegen dem Spieltrieb bzw. der Machbarkeit?
 

luddi

Benutzer
Sehr erfahren
Mitglied seit
05. Sep 2012
Beiträge
3.259
Punkte für Reaktionen
601
Punkte
174
Aber das Storj-Netzwerk "verlangt" für jeden Node eine einzelne IP aus einem unterschiedlichen /24 IP-Netz.
"Verlangt" würde aber heißen dass dies zwingend vorgeschrieben ist. Funktioniert aber dennoch und es wird auch zugelassen.
Wenn es wirklich vorgeschrieben wäre, dann könnten die Satelliten diejenigen Knoten sperren die an der gleichen physikalischen IP-Adresse angebunden sind, was sie aber nicht tun.

Ich möchte aber nartürlich so viel Traffic wie möglich, so als ob jeder Node unabhängig an einem anderen Anschluss laufen würde.
Das kann ich sehr gut nachvollziehen.
Und ich habe selbst noch nicht herausfinden können ob hier tatsächlich überprüft wird ob Knoten auf der gleichen IP-Adresse laufen.
Denn ich habe meine Knoten jeweils über eine eigene Subdomain erreichbar gemacht.
Jedenfalls kann ich mich über den Traffic meiner Knoten auch nicht beklagen. Ob es tatsächlich noch besser laufen würde wenn beide tatsächlich über eine eigene IP Adresse erreichbar wären ist leider aus meiner Sicht nicht zu beurteilen.
 

unrealSpeedy

Benutzer
Mitglied seit
30. Mrz 2016
Beiträge
95
Punkte für Reaktionen
13
Punkte
8
"Verlangt" würde aber heißen dass dies zwingend vorgeschrieben ist. Funktioniert aber dennoch und es wird auch zugelassen.
Wenn es wirklich vorgeschrieben wäre, dann könnten die Satelliten diejenigen Knoten sperren die an der gleichen physikalischen IP-Adresse angebunden sind, was sie aber nicht tun.
Daher habe ich das in Anführungszeichen gesetzt ;)
Du hast aber im Prinzip Recht ;)
Es ist natürlich nicht vorgeschrieben, aber es ist aus folgenden Gründen langfristig durchaus sinnvoll:
-> Mehr Traffic
-> Es gibt bei den aktuellen Usage-Pattern eine theoretische maximale Größe von ca. 28TB für einen Node. Ab dieser Größe fressen die Deletes die neuen Daten auf und das gespeicherte Volumen wächst nicht mehr. Wenn deine ganzen Nodes unter einer IP nun vom Netzwerk als ein großer Node gewertet werden, kommst du auch mit mehreren Nodes nicht über diese Grenze. Mit jeweils einem eigenen /24-Netz gilt dieses Soft-Limit dann für jeden einzelnen Node, also X-mal 28TB. Wenn man größer Skalieren will, kommt man um mehrere IP-Netze also nicht herum.
Das kann ich sehr gut nachvollziehen.
Und ich habe selbst noch nicht herausfinden können ob hier tatsächlich überprüft wird ob Knoten auf der gleichen IP-Adresse laufen.
Denn ich habe meine Knoten jeweils über eine eigene Subdomain erreichbar gemacht.
Jedenfalls kann ich mich über den Traffic meiner Knoten auch nicht beklagen. Ob es tatsächlich noch besser laufen würde wenn beide tatsächlich über eine eigene IP Adresse erreichbar wären ist leider aus meiner Sicht nicht zu beurteilen.
Ich habe mich tatsächlich im Rahmen von Skalierungsüberlegungen damit genauer auseinander gesetzt, meine Nodes ausführlich getrackt und konnte die Aussagen verifizieren.
Der Gesamttraffic (Download!) wird über /24-IP-Netze verteilt. Ich habe selbst Nodes unter einer IP laufen (mit verschiedenen Ports). Diese Nodes erhalten EXAKT die Hälfte des Traffics von Nodes, die alleine in einem /24-Netz laufen.
Ich kann die Aussage auf jeden Fall empirisch bestätigen.
Was natürlich nicht heißt, dass auch problemlos X Nodes unter einer IP laufen können, sie werden vom Storj-Netzwerk nur wie ein großer Node behandelt und bekommen entsprechend den Traffic für einen Node, obwohl es mehrere sind.

Wie sieht da das Kosten/Nutzen-Verhältnis aus? Könntest du da mal einen groben Abriss geben, was da an Kosten bei dir auflaufen? Lohnt sich das Ganze noch oder ist das nur wegen dem Spieltrieb bzw. der Machbarkeit?

Ich muss zugeben, natürlich ist das Ganze auch ein großes Stück Spielerei. Aber das Ziel ist natürlich auch, die Nodes gewinnbringend zu betreiben.
Man muss sich aber bewusst sein, dass das Ganze natürlich ein unsicheres Investment ist, Storj kann jederzeit die Vergütung anpassen und die Usage-Patterns können sich jederzeit ändern.
Daher ist es sehr schwer, hier Vorhersagen zu treffen, aber wer nicht wagt, der nicht gewinnt und so ;)

Ich habe mir einen Rechner gebaut, der aktuelle Usage-Pattern des Netzwerks berücksichtigt und anhand derer eine gewisse Prognose erstellt. Darauf basierend - das sind natürlich nur äußerste Schätzwerte mit massiven statistischen Abweichungen - habe ich meine Prognosen erstellt: https://addictedtocode.de/storj/storj-calculator-how-much-can-i-earn/

Mein Setup aus aktuell ca. 25 externen Festplatten und 3 Diskstations verbraucht aktuell ca. 350 Watt 24/7.
Das Problem ist, dass auf dem Setup viele verschiedene Dinge laufen, sodass ich nicht 1:1 alles für Storj anrechnen kann und die Anlage ohnehin 24/7 läuft.
Zusätzlich "heizt" die Anlage mit der Abwärme ein wenig meinen "Bürokeller" mit :p
Ich würde einfach mal sehr pessimistisch 150-200W Stromverbrauch ansetzen. Dabei ist zu erwähnen, dass ein gewisser Teil der Energie durch eine Solaranlage bereitgestellt wird.

Aktuell stelle ich dem Storj-Netzwerk gut 90TB zur Verfügung, wovon knapp 26TB belegt sind. Ich habe mit der Skalierung erst Anfang des Jahres begonnen. Mit den 26TB "verdiene" ich aktuell knapp 100 Dollar im Monat. Es kommen monatlich gut 2,5TB Speicherauslastung dazu aktuell.
Mein Ziel ist im Vollausbau ein "passives Einkommen" von ca. 300-500€ im Monat.

Wen es interessiert: Hier habe ich (leider etwas lückenhaft) ein paar Statistiken zu meiner "Storj-Farm":
https://addictedtocode.de/storj/statistiken-zu-meinen-storagenodes/

Beste Grüße
 
Zuletzt bearbeitet:
  • Like
Reaktionen: King3R und faxxe

luddi

Benutzer
Sehr erfahren
Mitglied seit
05. Sep 2012
Beiträge
3.259
Punkte für Reaktionen
601
Punkte
174
Der Gesamttraffic (Download!) wird über /24-IP-Netze verteilt.
Ich stimme dir auch hier zu, denn das ist die aktuelle Vorgehensweise im Betracht auf Dezentralisierung.
Das Problem an dieser Stelle ist aber folgendes. Es wird nicht exakt die eine IP-Adresse deines ISP geprüft sondern ob die IP-Adressen der Nodes im gleichen Subnetz liegen sprich in der gleichen Region.

Das würde nämlich folgendes bedeuten... Wenn ich als User an meinem ISP Anschluss exakt einen Knoten betreibe und mein Nachbar (gleiche Geolocation und somit gleiches /24-Subnetz) auch einen Knoten an seinem Anschluss bem gleichen ISP betreibt dann teilen wir uns den Gesamttraffic obwohl jeder für sich berücksichtigt hätte nur einen einzigen Knoten an seinem Anschluss zu betreiben.

Im Betracht dessen, liegen alle VPS beim gleichen Provider und diese auch zufälligerweise im gleichen /24 Subnet, dann hast du damit wenig erreicht laut meinem Verständnis.
Ein durchaus auch wichtiger Punkt für einen guten (bzw. hohen Traffic) ist nicht allein die geografische Isolierung durch unterschiedliche /24 Subnetze sondern auch eine hohe Reputation die man auch durch eine hohe Verfügbarkeit erreicht.

Sehr interessant ist dabei diese Diskussion zur IP Filterung im Bezug auf ein /24 Subnet: IP Filtering Clarification #2391
Solange die Filterung nicht explizit auf IP-Adresse angewandt wird, bleibt eben die grobe /24 Heuristik wenig brauchbar für eine echte Dezentralisierung der Daten.

Aktuell stelle ich dem Storj-Netzwerk gut 90TB zur Verfügung, wovon knapp 26TB belegt sind. Ich habe mit der Skalierung erst Anfang des Jahres begonnen. Mit den 26TB "verdiene" ich aktuell knapp 100 Dollar im Monat.
Wenn ich jetzt im Vergleich meine beiden Knoten heranziehe komme ich auf folgendes Ergebnis.
Node #1--> 2.8/3.3TB
Node #2 --> 0.6/10TB
Summe: 3.4/13.3 TB

Somit sind aktuell gerade knapp 3.5 TB an effektiv an Daten in Summe verfügbar und erzeugen momentan einen Ertrag von 20$/mon.
Wenn ich nun einfach linear skaliere dann würde ich bei voll ausgelasteten Knoten hypothetisch auf etwa gut 75$/mon kommen.

Vergleicht man nun unsere beiden Setups kann man folgendes daraus ableiten.
26TB --> 100$/mon vs. 3.4TB --> 20$/mon welches einen Faktor der Daten von ca. 7.6 ausmacht. Rechnet man jetzt hoch (Vorsicht... alles lineare Milchmädchenrechnung :) ) würde mein Setup mit 26TB 140$/mon abwerfen... Was ich aber nicht erreichen würde weil mein Limit bei 13.3TB liegt ;) Aber mein Ertragsfaktor pro TB liegt aktuell bei 5.8$ im Vergleich zu deinem bei 3.8$.
Man kann sich nämlich alles schön rechnen wenn man möchte...

Was man aber hier auch gleich erwähnen muss, dass man nicht willkürlich den Traffic meiner Knoten mit anderen vergleichen kann. Denn wer weiß welche Fragmente der Daten von welchem User auf welchem Knoten liegen. Und bezahlt wird ja überwiegend der Traffic (Egress).
 

unrealSpeedy

Benutzer
Mitglied seit
30. Mrz 2016
Beiträge
95
Punkte für Reaktionen
13
Punkte
8
Ich stimme dir auch hier zu, denn das ist die aktuelle Vorgehensweise im Betracht auf Dezentralisierung.
Das Problem an dieser Stelle ist aber folgendes. Es wird nicht exakt die eine IP-Adresse deines ISP geprüft sondern ob die IP-Adressen der Nodes im gleichen Subnetz liegen sprich in der gleichen Region.

Das würde nämlich folgendes bedeuten... Wenn ich als User an meinem ISP Anschluss exakt einen Knoten betreibe und mein Nachbar (gleiche Geolocation und somit gleiches /24-Subnetz) auch einen Knoten an seinem Anschluss bem gleichen ISP betreibt dann teilen wir uns den Gesamttraffic obwohl jeder für sich berücksichtigt hätte nur einen einzigen Knoten an seinem Anschluss zu betreiben.
Genau so ist es :)
Im Betracht dessen, liegen alle VPS beim gleichen Provider und diese auch zufälligerweise im gleichen /24 Subnet, dann hast du damit wenig erreicht laut meinem Verständnis.
Das ist richtig, man muss darauf achten, dass man IPs aus unterschiedlichen /24-Netzen bekommt. Bei größeren Providern ist das aber eher die Regel aus die Ausnahme, aber klar, man muss das beachten.
Ein durchaus auch wichtiger Punkt für einen guten (bzw. hohen Traffic) ist nicht allein die geografische Isolierung durch unterschiedliche /24 Subnetze sondern auch eine hohe Reputation die man auch durch eine hohe Verfügbarkeit erreicht.
Hier muss ich widersprechen. Afaik gibt es bei Storj aktuell nichts was einer Art Reputation entspricht (und dafür spricht auch, dass alle Nodes in geographischer Nähe nahezu exakt den gleichen Traffic haben).
Es gibt lediglich die Suspension, wenn der Node zu lange offline ist und in letzter Konsequenz die Disqualification, wenn der Node Daten verliert oder nach der Suspension weiter offline ist.
Sehr interessant ist dabei diese Diskussion zur IP Filterung im Bezug auf ein /24 Subnet: IP Filtering Clarification #2391
Solange die Filterung nicht explizit auf IP-Adresse angewandt wird, bleibt eben die grobe /24 Heuristik wenig brauchbar für eine echte Dezentralisierung der Daten.
Definitiv. Ich bin ja das beste Beispiel. Meine Nodes sind alles andere als dezentralisiert, werden vom Storj-Netzwerk aber als dezentralisiert angesehen. Es ist immer nur ein Versuch der Annäherung.
Wenn ich jetzt im Vergleich meine beiden Knoten heranziehe komme ich auf folgendes Ergebnis.
Node #1--> 2.8/3.3TB
Node #2 --> 0.6/10TB
Summe: 3.4/13.3 TB

Somit sind aktuell gerade knapp 3.5 TB an effektiv an Daten in Summe verfügbar und erzeugen momentan einen Ertrag von 20$/mon.
Wenn ich nun einfach linear skaliere dann würde ich bei voll ausgelasteten Knoten hypothetisch auf etwa gut 75$/mon kommen.

Vergleicht man nun unsere beiden Setups kann man folgendes daraus ableiten.
26TB --> 100$/mon vs. 3.4TB --> 20$/mon welches einen Faktor der Daten von ca. 7.6 ausmacht. Rechnet man jetzt hoch (Vorsicht... alles lineare Milchmädchenrechnung :) ) würde mein Setup mit 26TB 140$/mon abwerfen... Was ich aber nicht erreichen würde weil mein Limit bei 13.3TB liegt ;) Aber mein Ertragsfaktor pro TB liegt aktuell bei 5.8$ im Vergleich zu deinem bei 3.8$.
Man kann sich nämlich alles schön rechnen wenn man möchte...
Ja, da hast du Recht.
Ich muss jetzt hier anführen, dass ich folgendes nicht berücksichtigt habe:
Zum Zeitpunkt der Datenaufzeichnung waren 2 größere Nodes im Gesamtumfang von ca. 8 TB offline, da ich diese auf größere HDDs umgezogen habe. Das dauert leider ziemlich lange, sodass diese beiden Nodes gut eine Woche offline gewesen sind.
Trotzdem gehe ich beim Ertrag langfristig von ca. 3,5 Dollar pro TB aus.
Dazu kommt eben, dass meine langsame VDSL-Verbindung aktuell leider ausgelastet ist und ich deswegen nicht (mehr) den vollen Upload mitnehmen kann. Hier muss ich aufrüsten, das stimmt ;)

Beste Grüße
 


 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat