Author

Topic: RFC: BURST Crowdmining Shares ~1+ PB Miner (Read 1987 times)

legendary
Activity: 1120
Merit: 1037
฿ → ∞
June 14, 2017, 03:11:18 AM
#58
Dann kannst ja mal deinen Code veröffentlichen  Tongue
Ich kann ja immer noch nicht so recht daran glauben..

Ich bin bereits mit 17 konsequent an allen Ägyptern vorbei, die mit den Worten "Bakschisch?" die Hand aufgehalten haben. Ich werde jetzt mit 47 nicht anfangen das zu ändern.

Wenn es kein Crowdmining Shares Projekt gibt (wovon ich jetzt mal ausgehe), bedeutet das noch lange nicht, dass ich nicht den Code für mich selbst so verwende, oder dass er bei einem anderen PoC coin zum Einsatz kommt.

Wäre ich Darth Vader, würde ich auch nicht den Code veröffentlichen, sondern mit den Worten "Ich finde Ihren Mangel an Glauben beklagenswert" andere Dinge veranstalten.  Wink Tja - so bin ich.

Ich denke, wir können diesen Thread schliessen.
legendary
Activity: 1036
Merit: 1005
Dann kannst ja mal deinen Code veröffentlichen  Tongue
Ich kann ja immer noch nicht so recht daran glauben..
legendary
Activity: 1120
Merit: 1037
฿ → ∞
also ich distanziere mich auch mal, so sehr mich diese Idee interessiert, von dieser Sache.

Meine Gründe dafür:

-> zu spät (König der Krümel usw.)
-> würde die reichen nur reicher machen weil nur effizient bei ohnehin schon großen Minern! (und ich zähle mich mal dazu)

Ganz ehrlich, sehe ich das mittlerweile ähnlich: Man muss nicht alles was technisch machbar ist auch umsetzen.
Wenn mir dieses Vorhaben etwas gezeigt hat, dann dass ein andere Coin her muss.  Smiley

Für die, die es interessiert Stand meines Mining vs Trading Experiments:

Start: 7.6.

Stand 14.6.

Miner: 1420 BURST
Trading: 58000 BURST
full member
Activity: 353
Merit: 100
also ich distanziere mich auch mal, so sehr mich diese Idee interessiert, von dieser Sache.

Meine Gründe dafür:

-> zu spät (König der Krümel usw.)
-> würde die reichen nur reicher machen weil nur effizient bei ohnehin schon großen Minern! (und ich zähle mich mal dazu)
legendary
Activity: 1513
Merit: 1040
Sind die 75 W ein realistischer Wert?

Sagt zumindest nvidia-smi bei der 1050Ti. Die kleineren karten sind tatsächlich weniger effizient als die großen Brocken.
Ok, dann ist das offenbar so. Das smi ist recht genau.
legendary
Activity: 1120
Merit: 1037
฿ → ∞
Sind die 75 W ein realistischer Wert?

Sagt zumindest nvidia-smi bei der 1050Ti. Die kleineren karten sind tatsächlich weniger effizient als die großen Brocken.
legendary
Activity: 1513
Merit: 1040
Quote
Das Problem was ich sehe: Es steht dem Dezentralisierungsgedanken entgegen, große Systeme haben Vorteile und nicht jeder kann sich Petabyte-Miner leisten.
Wenn der Skalierungseffekt im Grunde auf jede Kapazität anwendbar ist (?), dann ist das kein Problem. Man muss ja nicht zwingend mit einer high-end GPU arbeiten, die eine entsprechende Größe an HDD Kapazität voraussetzt. Kritisch wird es dann, wenn die notwendige Kapazität auf ein Minimum begrenzt werden kann und die GPUs bzw. deren Stromverbrauch überhand nimmt. Da wäre dann der Burstcoin nichts anderes, als einer der vielen anderen PoW Coins.

Runterskalieren geht zwar (mein kleiner Demonstrator  hier ist ein 20 -> 60 TB System), aber es ist nicht wirtschaftlich, weil ~30W (HDD) versus 75W (GPU). Von daher gibt es da ein Limit unterhalb dessen dieser hybride Ansatz keinen Sinn macht. Zumindest nicht so lange die Hardware so bleibt wie sie ist.

Wenn GPUs mal um den Faktor 10 effizienter werden, wird dieses Limit zu Ungunsten der HDDs sinken. Auf der anderen Seite können ja auch wieder bezahlbare 2.5 multi-TB SSDs kommen und die Waage geht in die andere Richtung.
Sind die 75 W ein realistischer Wert? Mir kommt das sehr hoch vor. Mit einer 1080 ti (TDP 250 W) lassen sich laut deiner Schätzung ~240 TB in ~4 min bedienen und für 20 TB in der gleichen Zeit bedarf es 75 W? Bei gleicher Fertigungsgröße und damit sehr ähnlicher Effizienz (low-end vs. high-end GPU) verstehe ich das nicht ganz. Hat das einen dermaßen ungünstigen nicht-linearen Verlauf?
Eigentlich sprechen wir fälschlicherweise immer von Leistung, es sollte der Verbrauch in kWh oder Wh dazu herangezogen werden. Die Anschaffungskosten von 40 TB sind dennoch ein vielfaches, das darf man nicht vergessen! Bis die Mehrkosten vom zusätzlichen Stromverbrauch der GPU aufgefressen sind, dauert es lange.

Quote
Wenn es eine derart simple Möglichkeit
gibt, mit einer 1080 die Mining-Kapazität zu verfünffachen, dann wundert es mich sehr dass weder
luxe noch blago das tun. Die haben beide >> 240 tb am laufen, sind bestens mit dem Mining-Prozess
vertraut in Theorie und Praxis.
Die Frage stellt sich mir auch schon von Anfang an. Wobei, wenn ich das Wissen dazu hätte, dann gäbe es hier keinen Thread ehrlich gesagt.
legendary
Activity: 1036
Merit: 1005
Hmm, also irgendwie bin ich davon nicht so recht überzeugt. Wenn es eine derart simple Möglichkeit
gibt, mit einer 1080 die Mining-Kapazität zu verfünffachen, dann wundert es mich sehr dass weder
luxe noch blago das tun. Die haben beide >> 240 tb am laufen, sind bestens mit dem Mining-Prozess
vertraut in Theorie und Praxis. Irgendwie erscheint mir das zu einfach um wahr zu sein, sorry..
Funktioniert dein Demonstrator denn wirklich und gewinnt er auch Deadlines so wie es bei 60 th zu
erwarten ist?
Die Wirtschaftlichkeit ist auch in dem kleinen Massstab schon scheissegal. Wenn ich für 45W
Mehrverbrauch aus 20 tb 60 tb zaubern könnte, würde ich das machen. Das Fenster fürs
Burst-Mining schliesst sich sehr sehr bald, allein schon der Vorteil keine 40 tb zusätzlich plotten zu
fällt da ins gewicht.
legendary
Activity: 1120
Merit: 1037
฿ → ∞
Quote
Das Problem was ich sehe: Es steht dem Dezentralisierungsgedanken entgegen, große Systeme haben Vorteile und nicht jeder kann sich Petabyte-Miner leisten.
Wenn der Skalierungseffekt im Grunde auf jede Kapazität anwendbar ist (?), dann ist das kein Problem. Man muss ja nicht zwingend mit einer high-end GPU arbeiten, die eine entsprechende Größe an HDD Kapazität voraussetzt. Kritisch wird es dann, wenn die notwendige Kapazität auf ein Minimum begrenzt werden kann und die GPUs bzw. deren Stromverbrauch überhand nimmt. Da wäre dann der Burstcoin nichts anderes, als einer der vielen anderen PoW Coins.

Runterskalieren geht zwar (mein kleiner Demonstrator  hier ist ein 20 -> 60 TB System), aber es ist nicht wirtschaftlich, weil ~30W (HDD) versus 75W (GPU). Von daher gibt es da ein Limit unterhalb dessen dieser hybride Ansatz keinen Sinn macht. Zumindest nicht so lange die Hardware so bleibt wie sie ist.

Wenn GPUs mal um den Faktor 10 effizienter werden, wird dieses Limit zu Ungunsten der HDDs sinken. Auf der anderen Seite können ja auch wieder bezahlbare 2.5 multi-TB SSDs kommen und die Waage geht in die andere Richtung.
legendary
Activity: 1513
Merit: 1040
Quote
Das Problem was ich sehe: Es steht dem Dezentralisierungsgedanken entgegen, große Systeme haben Vorteile und nicht jeder kann sich Petabyte-Miner leisten.
Wenn der Skalierungseffekt im Grunde auf jede Kapazität anwendbar ist (?), dann ist das kein Problem. Man muss ja nicht zwingend mit einer high-end GPU arbeiten, die eine entsprechende Größe an HDD Kapazität voraussetzt. Kritisch wird es dann, wenn die notwendige Kapazität auf ein Minimum begrenzt werden kann und die GPUs bzw. deren Stromverbrauch überhand nimmt. Da wäre dann der Burstcoin nichts anderes, als einer der vielen anderen PoW Coins.
legendary
Activity: 1120
Merit: 1037
฿ → ∞
Es ist keine Attacke, da man sich ja an das Protokoll hält. Es widerstrebt nur dem grünen Gedanken, dass es sich dann doch lohnt mehr Strom (GPUs) auf das Problem zu werfen. Idealerweise sollte (meiner Meinung nach) bei einem PoC-Coin wirklich nur der Plattenplatz zählen.

Der Witz ist ja, dass man bei den großen Minern weniger Strom mit GPU braucht, im vorliegenden Beispiel gehe ich davon aus, dass eine 1080Ti mit 300W auskommt, für die entsprechenden 96 Stck 10TB Platten kann ich von 500W ausgehen.

Ganz zu schweigen von den Anschaffungskosten. Ergo: So ein großer Miner ist auch energetisch effizienter.

Das Problem was ich sehe: Es steht dem Dezentralisierungsgedanken entgegen, große Systeme haben Vorteile und nicht jeder kann sich Petabyte-Miner leisten.
full member
Activity: 154
Merit: 100
Es ist keine Attacke, da man sich ja an das Protokoll hält. Es widerstrebt nur dem grünen Gedanken, dass es sich dann doch lohnt mehr Strom (GPUs) auf das Problem zu werfen. Idealerweise sollte (meiner Meinung nach) bei einem PoC-Coin wirklich nur der Plattenplatz zählen.
legendary
Activity: 1120
Merit: 1037
฿ → ∞
Meine Frage ist aber jetzt: Kann man einen PoC-Coin bauen, der nicht für diese "Attacke" anfällig ist?

Wie gesagt, halte ich das nicht für eine Attacke (Du - den Anführungszeichen nach zu urteilen - vermutlich auch nicht). Also sehe ich auch keine Notwendigkeit für einen Schutz. Es ist eine Design-Entscheidung und es macht auch nur Sinn bei großen Minern, wo der Skalierungseffekt die GPU effizienter stellt als die Menge an HDDs die sie ersetzt.

Quote
Und Scoops gibt es damit man nicht bei jedem neuen Block seine Plots KOMPLETT durchgehen muss, sondern nur den Teil, der zum aktuellen Scoop gehört oder? Sorry, wenn ich hier etwas unbedarft frage. Wenn jetzt alle Noncen (Tickets, Deadlines) unabhängig voneinander wären, würde einem die GPU ja nicht helfen, da man keinen Ansatzpunkt hat, wo man anfangen soll zu rechnen.

Wir haben ja bereits ausgeführt, dass ein Miner pro TB nur ungefähr 256 MB Daten einlesen muss. Wir wissen, dass wir beim BURST mining a) beliebig viele Plot files haben können, b) es egal ist wo diese im "nonces"-Suchraum positioniert sind. Letzteres impliziert auch, dass diese z.B. "Löcher" aufweisen können.  Wink
full member
Activity: 154
Merit: 100
Ich finde die Idee des hybriden Burst-Minings sehr spannend. Über ähnliches hatte ich auch schonmal nachgedacht, ich müsste halt auch mal das Paper lesen ^^

Die Frage ob man das machen soll: Wenn's ökonomisch sinnvoll ist ja, sonst macht's ein anderer. Vor allem jetzt wo die Idee draußen ist.

Meine Frage ist aber jetzt: Kann man einen PoC-Coin bauen, der nicht für diese "Attacke" anfällig ist? So wie ich das verstehe baut dein Ansatz darauf auf, dass du dir bestimmte Dinge vorberechnest, die den Suchraum verkleinern, in dem man dann ad-hoc mit der GPU minet. Dass das überhaupt geht, hängt doch damit zusammen, dass es für jede Nonce mehrere Scoops gibt oder? Und Scoops gibt es damit man nicht bei jedem neuen Block seine Plots KOMPLETT durchgehen muss, sondern nur den Teil, der zum aktuellen Scoop gehört oder? Sorry, wenn ich hier etwas unbedarft frage. Wenn jetzt alle Noncen (Tickets, Deadlines) unabhängig voneinander wären, würde einem die GPU ja nicht helfen, da man keinen Ansatzpunkt hat, wo man anfangen soll zu rechnen. Aber dann müsste man wie gesagt für jeden Block auch alles einlesen, da jedes Ticket potentiell gewinnen kann.

Stimmt das ungefähr was ich sage?
full member
Activity: 353
Merit: 100
sorry für späte Antwort; darf nur alle 6 Minuten mal.

Die Annahme von @Evolver ist so nicht korrekt:
Quote
das (hinter die accountID(z.b. 1234567890) gepackt) ergibt z.b. 12345678901a2b3c4d
die 1a2b3c4d sind zwar 8 Zeichen (auf dem Bildschirm), werden aber intern durch 4 Bytes repräsentiert (1a, 2b, 3c, 4d - alles Zahlen, die in 1 Byte passen). Somit ist oben die Account-ID + 4 Byte bzw Account-ID + 8 Bildschirmzeichen dargestellt.

mein lieber I, Karus, schön das es dich gibt! genau da bin ich durcheinander gekommen 8 zeichen <> 8 byte! Aber das Prinzip sollte stimmen (ist es so?)

legendary
Activity: 1120
Merit: 1037
฿ → ∞
Zur Klarstellung, RFC = "Request for Comment" - der vorliegende Beitrag stellt kein Angebot, Aufruf zum Kauf o.ä. dar.
Er soll vielmehr als Entscheidungsfindung für ein eventuell Solches dienen.

Als Comment von mir: Das sieht für mich (der recht unbedarft ist) alles sehr überlegt aus. Wenn dann sogar schon ein funktionierender Prototyp existiert, dann steht doch dem Angebot eigentlich nichts mehr im Wege, oder?

Dazu meine Frage: Die grob überschlagenen 15.000 Euro verteilen sich auf 1,2 Petabyte = 1.200 Terabyte. Angeboten werden sollen Shares zu 100 Terabytes (?). Somit wären 12 Shareholder möglich, und 1 Share würde  Pi*Daumen (gibt's da kein Kürzel für?) 15000 / 12 = 1.250 Euro kosten. Liesse sich die Sharegrösse noch verkleinern? Bei den Kosten wäre 10 TB meine Wunschvorstellung.

Und nun zum Wichtigsten: Mit welchem Rücklauf wäre zu rechnen? Das Nachrechnen fällt mir momentan schwer, da ich die notwendigen Parameter nicht kenne.

Wenn man genau darüber nachdenkt, ist das Alles eher nicht überlegt. Auf der technischen Seite ja, aber die Sinnfrage habe ich mir selbst noch nicht beantwortet.

Wenn ich mir die BURSTS, die täglich gemined werden ansehe: http://burstcoin.biz/charts/burstcoins-mined-per-day

Sehe ich erst einmal, dass man schon recht spät zur Party gekommen ist. Hinsichtlich Rücklauf, eine grobe Überschlagsrechnung:

Wenn 500k COINS pro tag bei 50PB Netzkapazität ausgeschüttet werden, dann hätte man bei 1PB 10k coins.

http://burstcoin.biz/calculator spricht von 13778 - sei's drum. Das sind also derzeit ca. 190 EUR? Oder gerne weniger - man soll sich die Sachen ja nicht schönrechnen.

Sagen wir 150 EUR, dann wären das 100 Tage. ABER: Ich habe nicht gesagt, dass ich die Shares zum Selbstkostenpreis weitergeben würde.
Wenn 100TB ~3000 EUR kosten, mich aber - in diesem speziellen Fall - 1500 EUR, dann ist die Preisfindung irgendwo dazwischen.

Hinsichtlich kleinerer Shares habe ich mir auch noch keine Gedanken gemacht (siehe "sehr überlegt"  Wink ) Bin da aber nicht so begeistert von, weil Flohzirkus-Management gehört nicht zu meinen Kernkompetenzen. Damit möchte ich nun keine kleinen Shares als Flöhe beleidigen, aber ich sehe nicht, wie ich nebeher 120 Leute bemuttern sollte.


Fakt ist, dass egal was man sich einreden mag, man gegenwärtig BURSTs minen sollte mit Hardware die man eh schon hat, oder (wie ich) sich welche besorgt für die man auch anderweitig Verwendung hat. Ansonsten ist der Rücklauf nicht unter 200 Tagen - sehe ich das richtig?
member
Activity: 70
Merit: 10
sorry für späte Antwort; darf nur alle 6 Minuten mal.

Die Annahme von @Evolver ist so nicht korrekt:
Quote
das (hinter die accountID(z.b. 1234567890) gepackt) ergibt z.b. 12345678901a2b3c4d
die 1a2b3c4d sind zwar 8 Zeichen (auf dem Bildschirm), werden aber intern durch 4 Bytes repräsentiert (1a, 2b, 3c, 4d - alles Zahlen, die in 1 Byte passen). Somit ist oben die Account-ID + 4 Byte bzw Account-ID + 8 Bildschirmzeichen dargestellt.
full member
Activity: 353
Merit: 100
lasst mich arzt, ich bin durch... ich habs korrigiert Roll Eyes
sr. member
Activity: 317
Merit: 251
für 4 Bytes (32 Bit) ist das Maximum 4294967296 ( 0 - 4294967295 )
für 8 Bytes (64 Bit) ist das Maximum 18446744073709551616 ( 0 - 18446744073709551615 )

Also sollte es kein Problem sein, dass ich von Nounce 50 Milliarden an plotte? Hab gerade einen kleinen Schock bekommen, das sich das dann evtl. doppelt mit Nounces, die ich vorher schon geplottet hatte.
member
Activity: 70
Merit: 10
für 4 Bytes (32 Bit) ist das Maximum 4294967296 ( 0 - 4294967295 )
für 8 Bytes (64 Bit) ist das Maximum 18446744073709551616 ( 0 - 18446744073709551615 )
sr. member
Activity: 317
Merit: 251
Quote
wenn man sich die plotter sektion mal anschaut, lese ich daraus, das bei 4mrd nonces schluss ist (8byte), d.h. mit einer BURST-XXXX adresse sind max. ca. 9390TB möglich.

Ist das tatsächlich so???


Ich habe meine einzelnen Plot Files nämlich mega weit auseinander gelegt, um keine Überschneidungen zu bekommen und Plotte im Moment irgendwas bei Nounce 50 Milliarden....
full member
Activity: 353
Merit: 100
hab das bild nochmal rausgekramt...


wenn man sich die plotter sektion mal anschaut, lese ich daraus, das bei ca. 18,4 quadrillionen nonces schluss ist (8byte), d.h. mit einer BURST-XXXX adresse sind max. ca. 4294967296PB = 4096ZettaB = 4YottaB möglich.

das (hinter die accountID(z.b. 1234567890) gepackt) ergibt z.b. 12345678901a2b3c4d.
diesen "string" schickt man nun in die shabal256 funktion und erhält den 4095sten scoop
das schickt man wieder und wieder und wieder in die shabal256 funktion bis man an scoop 0 angekommen ist, und den schickt man auch noch einmal in die shabal256 funktion und erhält den letzten (final)hash, gleichzeitig ergeben alle scoops ein plotchunk (256kb (1 nonce?))

in der Miningsektion:
die Prev Gensig ist die vorherige (Generator?) Signatur ich denke damit ist die vorherige block Signatur gemeint(?), die wird zusemmen mit der (neuen? oder alten?) blockhöhe in die shabal256 funktion geschickt und erhält die neue GenSig , von der schnibbelt man ein 4096stel (durchs modulo) heraus? <<< ist das mit dem 1/4096 gemeint?

legendary
Activity: 1513
Merit: 1040
Eigentlich geht es dann nur um die Frage, wie viele nonces eine GPU pro min (oder pro 4 min) schafft, wenn man den scoop vorgibt. Damit lässt sich sehr schnell ausrechnen, ob sich das (teilweise) Burst Mining mit GPUs auszahlt.
member
Activity: 70
Merit: 10
Zur Klarstellung, RFC = "Request for Comment" - der vorliegende Beitrag stellt kein Angebot, Aufruf zum Kauf o.ä. dar.
Er soll vielmehr als Entscheidungsfindung für ein eventuell Solches dienen.

Als Comment von mir: Das sieht für mich (der recht unbedarft ist) alles sehr überlegt aus. Wenn dann sogar schon ein funktionierender Prototyp existiert, dann steht doch dem Angebot eigentlich nichts mehr im Wege, oder?

Dazu meine Frage: Die grob überschlagenen 15.000 Euro verteilen sich auf 1,2 Petabyte = 1.200 Terabyte. Angeboten werden sollen Shares zu 100 Terabytes (?). Somit wären 12 Shareholder möglich, und 1 Share würde  Pi*Daumen (gibt's da kein Kürzel für?) 15000 / 12 = 1.250 Euro kosten. Liesse sich die Sharegrösse noch verkleinern? Bei den Kosten wäre 10 TB meine Wunschvorstellung.

Und nun zum Wichtigsten: Mit welchem Rücklauf wäre zu rechnen? Das Nachrechnen fällt mir momentan schwer, da ich die notwendigen Parameter nicht kenne.
legendary
Activity: 1120
Merit: 1037
฿ → ∞
...
Aber man möge mir bitte nachsehen, dass ich die technischen Details nicht allzu breit treten möchte.
...

ich glaube da werden wir nicht drum herum kommen!

Ja, dann viel Spaß.  Wink

full member
Activity: 353
Merit: 100
...
Aber man möge mir bitte nachsehen, dass ich die technischen Details nicht allzu breit treten möchte.
...

ich glaube da werden wir nicht drum herum kommen!

ich liege da offensichtlich doch noch etwas daneben, DENN ich dachte immer die ganze nonce würde zählen und die scoops seien dabei wichtig für die Deadline (nach dem motto: wie weit stimmt diese nonce dem gesuchten block überein? aha 2585 scoops dieser einen nonce stimmt zu xyz sekunden deadline überein)

kann mir das mal jmd richtig erklären?
Nein, in jeder Runde geht es immer nur um einen einzigen Scoop innerhalb der Nounces. Das steht bei den ninja-style Pools auch immer links oben in de rEcke um welchen Scoop es gerade geht

ok wenn es nur um scoops geht, warum hat man nonces erfunden?
Dadurch, dass es immer nur um einen Scoop aus jeder Nounce geht musst du nur 1/4096 des PLots einlesen pro BLock. Wäre das nicht so, würde das einlesen der Daten fast soviel Rechenkapazität verbrauchen wie das erstellen der Plots.

dafür brauche ich keine nonce, da reicht eine constante im quellcode (a la skip=4096) welchen zusammenhang hat die nonce mit den in ihr befindlichen scoops?
sr. member
Activity: 317
Merit: 251
...
Aber man möge mir bitte nachsehen, dass ich die technischen Details nicht allzu breit treten möchte.
...

ich glaube da werden wir nicht drum herum kommen!

ich liege da offensichtlich doch noch etwas daneben, DENN ich dachte immer die ganze nonce würde zählen und die scoops seien dabei wichtig für die Deadline (nach dem motto: wie weit stimmt diese nonce dem gesuchten block überein? aha 2585 scoops dieser einen nonce stimmt zu xyz sekunden deadline überein)

kann mir das mal jmd richtig erklären?
Nein, in jeder Runde geht es immer nur um einen einzigen Scoop innerhalb der Nounces. Das steht bei den ninja-style Pools auch immer links oben in de rEcke um welchen Scoop es gerade geht

ok wenn es nur um scoops geht, warum hat man nonces erfunden?
Dadurch, dass es immer nur um einen Scoop aus jeder Nounce geht musst du nur 1/4096 des PLots einlesen pro BLock. Wäre das nicht so, würde das einlesen der Daten fast soviel Rechenkapazität verbrauchen wie das erstellen der Plots.
full member
Activity: 353
Merit: 100
...
Aber man möge mir bitte nachsehen, dass ich die technischen Details nicht allzu breit treten möchte.
...

ich glaube da werden wir nicht drum herum kommen!

ich liege da offensichtlich doch noch etwas daneben, DENN ich dachte immer die ganze nonce würde zählen und die scoops seien dabei wichtig für die Deadline (nach dem motto: wie weit stimmt diese nonce dem gesuchten block überein? aha 2585 scoops dieser einen nonce stimmt zu xyz sekunden deadline überein)

kann mir das mal jmd richtig erklären?
Nein, in jeder Runde geht es immer nur um einen einzigen Scoop innerhalb der Nounces. Das steht bei den ninja-style Pools auch immer links oben in de rEcke um welchen Scoop es gerade geht

ok wenn es nur um scoops geht, warum hat man nonces erfunden?
sr. member
Activity: 317
Merit: 251
...
Aber man möge mir bitte nachsehen, dass ich die technischen Details nicht allzu breit treten möchte.
...

ich glaube da werden wir nicht drum herum kommen!

ich liege da offensichtlich doch noch etwas daneben, DENN ich dachte immer die ganze nonce würde zählen und die scoops seien dabei wichtig für die Deadline (nach dem motto: wie weit stimmt diese nonce dem gesuchten block überein? aha 2585 scoops dieser einen nonce stimmt zu xyz sekunden deadline überein)

kann mir das mal jmd richtig erklären?
Nein, in jeder Runde geht es immer nur um einen einzigen Scoop innerhalb der Nounces. Das steht bei den ninja-style Pools auch immer links oben in de rEcke um welchen Scoop es gerade geht
full member
Activity: 353
Merit: 100
...
Aber man möge mir bitte nachsehen, dass ich die technischen Details nicht allzu breit treten möchte.
...

ich glaube da werden wir nicht drum herum kommen!

ich liege da offensichtlich doch noch etwas daneben, DENN ich dachte immer die ganze nonce würde zählen und die scoops seien dabei wichtig für die Deadline (nach dem motto: wie weit stimmt diese nonce dem gesuchten block überein? aha 2585 scoops dieser einen nonce stimmt zu xyz sekunden deadline überein)

kann mir das mal jmd richtig erklären?
legendary
Activity: 1513
Merit: 1040
Quote
An genau so etwas in der Richutng habe ich vor Monaten schon gedacht. Nur leider fehlt mir dafür der technische Sachverstand um das zu realisieren.
Ja, so ähnlich gehts mir auch. Ich hab das mit den GPUs eigentlich ausgeschlossen, weil ich dachte, es muss für jede Runde ALLES nochmal berechnet werden, also wie beim Plotten. Wenn es nur Bruchteile davon sind, ist das was ganz anderes.

Quote
Plusminus, eine 1080Ti schafft 100k Nonces. Die Runde ist eher 4 min (man sollte natürlich drunter bleiben, damit man nicht zu spät zur Party kommt).
Gut, das ist dann schon fast Kategorie Feintuning. Kommt halt darauf an, wie viele teilverlorene Runden man akzeptiert, weil jemand anderes schneller war. Die Empfehlung in div. Burstcoin Foren ist <1 min.

Quote
Allerdings sind die 100k Nonces sequentiell und nicht random-access (letzterer kostet), auf der anderen Seite muss man nicht 1024 Nonces/TB berechen. Deswegen ja das "Stütz-Skelett".
Das heißt, man müsste wissen wie viel die GPUs random-access Leistung haben. Wenn GPUs effizienter sind als HDDs, dann wäre das Stütz-Skelett auf ein absolut notwendiges Minimum beschränkt, verstehe ich das richtig?

Kannst du ein Rechenbeispiel geben wie du für die 1080 ti auf den Faktor 1:5 gekommen bist? Da muss auch die Rundenzeit mitein fließen, weil die GPU rechnet bis die Runde zu Ende ist. Ist sie früher zu Ende, ist die, auf HDDs umgelegte Kapazität kleiner, dauert die Runde länger, ist sie größer. Bei Verwendung von HDDs only ist die Kapazität natürlich immer die gleiche.
legendary
Activity: 1120
Merit: 1037
฿ → ∞
Nein, ich meine bei HDD only, wie viel wird pro Runde pro TB Plotfile ausgelesen?

~256 MB
Zum richtigen Verständnis:
Bei 256 MB wären das 1.024 nonces/TB. Um 1 TB komplett per GPU zu simulieren, wird eine Leistung von 1.024 nonces/min benötigt, wenn man als round target 1 min je Runde anpeilt.
Angenommen man verwendet eine GPU die 51.200 nonces/min schafft (round target wieder 1 min), dann kann man damit 50 TB simulieren. Die HDD mit dem Grundgerüst enthält dann ein Plotfile, bei dem die nonces jeweils 50 TB auseinander liegen. Die starting nonce gibt die HDD vor, Rest macht die GPU. Heißt, damit kann man theoretisch "Kapazität der HDD in kB / 256"-GPUs bedienen (//wobei, reicht die starting nonce als Vorgabe? Weiter gedacht: Eigentlich muss man doch exakt ausrechnen können, wieviele GPUs man pro HDD Kapazität bedienen kann, wenn man bis auf den notwendigen Anfang alles von der GPU berechnen lässt.).
Ich weiß nicht, was eine GPU mit ~51.200 nonces/min kostet, aber 50 TB kosten mindestens 1300 € (gerechnet mit externer WD mit 8 TB die immer wieder bei Amazon im Angebot ist, ohne Amazon Rabatt).
Denkfehler?

Plusminus, eine 1080Ti schafft 100k Nonces. Die Runde ist eher 4 min (man sollte natürlich drunter bleiben, damit man nicht zu spät zur Party kommt).


edit: Es ist ja wichtig mit welcher DL man kommt, nicht ob man der Erste ist.
Genaugenommen wäre man der Troll unter den Minern. Alle freuen sich schon, dann kommt als einer der Letzten der Petabyte Miner. :-)


Allerdings sind die 100k Nonces sequentiell und nicht random-access (letzterer kostet), auf der anderen Seite muss man nicht 1024 Nonces/TB berechen. Deswegen ja das "Stütz-Skelett".

...
sr. member
Activity: 317
Merit: 251
Wie viel wird pro TB exakt pro Runde ausgelesen?

ich glaube das ist hier nicht das Wort der Wahl...

so wie ich es verstanden habe wäre 1 teil graka und 5 teile HDD

Äh - nein.

1 Teil HDD, 4 Teile GraKa -> effektiv 1:5

Sprich man bekommt aus einer Platte soviel raus "als hätte man 5 Platten"

@eneloop

Das mit dem "ausgelesen" habe ich aber auch nicht verstanden. Meinst Du wie die Plattenlast pro Runde (4 Min?) ist?
Weiß nicht - müsste ich nachrechnen. Ist das wichtig? Sicher gibt es da aber keinen IO Flaschenhals.

An genau so etwas in der Richutng habe ich vor Monaten schon gedacht. Nur leider fehlt mir dafür der technische Sachverstand um das zu realisieren. Lass mal schauen, ob ich das richtig verstehe:

Eine Nounce beim Burst Mining besteht ja aus 4096 Scoops. Bei jeden Block wird ja zufallsmäßig bestimmt um welchen Scoop es bei diesem Block geht. Deshalb muss der Miner aus jeder Nounce dann ja auch immer nur genau diesen Scoop einlesen. Das heisst pro Nounce die ich geplottet habe werfe ich quasi bei jedem Block das passende 1/4096stel Los in den Lostopf.

Du willst nun innerhalb von jeder Nounce nur -ich sage mal- jeden 5. Scoop auf die PLatte schreiben. Also Scoop 1,6,11,16,21.......4096

Kommt nun ein Block bei dem es um Scoop 1 geht: "BINGO! Den haben wir so oder so - Glück gehabt, wir können ein Los in den Topf werfen und müssen nciht mal mehr rechnen, weil wir das Los ja eh haben"

Kommt nun ein Block, der Scoop 8 verlangt prüfen wir, welcher der letzte Scoop davor ist, den wir schon auf die Platte geschrieben haben. Also Scoop 6. Nun schmeißen wir die GPU an und lassen für jede Nounce Scoop 7 und 8 errechnen. Sobald wir die errechnet haben schmeißen wir unser Los in den Topf.

Wenn wir davon ausgehen, dass eine gute Grafikkarte 8000 Nounces pro Minute errechnen kann, dann wären das ca. 8000*4096 = 32.000.000 Scoops pro Minute. In unserem Beispiel müsste die  GPU ja in jeder Nounce 2 Scoops errechnen. Das heißt pro Minute könnte man 16.000.000 Nounces in Echtzeit errechnen anstelle sie vorher auf die Platte zu schreiben. Da eine Nounce 0,25 MB groß ist wären das 4 TB pro Minute....

Ähhh.... Jetzt glaub ich hab ich aber irgendwo nen Rechen-, oder Denkfehler... Weil 4 TB zu ersetzen würde sich ja gar nicht lohnen   Huh

 
legendary
Activity: 1513
Merit: 1040
Nein, ich meine bei HDD only, wie viel wird pro Runde pro TB Plotfile ausgelesen?

~256 MB
Zum richtigen Verständnis:
Bei 256 MB wären das 1.024 nonces/TB. Um 1 TB komplett per GPU zu simulieren, wird eine Leistung von 1.024 nonces/min benötigt, wenn man als round target 1 min je Runde anpeilt.
Angenommen man verwendet eine GPU die 51.200 nonces/min schafft (round target wieder 1 min), dann kann man damit 50 TB simulieren. Die HDD mit dem Grundgerüst enthält dann ein Plotfile, bei dem die nonces jeweils 50 TB auseinander liegen. Die starting nonce gibt die HDD vor, Rest macht die GPU. Heißt, damit kann man theoretisch "Kapazität der HDD in kB / 256"-GPUs bedienen (//wobei, reicht die starting nonce als Vorgabe? Weiter gedacht: Eigentlich muss man doch exakt ausrechnen können, wieviele GPUs man pro HDD Kapazität bedienen kann, wenn man bis auf den notwendigen Anfang alles von der GPU berechnen lässt.).
Ich weiß nicht, was eine GPU mit ~51.200 nonces/min kostet, aber 50 TB kosten mindestens 1300 € (gerechnet mit externer WD mit 8 TB die immer wieder bei Amazon im Angebot ist, ohne Amazon Rabatt).
Denkfehler?
legendary
Activity: 1120
Merit: 1037
฿ → ∞
sicher? ich dachte es werden nur 1 scoop pro nonce gelesen?

Sicher? Nein.

Was sagt creepMiner?

1.72 TB total in 4.590s (~95.73 MB/s)  => 255.xMB
1.91 TB total in 15.050s (~32.44 MB/s)  => 255.xMB

auf verschiedenen Maschinen, verschiedene Disks, verschieden große Plot Files.

Empirisch-intuitiv: 256MB/TB - wenn man creepMiner vertraut.

edit: Ääh ... aber es sind doch 4096 Scoops in einer Nonce 1TB / 4096 -> 256 MB

Also sicher.
full member
Activity: 353
Merit: 100
Nein, ich meine bei HDD only, wie viel wird pro Runde pro TB Plotfile ausgelesen?

~256 MB

sicher? ich dachte es werden nur 1 scoop pro nonce gelesen?
legendary
Activity: 1120
Merit: 1037
฿ → ∞
Nein, ich meine bei HDD only, wie viel wird pro Runde pro TB Plotfile ausgelesen?

~256 MB
legendary
Activity: 1513
Merit: 1040
Nein, ich meine bei HDD only, wie viel wird pro Runde pro TB Plotfile ausgelesen?
legendary
Activity: 1120
Merit: 1037
฿ → ∞
Wie viel wird pro TB exakt pro Runde ausgelesen?

ich glaube das ist hier nicht das Wort der Wahl...

so wie ich es verstanden habe wäre 1 teil graka und 5 teile HDD

Äh - nein.

1 Teil HDD, 4 Teile GraKa -> effektiv 1:5

Sprich man bekommt aus einer Platte soviel raus "als hätte man 5 Platten"

@eneloop

Das mit dem "ausgelesen" habe ich aber auch nicht verstanden. Meinst Du wie die Plattenlast pro Runde (4 Min?) ist?
Weiß nicht - müsste ich nachrechnen. Ist das wichtig? Sicher gibt es da aber keinen IO Flaschenhals.
full member
Activity: 353
Merit: 100
Wie viel wird pro TB exakt pro Runde ausgelesen?

ich glaube das ist hier nicht das Wort der Wahl...

so wie ich es verstanden habe wäre 1 teil graka und 5 teile HDD

bei 5 TB hättest du 6TB
bei 50TB dann 60TB
bei 500TB dann 600TB
usw...

Edit sagt: oder umgedreht (1 teil HDD und 5 Teile GraKa)
legendary
Activity: 1513
Merit: 1040
Wie viel wird pro TB exakt pro Runde ausgelesen?
legendary
Activity: 1513
Merit: 1040
100 TB lassen sich mit rund 3.000 € aufstellen (consumer hardware, Seagate Ironwolfs, 20 % Amazon Rabatt).

Wie funktioniert das mit den Gutscheinen genau? Da kenne ich mich nicht aus.

Die IronWolf bekomme ich für 359 EUR her, bei Amazon sehe ich EUR 368.07.

Selbst wenn das 300 EUR wären (da wäre ich sehr interessiert zu erfahren wie) - also 3000 EUR für 10Stck, hast Du noch kein Mainboard, CPU, Speicher, Gehäuse (ok braucht man nicht) Netzteil. Wie kommst Du auf die 3000 EUR?
Im "Biete" Bereich gibt es 2 User die Geschenkelistenbestellungen machen. Für eine gewerbliche Aktion wie hier geplant, aber nicht brauchbar. Für einzelne Private aber durchaus.
Die 10 TB Version hat ein schlechtes P/L-Verhältnis. Ich rechne mit der 8 TB Version.
legendary
Activity: 1120
Merit: 1037
฿ → ∞
100 TB lassen sich mit rund 3.000 € aufstellen (consumer hardware, Seagate Ironwolfs, 20 % Amazon Rabatt).

Wie funktioniert das mit den Gutscheinen genau? Da kenne ich mich nicht aus.

Die IronWolf bekomme ich für 359 EUR her, bei Amazon sehe ich EUR 368.07.

Selbst wenn das 300 EUR wären (da wäre ich sehr interessiert zu erfahren wie) - also 3000 EUR für 10Stck, hast Du noch kein Mainboard, CPU, Speicher, Gehäuse (ok braucht man nicht) Netzteil. Wie kommst Du auf die 3000 EUR?
legendary
Activity: 1120
Merit: 1037
฿ → ∞
Es muss schon für die Suche eine Datenstruktur da sein, die der GPU sagt "Ab hier rechnen". Und nicht "ab überall".
Sehr einfach gesagt: Dieses "ab hier rechnen" lässt sich nicht anderweitig vorgeben?

Ich wüsste nicht wie. Man kann Information rekonstruieren, aber man kann sie nicht aus dem Nichts erzeugen.

Man kann ein wenig an den Parametern drehen und bestimmen wieviel Speicher man gegen wieviel Rechenzeit eintauscht - und so kann man eine optimale Konfiguration finden - aber das "compute-only" Extrem geht bei BURST nicht.

Evtl. Wäre in der "Power-Envelope" Platz für eine zweite GPU und man könnte das auf 1:8 aufblasen, aber auch da gilt "the law of diminishing returns". Zwei GPUs arbeiten weniger effizient als eine (also schneller aber nicht doppelt so schnell).

Wenn ich von 96 gesparten Drives ausgehe, weiß ich, dass mir ungefähr 500W zur Verfügung stehen, da wird das mit potentiell 2 x 300W schon wieder haarig mit den Betriebskosten.

Sicher ist das noch ok mit den Anschaffungskosten. 96 Ironwolfs kosten mich mind. 30k EUR, und bei 120 Drives müsste man auch welche vorrätig halten, wg. Ausfallwahrscheinlichkeit etc. - gut muss man bei 24 auch, aber nicht mehr so viele.


Quote
Ah ich versteh schon. Wenn GPUs aber generell effizienter sind, warum dann überhaupt einen Teil auf der HDD belassen?

Da liegt ein Missverständnis vor. Die GPU "alleine für sich" ist eben nicht effizienter. Sie ist aber in diesem HDD-GPU hybrid-Gespann effizienter, als die Summe der HDDs, die sie - sagen wir - emuliert. Aber ohne die HDDs mit dem Stützskelett könnte sie niemals diese anderen HDDs emulieren. Klar?

Was ist effizienter? Das Auto oder das Benzin?
legendary
Activity: 1513
Merit: 1040
Wozu sind die nonce-Stützpunkte notwendig? Lässt sich da nicht gleich alles aus der GPU herausholen?

Nein, das wäre ja 1:unendlich und nicht 1:5 - sprich: könnte man schon, aber halt mit 100k nonces/minute
Effektiv hättest Du dann einen 400k nonces miner (~98 GB). Bei einer Block-Zeit von 4 Minuten.

Es muss schon für die Suche eine Datenstruktur da sein, die der GPU sagt "Ab hier rechnen". Und nicht "ab überall".
Sehr einfach gesagt: Dieses "ab hier rechnen" lässt sich nicht anderweitig vorgeben?

...das was geplottet ist, muss nicht mehr errechnet werden, das spart generierungszeit
Ah ich versteh schon. Wenn GPUs aber generell effizienter sind, warum dann überhaupt einen Teil auf der HDD belassen?

Quote
Die alles entscheidende Frage ist doch, ob ein 100TB Share an diesem Miner billiger wäre. Das würde ich gerne klären.
100 TB lassen sich mit rund 3.000 € aufstellen (consumer hardware, Seagate Ironwolfs, 20 % Amazon Rabatt).
legendary
Activity: 1513
Merit: 1040
... die (chinesische Lagerhalle) hast du mit dem Vorhaben also ohnehin schon mal voll, egal ob open Source, oder "Big-Fish-Onlys" (ehrlich gesagt wundert es mich, das das nicht jetzt schon der Fall ist, nur halt mit HDDs?)

Ich wollte damit ausdrücken, dass lieber ich "die chinesische Lagerhalle" bin, als sonstwer.

Und deswegen rede ich ja von "Shares", weil es ja nicht Big-Fish-Only werden muss. Die Kostenrechnung ist leider etwas neblig, weil die GPU 1:4 oder auch 1:6 schaffen kann (oder vielleicht macht es auch Sinn 2 GPUs zu verwenden...) und die Hardware ist mit 15k wie gesagt Pi*Daumen

Supermicro 24 x 3.5" Chassis mit red. NT, 24 x Seagate Ironfox 10TB, 1080(Ti) GPU, Controller, modernes Xeon Mainboard
Das wähle ich mit Bedacht, weil man bis 24 3.5" Drives noch "bezahlbare" Industrial-Grade Lösungen bekommt.

Könnte mehr oder weniger werden. Wieviel kostet heute so der billigste 100TB miner, den man sich zu Hause zusammenschustern kann?

Die alles entscheidende Frage ist doch, ob ein 100TB Share an diesem Miner billiger wäre. Das würde ich gerne klären.
Natürlich würde der Miner Solo minen, also kein Pool - ABER (s.u.).

Wenn das realisiert wird, würde ich mich auch beteiligen, weil es doch immer eine Motivation für den betreiber ist, wenn er mit im gleichen Boot sitzt.
Und darüber hinaus für mich als Aufwandsentschädigung die üblichen 2% Pool-Provision. Ich denke, das ist fair.

... das wäre ein Stichwort für mich, da ich gerade an einem "Hosted-Mining" für meine Website (http://burstcoin.zone) arbeite.

Nun ich weiß nicht, was ich davon halten soll, geschweige denn, ob sich das für die paar "krümel" überhaupt noch lohnen würde einen derartigen Aufwand zu treiben...

Das muss dann wie bei anderen Coins auch die Fee bzw. der Wert der Coins regeln. Irgendwann ist bei jedem Coin Schluss mit dem Reward-Mining.
full member
Activity: 353
Merit: 100
Wozu sind die nonce-Stützpunkte notwendig? Lässt sich da nicht gleich alles aus der GPU herausholen?

Nein, das wäre ja 1:unendlich und nicht 1:5 - sprich: könnte man schon, aber halt mit 100k nonces/minute
Effektiv hättest Du dann einen 400k nonces miner (~98 GB). Bei einer Block-Zeit von 4 Minuten.

Es muss schon für die Suche eine Datenstruktur da sein, die der GPU sagt "Ab hier rechnen". Und nicht "ab überall".
Sehr einfach gesagt: Dieses "ab hier rechnen" lässt sich nicht anderweitig vorgeben?

...das was geplottet ist, muss nicht mehr errechnet werden, das spart generierungszeit
legendary
Activity: 1513
Merit: 1040
Wozu sind die nonce-Stützpunkte notwendig? Lässt sich da nicht gleich alles aus der GPU herausholen?

Nein, das wäre ja 1:unendlich und nicht 1:5 - sprich: könnte man schon, aber halt mit 100k nonces/minute
Effektiv hättest Du dann einen 400k nonces miner (~98 GB). Bei einer Block-Zeit von 4 Minuten.

Es muss schon für die Suche eine Datenstruktur da sein, die der GPU sagt "Ab hier rechnen". Und nicht "ab überall".
Sehr einfach gesagt: Dieses "ab hier rechnen" lässt sich nicht anderweitig vorgeben?
full member
Activity: 353
Merit: 100
... die (chinesische Lagerhalle) hast du mit dem Vorhaben also ohnehin schon mal voll, egal ob open Source, oder "Big-Fish-Onlys" (ehrlich gesagt wundert es mich, das das nicht jetzt schon der Fall ist, nur halt mit HDDs?)

Ich wollte damit ausdrücken, dass lieber ich "die chinesische Lagerhalle" bin, als sonstwer.

Und deswegen rede ich ja von "Shares", weil es ja nicht Big-Fish-Only werden muss. Die Kostenrechnung ist leider etwas neblig, weil die GPU 1:4 oder auch 1:6 schaffen kann (oder vielleicht macht es auch Sinn 2 GPUs zu verwenden...) und die Hardware ist mit 15k wie gesagt Pi*Daumen

Supermicro 24 x 3.5" Chassis mit red. NT, 24 x Seagate Ironfox 10TB, 1080(Ti) GPU, Controller, modernes Xeon Mainboard
Das wähle ich mit Bedacht, weil man bis 24 3.5" Drives noch "bezahlbare" Industrial-Grade Lösungen bekommt.

Könnte mehr oder weniger werden. Wieviel kostet heute so der billigste 100TB miner, den man sich zu Hause zusammenschustern kann?

Die alles entscheidende Frage ist doch, ob ein 100TB Share an diesem Miner billiger wäre. Das würde ich gerne klären.
Natürlich würde der Miner Solo minen, also kein Pool - ABER (s.u.).

Wenn das realisiert wird, würde ich mich auch beteiligen, weil es doch immer eine Motivation für den betreiber ist, wenn er mit im gleichen Boot sitzt.
Und darüber hinaus für mich als Aufwandsentschädigung die üblichen 2% Pool-Provision. Ich denke, das ist fair.

... das wäre ein Stichwort für mich, da ich gerade an einem "Hosted-Mining" für meine Website (http://burstcoin.zone) arbeite.

Nun ich weiß nicht, was ich davon halten soll, geschweige denn, ob sich das für die paar "krümel" überhaupt noch lohnen würde einen derartigen Aufwand zu treiben...
legendary
Activity: 1120
Merit: 1037
฿ → ∞
Wozu sind die nonce-Stützpunkte notwendig? Lässt sich da nicht gleich alles aus der GPU herausholen?

Nein, das wäre ja 1:unendlich und nicht 1:5 - sprich: könnte man schon, aber halt mit 100k nonces/minute
Effektiv hättest Du dann einen 400k nonces miner (~98 GB). Bei einer Block-Zeit von 4 Minuten.

Es muss schon für die Suche eine Datenstruktur da sein, die der GPU sagt "Ab hier rechnen". Und nicht "ab überall".
legendary
Activity: 1120
Merit: 1037
฿ → ∞
... die (chinesische Lagerhalle) hast du mit dem Vorhaben also ohnehin schon mal voll, egal ob open Source, oder "Big-Fish-Onlys" (ehrlich gesagt wundert es mich, das das nicht jetzt schon der Fall ist, nur halt mit HDDs?)

Ich wollte damit ausdrücken, dass lieber ich "die chinesische Lagerhalle" bin, als sonstwer.

Und deswegen rede ich ja von "Shares", weil es ja nicht Big-Fish-Only werden muss. Die Kostenrechnung ist leider etwas neblig, weil die GPU 1:4 oder auch 1:6 schaffen kann (oder vielleicht macht es auch Sinn 2 GPUs zu verwenden...) und die Hardware ist mit 15k wie gesagt Pi*Daumen

Supermicro 24 x 3.5" Chassis mit red. NT, 24 x Seagate Ironfox 10TB, 1080(Ti) GPU, Controller, modernes Xeon Mainboard
Das wähle ich mit Bedacht, weil man bis 24 3.5" Drives noch "bezahlbare" Industrial-Grade Lösungen bekommt.

Könnte mehr oder weniger werden. Wieviel kostet heute so der billigste 100TB miner, den man sich zu Hause zusammenschustern kann?

Die alles entscheidende Frage ist doch, ob ein 100TB Share an diesem Miner billiger wäre. Das würde ich gerne klären.
Natürlich würde der Miner Solo minen, also kein Pool - ABER (s.u.).

Wenn das realisiert wird, würde ich mich auch beteiligen, weil es doch immer eine Motivation für den betreiber ist, wenn er mit im gleichen Boot sitzt.
Und darüber hinaus für mich als Aufwandsentschädigung die üblichen 2% Pool-Provision. Ich denke, das ist fair.
legendary
Activity: 1513
Merit: 1040
Quote
... die (chinesische Lagerhalle) hast du mit dem Vorhaben also ohnehin schon mal voll, egal ob open Source, oder "Big-Fish-Onlys" (ehrlich gesagt wundert es mich, das das nicht jetzt schon der Fall ist, nur halt mit HDDs?)
Weil anderweitig deutlich mehr zu holen ist. Ich möchte gar nicht wissen, wie viel die ASIC Produktion kostet und für welchen Wucherpreis dann tatsächlich verkauft wird. Bei Festplatten sieht das anders aus. Da gibt es kein "wir bauen uns mal schnell eine "kostengünstige" Schaltung".

Wozu sind die nonce-Stützpunkte notwendig? Lässt sich da nicht gleich alles aus der GPU herausholen?
full member
Activity: 353
Merit: 100
...autsch, das ist Matsch! Wenn, dann müsste man das open source machen und nicht schon wieder "Big-Fish-only-access".

wobei man das in Deutschland und in einigen anderen Ländern auch schonwieder alles vergessen kann, ebenso das Private mining >>> Stromkosten

Open Source ist wie auch beim LBC so in etwa das Letzte was ich machen würde, weil dann hast Du morgen eine chinesische Lagerhalle voll mit diesen Dingern und Ende Legende.

... die (chinesische Lagerhalle) hast du mit dem Vorhaben also ohnehin schon mal voll, egal ob open Source, oder "Big-Fish-Onlys" (ehrlich gesagt wundert es mich, das das nicht jetzt schon der Fall ist, nur halt mit HDDs?)
legendary
Activity: 1120
Merit: 1037
฿ → ∞
...autsch, das ist Matsch! Wenn, dann müsste man das open source machen und nicht schon wieder "Big-Fish-only-access".

wobei man das in Deutschland und in einigen anderen Ländern auch schonwieder alles vergessen kann, ebenso das Private mining >>> Stromkosten

Open Source ist wie auch beim LBC so in etwa das Letzte was ich machen würde, weil dann hast Du morgen eine chinesische Lagerhalle voll mit diesen Dingern und Ende Legende.
full member
Activity: 353
Merit: 100
...stuff

ASIC sehe ich auch damit nicht, aber die Dezentralisierung wäre IMHO schon in Gefahr. 750 k EUR und man hat das gesamte Äquivalent des BURST Netzwerks. Wenn ich mir den derzeitigen Kurs ansehe, nachrechne wieviel Blöcke  pro Tag gefunden werden (man hätte ja 50% davon) und das ganze nach dieser Investition für ~ 250 EUR laufende Kosten pro Tag ...


...autsch, das ist Matsch! Wenn, dann müsste man das open source machen und nicht schon wieder "Big-Fish-only-access".

wobei man das in Deutschland und in einigen anderen Ländern auch schonwieder alles vergessen kann, ebenso das Private mining >>> Stromkosten
legendary
Activity: 1120
Merit: 1037
฿ → ∞
Im prinzip würde ich diese idee nicht schlecht finden, ich interpretiere dich gerade so:

nonce-stützpunkte:
nonce-stützpunkt 0 auf platte => GraKa macht nonce 1 bis nonce 999

In etwa, wobei das was Du da skizzierst ja 1:1000 wäre. Das geht mit gegenwärtiger Hardware nicht und die Details sind auch ein wenig anders.
Eine Nonce sind ja 4096 Scoops und mit "Nonce-Stützpunkt" meine ich nicht komplette Nonces, sondern eine Art "Scoop-Skelett".

Aber man möge mir bitte nachsehen, dass ich die technischen Details nicht allzu breit treten möchte.


Die Idee läuft der Dezentralisierung von BURST diametral entgegen und könnte im Erfolgsfall u.U. sogar negative Auswirkungen auf den coin selbst haben.

ASIC sehe ich auch damit nicht, aber die Dezentralisierung wäre IMHO schon in Gefahr. 750 k EUR und man hat das gesamte Äquivalent des BURST Netzwerks. Wenn ich mir den derzeitigen Kurs ansehe, nachrechne wieviel Blöcke  pro Tag gefunden werden (man hätte ja 50% davon) und das ganze nach dieser Investition für ~ 250 EUR laufende Kosten pro Tag ...
full member
Activity: 353
Merit: 100
Im prinzip würde ich diese idee nicht schlecht finden, ich interpretiere dich gerade so:

nonce-stützpunkte:
nonce-stützpunkt 0 auf platte => GraKa macht nonce 1 bis nonce 999
nonce-stützpunkt 1000 auf platte => GraKa macht 1001 bis 1999
nonce-stützpunkt 2000 auf platte => GraKa macht 2001 bis 2999
nonce-stützpunkt 3000 ...

ABER:

Würde das nicht teilweise das ASIC-Proof-konzept des BURST kaputt machen?
legendary
Activity: 1120
Merit: 1037
฿ → ∞
Zur Klarstellung, RFC = "Request for Comment" - der vorliegende Beitrag stellt kein Angebot, Aufruf zum Kauf o.ä. dar.
Er soll vielmehr als Entscheidungsfindung für ein eventuell Solches dienen.


BURST Crowdmining Shares

Ich beschäftige mich seit ca. einer Woche mit BURST und wie das so bei mir üblich ist, denke ich wohl über andere Herangehensweisen "an das Problem" nach, als man das so gemeinhin macht.

Ich habe mir mal das Originalpaper zu "Proofs of Space" angetan (https://eprint.iacr.org/2013/796.pdf), weil mich das Konzept interessiert und weil ich einige unbeantwortete Fragen hatte. Zum einen wie das genau funktioniert und insbesondere wie sich der Algorithmus gegen Fakes schützt.

Meine Überlegung war (ohne ausladend werden zu wollen: ähnlich wie beim Information<->Energie<->Materie Äquivalent), dass man in der Informatik oftmals Speed für Space eintauschen kann und andersherum. Sprich: Ich kann für viele Algorithmen Äquivalente finden, die schneller sind (weniger Last auf der CPU/GPU erzeugen), aber dafür mehr Speicher brauchen. Oder andersherum: die weniger Speicher brauchen, aber mehr last auf der Recheneinheit erzeugen.

"Bingo!", dachte ich mir - das sollte bei BURST doch auch gehen.

Die Lektüre des o.g. Papers brachte denn auch die Bestätigung, siehe dort ab Seite 19 "Time-Memory Tradeoffs" ...Resümee:

Quote
... thus this attack is very much practical.

Als "Attack" würde ich das nun nicht bezeichnen, sondern vielmehr als Design-Entscheidung, ob man nun mehr Platz, oder mehr Rechenkapazität auf das Problem werfen will. Mit anderen Worten: Das vorliegende Konzept sind keine Fakes, bei den Nonces. Der Miner würde sehr wohl korrekte Nonces liefern und nicht nur vorgaukeln.


Die Idee

Man kann einen hybriden BURST Miner konzipieren, der - vorsichtig geschätzt - eine ca. 1:5 Ratio Plattenplatz:effektiver Plattenplatz aufweist, billiger ist als sein nur-HDD Pendant und weniger Energie verbraucht, indem man auf den Platten "Nonce-Stützpunkte" speichert, und eine leistungsstarke GPU on-demand bei einem neuen Block Nonces errechnen lässt.

Halt! Was? GPU? Weniger Energie???

Ja!

Die Antwort liegt in der Skalierung. Wenn ich 24 Stck 10TB Platten hernehme (240 TB) für die "Nonce-Stützpunkte" und die GPU "macht mir daraus"(tm) 1,2PB, dann kann ich mit den 300W Energieverbrauch der GPU leben, weil mich 96 Stck 10 TB Platten im Betrieb mehr Energie kosten würden!

Abgesehen davon, bringen andere Skalierungseffekte bei diesen größeren Systemen weitere positive Kosteneffekte mit sich (weniger Infrastruktur pro Plattenplatz). Und last but not least: Selbst ein 1PB (eff.) Miner, hätte nur zwischen 700 und 1000W Stromverbrauch und ich hätte ich einen sicheren Ort mit 10ct/KWh dafür.

Kurzum: In der Welt des BURST Mining gleich 2-3 sich multiplizierende Wettbewerbsvorteile auf einmal.

Pro-Argumente

  • Es funktioniert, nicht nur theoretisch, Ich habe bereits einen 1:3 Demonstrator gehackt (M2000M GPU, eine 1080 s.o. 1:5)
  • Soweit mir bekannt, wird das so noch nirgends praktiziert, prinzipiell könnte man "absahnen".
  • Sollte der PB Miner so tun wie gedacht, könnte man "das China des BURST" werden, weil weiteren, ggf. größeren PB Minern stünde nicht viel im Wege.

Contra-Argumente

  • Ich halte BURST für "übermined" - sprich unendlich motivieren mich die noch verbliebenen 17% BURST nicht. Man wäre der King der Brotkrümel.
  • Das übliche Mining-Risiko: Hardware kann kaputt gehen, sonstige Ausfälle (Internet, Lieferzeiten) - generell sind Prototypen risikobehaftet, weil halt die Ersten ihrer Art. Also Time-To-Market/Ramp-Up etc.
  • Die Idee läuft der Dezentralisierung von BURST diametral entgegen und könnte im Erfolgsfall u.U. sogar negative Auswirkungen auf den coin selbst haben.
  • Wenn natürlich die BURST difficulty durch die Decke schiesst, ists Essig: http://burstcoin.biz/charts/estimated-network-size (aber wie gesagt, wir hätten 2-3 sich verstärkende Vorteile)

Die Frage

Was haltet ihr davon? Würdet ihr in so eine Unternehmung investieren? Wirklich nur Pi*Daumen geschätzte Kosten für so einen 1,2PB Miner:

15000 EUR Anschaffung
~5 EUR/Tag Betrieb (Strom, Internet) !

Geht vielleicht auch günstiger, aber bitte keine unendlichen Diskussionen mit "Ich habe aber die Seagate xx Archive SMR auf Geizhals.at für billiger gesehen". Ich rechne mit "Industrial-Grade" Hardware, die auch 24/7 laufen kann, PMR Platten, red. Netzteilen etc.



So. Der "Request for Comment" ist, weil sicher noch einige Fragen offen sind, bzw. ich sicher nicht alles in der Pro/Contra Sektion abgehandelt habe. Also her mit dem Feedback.
Jump to: