Author

Topic: Hashrate der Hardware basiert auf..? (Read 1289 times)

legendary
Activity: 1778
Merit: 1070
April 24, 2013, 04:13:52 AM
#11
Es kann auch gut sein, dass, je groesser die Difficulty ist, desto besser ist die vorgeschlagene Methode.

Soweit ich das verstanden habe, hängt das mit den führenden 'Nullen' zusammen. sobald da eine 1 auftaucht
kann man dann den nächsten Versuch starten. Allerdings ist meine Vermutung das der Test zwar schneller durch ist, dafür aber mehr Anläufe nötig sind.

Was ich mich derzeit frage ist ob es 'was' bringt

a) statt dem Ansatz mit dem midstate einfach die zwei SHA256 hashes 'hintereinander' durchzurechnen und/oder
b) statt einem sequentiell abzuarbeitendem C-Programm eine Netzliste zu verwenden.



Die Frage mit der Anzahl der Anlaeufe waere beantwortbar wenn man verstehen wuerde wie das mit der Noncekodierung funktioniert.

Im Moment geht mir das noch nicht wirklich auf. So wie ich das oben beschrieben haben ist es nicht ganz richtig. Der Autor reserviert den Platz fuer 1000 Nonces in der Booleschen Formel (oder 10000 in einem anderen Beispiel) und dann beginnt der Solver diese zu fuellen. Zmdst verstehe ich jetzt warum der Solver auch UNSAT ausgeben kann (Fall (v)), naemlich wenn die 1000 Nonces nicht reichen.

Gruss,
cu

P.S.: kennst du ein Tutorial wo das Prinzip BTC-Mining relativ genau erklaert wird? Also "target" holen, zweimal Hashfunktion drauf ansetzen, Ergebniss pruefen, sowie wie die Difficulty bestimmt wird ... am besten erklaert an Code.
legendary
Activity: 1270
Merit: 1000
April 23, 2013, 05:24:46 PM
#10
Es kann auch gut sein, dass, je groesser die Difficulty ist, desto besser ist die vorgeschlagene Methode.

Soweit ich das verstanden habe, hängt das mit den führenden 'Nullen' zusammen. sobald da eine 1 auftaucht
kann man dann den nächsten Versuch starten. Allerdings ist meine Vermutung das der Test zwar schneller durch ist, dafür aber mehr Anläufe nötig sind.

Was ich mich derzeit frage ist ob es 'was' bringt

a) statt dem Ansatz mit dem midstate einfach die zwei SHA256 hashes 'hintereinander' durchzurechnen und/oder
b) statt einem sequentiell abzuarbeitendem C-Programm eine Netzliste zu verwenden.

legendary
Activity: 1778
Merit: 1070
April 23, 2013, 12:23:03 PM
#9
Nochmal: das ist nicht die nächste Generation von Minern!

Ich wuerde das so nicht stehen lassen. Ich habe noch ein bischen ueber das Paper nachgedacht. Und eigentlich ist es relativ simpel. Die vorgeschlagene Methode ist sozusagen "Mining in elegant".

Das worauf heute alle gucken, die GH/s, wuerde der Solver uebernehmen. Wenn ich das BTC-Prinzip richtig verstehe, so bekommen alle die gleiche Aufgaben, jeder versucht per Brute Force die Loesung zu berechnen (eine Schleifendurchlauf = 1 H) und der erste bekommt dann den Zuschlag.

Mit der in der Publikation genannten Methode wuerde die Schleife vom Solver uebernommen, d.h. solange der Solver keine Loesung gefunden hat und Teilbaeume des Suchbaums verwirft, solange beweist der Solver, dass Mengen (!) an Hashs nicht die Loesung sein koennen. Das kann die vorhandene Software nicht, die kann diese Aussage immer nur fuer den gerade gegebenen Hash treffen. Ein Miningalgorithmus wuerde dann wie folgt aussehen:
   (i) hole Aufgabe;
   (ii) erzeuge und schreibe die Constraints in eine Datei;
   (iii) starte den Solver mit Constraints als Input;
   (iv) wenn der Solver satisfiable ausgibt:
        (a) lese die Loesung ein;
        (b) erzeuge daraus das was man benoetigt um den Zuschlag zu bekommen und hole Zuschlag;
        (c) gehe zu (i);
   (v) wenn der Solver unsatisfiable ausgibt, hmm ... weiss noch nicht recht;
   (vi) wenn jmd anderes die Loesung findet:
        (a) stoppe Solver;
        (b) gehe zu (i);
Was die Publikation unter "non-deterministic" versteht, bedeutet, so glaube ich (bin mir aber nicht 100% sicher), dass die Loesung fuer die Nonce nicht eindeutig ist, es kann sehr viele Loesungen geben, die Nonce haengt dann einfach von der Implementierung des Solvers ab bzw. wenn man einen Zufallsgenerator benutzt um das Branching des Solvers zu bestimmen, eben von der Sequenz der Zufallszahlen.

Ich kann mich mit meiner Interpretation der Methoden aber auch irren ...

Es kann auch gut sein, dass, je groesser die Difficulty ist, desto besser ist die vorgeschlagene Methode. Ich habe die Erfahrung gemacht, dass, je constrainter ein Problem ist, desto schneller findet der Solver eine Loesung. Aber mit solchen Aussagen muss man vorsichtig sein, SAT ist nun mal sehr schwer zu loesen.

Wer Lust hat das mal zu implementieren, ich koennte den SAT-Teil uebernehmen.

Gruss,
cu
legendary
Activity: 1778
Merit: 1070
April 23, 2013, 10:14:15 AM
#8
Fuer die zweite Datei out_1k_sat.cnf braucht Cryptominisat 50s und reportet ein Variablenbelegung. Ich muss mir das Paper mal genauer zu Gemuete fuehren ... hab aber keine Ahnung von Kryptographie, arggghhhhh ... Minisat abgeschossen, dauert zu lang!
legendary
Activity: 1778
Merit: 1070
April 23, 2013, 10:09:29 AM
#7
Cryptominisat hat unsat reportet nach 53s. Geht also. Minisat roedelt immer noch.
legendary
Activity: 1778
Merit: 1070
April 23, 2013, 09:59:10 AM
#6
hmm ... bei mir konnte noch keiner der Solver die out_1k_unsat.cnf loesen, selbst minisat muss beissen.
legendary
Activity: 1778
Merit: 1070
April 23, 2013, 09:17:43 AM
#5
Das scheint der direkte Link zu sein:

http://jheusser.github.io/2013/02/03/satcoin.html

Bin noch am schmoekern.
legendary
Activity: 2618
Merit: 1007
April 23, 2013, 02:17:56 AM
#4
https://www.google.com/search?q=sat+solving+bitcoin

Nochmal: das ist nicht die nächste Generation von Minern!
full member
Activity: 156
Merit: 100
April 23, 2013, 12:18:59 AM
#3
Sukrim darf ich d3n link zum artikel ? LG Raphael
legendary
Activity: 2618
Merit: 1007
April 22, 2013, 03:28:34 PM
#2
Mining =  SHA256 von gewissen Werten berechnen.

Der Algorithmus ist nicht sehr speicherintensiv, man braucht eher XOR-Einheiten und Bitshifts wie bei vielen Kryptoalgorithmen. FPGAs und ASICs sind dann einfach nur daraufhin konfiguriert (FPGA) bzw. rein dafür gebaut (ASIC) genau einen bestimmten Algorithmus zu berechnen, man spart sich also SEHR viele zusätzlichen Aufwand, was die Berechnung schneller macht.

ASIC (also genau für diesen Zweck gebaute Chips) sollten erstmal das Ende der Fahnenstange sein, ich habe zwar einen interessanten Artikel über SAT-solvingalgorithmen zu Mining gelesen, das ist aber ein anderer Ansatz als der derzeitige Bruteforceansatz und würde nur bei einer Schwäche von SHA256 gut klappen, die wohl nicht besteht.
full member
Activity: 151
Merit: 100
April 22, 2013, 02:40:27 PM
#1
Hallo, gibt es irgendwo eine genaue Erläuterung aus was für Werten sich die Hashrate einer GPU(z.b Shader,Takt..) , FPGA, ASIC ergibt?
Auf was kommt es an, was macht den Asic soviel schneller als den FPGA/GPU?

Ist nach dem Asic Miner Schluss??

Jump to: