Pages:
Author

Topic: Difficulty gestiegen am 09.02 auf 44.455.415.962 / + 7.71% -Chart USD/Hash Rate - page 10. (Read 27805 times)

newbie
Activity: 38
Merit: 0
Also ergibt sich in Zukunft die Frage, ob die Anzahl der Menschen, die sich Mining Hardware kaufen können und wollen größer oder kleiner wird.

Es werden weniger, der Preis sinkt, also verlassen die Ratten das Boot, je weniger der Preis desto weniger Attraktivität das ganze.
newbie
Activity: 42
Merit: 0

Einnahmen der Miner
Dieser Chart zeigt die (Anzahl der geminten Bitcoins pro Tag + Transaktionsgebühren) * Marktpreis

http://blockchain.info/de/charts/miners-revenue

Durchschnittliche Dauer der Transaktions-Bestätigung
Die durchschnittlich benötigte Dauer für die Übernahme von Transaktionen in einen Block.

http://blockchain.info/de/charts/avg-confirmation-time

Miner wollen doch auch Geld verdienen, also wird die Frage nicht sein wie hoch ist der  "Difficulty", sondern einfach was kann man verdienen.

Danach wird sich auch die Hardwareentwicklung richtet.

Also ergibt sich in Zukunft die Frage, ob die Anzahl der Menschen, die sich Mining Hardware kaufen können und wollen größer oder kleiner wird.




legendary
Activity: 1106
Merit: 1001
Testläufe von Bitsyncom d.h. die Hashrate kommt wieder Wink
hero member
Activity: 652
Merit: 500
Kann mir einer sagen was der doch recht starke Abfall der Hash zu sagen hat? 25 TH ist ja nicht gerade wenig.

http://blockchain.info/de/charts/hash-rate

Zu heiß für die Miner auf der Welt oder wie würde eine DDoS eigentlich aussehen?

@ Schrankwand

Ich wollte nur mal das geschätzte Verhältnis darstellen. Weiter vorher ging s um die evtl. Auswirkungen.
sr. member
Activity: 406
Merit: 250
Ich würde sagen das ist Ansichtssache. Für deine Meinung gibt es sicherlich auch Anhaltspunkte, aber im Endeffekt ist es auch nur eine Vermutung deinerseits. Genauso wie ich etwas anderes vermute. Wirklich fundiert beweisen können wir weder das eine noch das andere.

ICH gehe wie gesagt nicht davon aus das die meißten GPU&FPGAler mittlerweile auch Asic Besitzer sind. Dafür sind meiner Meinung nach noch viel zu wenige davon ausgeliefert.

full member
Activity: 224
Merit: 100
Quote
Würde dem im groben zustimmen, ich hätte den Bereich eventuell noch ein klein wenig weiter nach oben geschoben weil ich denke das FPGAs noch nen etwas größeren Anteil einnehmen, aber im Endeffekt ist das ja auch nicht wirklich wichtig ob es nun 20-30 oder 25-35% sind. Die Kernaussage ist ja quasi das die Anzahl der Personen die diese Leistung stellen wesentlich höher ist als die Anzahl der Personen die den Rest der Leistung stellen. Das würde bedeuten das man eine Aussage treffen könnte wie: Die Leistung der GPU & FPGA Leute entspricht dem doppelten der Kaufkraft der restlichen Leistung.

Warum trennst du diese Leute?

Die meisten Leute, die Avalon ASICs gekauft haben, werden wohl auch schon mit GPU und FPGA dabei gewesen sein. Vor BFL Marketing war es wohl eher selten, dass Leute gesagt haben "Hey geil, ich kaufe einen Bitcoin Miner."
sr. member
Activity: 406
Merit: 250
Nehmen wir mal an 50% der Leistung des Netzes werden durch GPU Leute und andere "kleine" erzeugt. Die fallen dann jetzt alle nach und nach raus, weil es einfach nicht mehr geht unter normalen Umständen mit ner GPU zu minen.

Irgendwann werden die GPU-Miner mal 50% der Netzwerkhashrate stellen, aber ob dem noch so ist oder dieser Zeitpunkt nicht schon in der Vergangenheit liegt  ist die spannende Frage. Es sind ja doch auch etliche 100 GHash durch FPGAs erzeugt worden die nach wie vor profitabel arbeiten da die Anschaffungskosten bereits 'drin' sind. Guck Dir doch mal an zu welchen Zeitpunkt  klaus seinen Kawooom Thread gestartet hat, ich glaube nicht das danach noch nenneswert GPUs dazugekommen sind.

Meiner Meinung nach ist die Aufteilung wie folgt:



Dabei habe ich schon großzügig für GPU miner die Einteilung erstellt. Mit Beginn der enormen Schwankungen rechne ich das den ASIC´s zu. Die Nachzügler für GPU welche da noch kamen sind zu vernachlässigen. Zu diesem Zeitpunkt kamen die 65 GH Avalon so langsam auf den Markt. Der Durchschnitt aller GPU´lern sollte wohl gerade einmal 500 MHs pro Kopf erreichen. Darin auch tausende Leute die gerade mal mit einer Karte und 250-300 MHs minen. Würde ein Verhältnis mit Eintritt der Asic´s von 1:130 pro Kopf (0,5 GH:65 GH) ergeben.



Würde dem im groben zustimmen, ich hätte den Bereich eventuell noch ein klein wenig weiter nach oben geschoben weil ich denke das FPGAs noch nen etwas größeren Anteil einnehmen, aber im Endeffekt ist das ja auch nicht wirklich wichtig ob es nun 20-30 oder 25-35% sind. Die Kernaussage ist ja quasi das die Anzahl der Personen die diese Leistung stellen wesentlich höher ist als die Anzahl der Personen die den Rest der Leistung stellen. Das würde bedeuten das man eine Aussage treffen könnte wie: Die Leistung der GPU & FPGA Leute entspricht dem doppelten der Kaufkraft der restlichen Leistung.
Das ist jetzt natürlich nur grob über den Daumen gepeilt und nicht der Weisheit letzter schluss, aber es ist denke ich klar was gemeint ist und was das für Auswirkungen haben kann wenn diese enorm große Anzahl an Leuten wegfällt weil es sich für sie nicht mehr "lohnt".
legendary
Activity: 804
Merit: 1002
Naja, hab mir das grade mal angeschaut, aber so wird das nichts. Es wird nicht die nonce an sich erweitert sondern extranoncen eingebaut. ich bezweifle dass man das in einen satsolver einbauen kann ohne dass dadurch die rechendauer extrem gesteigert wird. timestamp in den suchraum mitzunehmen auch nicht, da das wie eine zweite variable gehandhabt werden müsste, dafür sind satsolver nicht ausgelegt und wenn man es anders machen würde müsste man nicht nur die nonce berechnen sondern den string von timestamp über target mit nonce. dass sind spielereien die man später testen müsste Tongue
legendary
Activity: 804
Merit: 1002
Okay, wusste ich nicht. Stratum seh ich mir grade an. Aber selbst damit wirst du nicht jedes mal eine nonce finden können. Und die Berechnung dauert länger. Man müsste erstmal das Programm haben und dann wegen Optimierung schauen. Ich kauf mir ja auch keine NOX Einspritzung ohne nen Sportwagen zu haben.
legendary
Activity: 1270
Merit: 1000
genau. allerdings bringt es nicht eine längere nonce als 32bit zu finden, da die nonce meines wissens auf 32 bit beschränkt ist und somit nicht akzeptiert werden würde. und falls doch wird sie mit sicherheit spätestens mit dem ersten satminer auf 32 bit beschränkt werden.

Es gab doch in der Vergangenheit schon einen Rollntimes Mechanismus um die getwork-rate für besonders schnelle Miner zu senken: Quasi wurde der 32 Bit nonce  um eine paar Bits erweitert. Sollte man  problemlos als SAT-formulieren können ebenso wie den Stratum-Suchraum.

Der Input besteht meines Wissens aus Coinbase, Zeitstempel + nonce und mindestens  den Zeitstempel sollte man für ein paar Sekunden  mit in den Suchraum packen können. Es wird wohl niemand  der einen funktionstüchtigen SATminer hat klassisch in Pools minen.

Maximal per Stratumprotokoll und mit manipulierterter Zieldifficulty leicht unter der aktuellen Difficulty könnte man bei PPS noch ein bischen klauen ohne die Difficulty hochzutreiben aber die Pooloperatoren  dürften sowas recht schnell merken.
hero member
Activity: 652
Merit: 500
Bin bei mir an der uni grade dabei ein projekt dazu zu starten, kannst uns gerne dabei untersützen Wink

Sag einfach bescheid was zu tun ist und es geht los.
legendary
Activity: 804
Merit: 1002
Du kannst führende nullen ignorieren. mehr diff=mehr führende nullen=leichter zu berechnen.
sr. member
Activity: 540
Merit: 250
BestRate.org
Der Unterschied ist dass Gpu/Cpu mining dadurch effektiver wird dass die difficulty steigt.

Bitte einmal um Erklärung warum es effektiver wird mit GPU CPU zu minen mit steigender Diff, leuchtet mir nicht ein.
legendary
Activity: 804
Merit: 1002
Naja, das ganze ist ein wenig kompliziert. Du musst (extrem vereinfacht) theoretisch einen vorhandenen miner nehmen, den header auslesen und in einen c/c++ code einlesen der die hashfunktion so beschreibt  dass angenommen wird es gäbe keine nonce die den wert unter target bringt. der code wird dann in dimac umgewandelt und von einem vorhandenen satsolver auf ausführbarkeit geprüft. falls es eine gültige nonce gibt löst diese einen programmstopp aus und kann theoretisch ausgelesen werden. die nonce muss dann wieder in den miner eingegeben werden der sie dann weitergibt.
Das klingt ganz kompliziert, ist aber nur der einfache teil. du musst das ganze so programmieren dass, falls keine gültige nonce gefunden wird der header neu eingelesen wird, das gleiche bei blockfund durch eine andere node.

Bin bei mir an der uni grade dabei ein projekt dazu zu starten, kannst uns gerne dabei untersützen Wink
hero member
Activity: 652
Merit: 500
Was oder wie muss man machen/ müsste man ran gehen um dieses Satsolving voran zu bringen?
legendary
Activity: 804
Merit: 1002
genau. allerdings bringt es nicht eine längere nonce als 32bit zu finden, da die nonce meines wissens auf 32 bit beschränkt ist und somit nicht akzeptiert werden würde. und falls doch wird sie mit sicherheit spätestens mit dem ersten satminer auf 32 bit beschränkt werden.
legendary
Activity: 1270
Merit: 1000
Der Punkt ist der: Satsolving testet ja  nicht unbeding nur sequentiell 32 Bit Nonce Räume durch sondern kann den Suchrauf pro Valid nonce aufweiten, etwa auf den vollen Wertebereich eines einzelnen Stratum-Aufrufs. Da steigt der Aufwand zwar auch, aber vermutlich weit weniger stark an als beim Durchprobieren. Man vergleiche die Werte für 1000 NONCEwerte und 10000 NONCE Werte in der Arbeit Jonathan Heusser: 10 fach größere Suchraum und nur  doppelte Laufzeit.

Also vermutlutlich irgendwie logarithmisches Aufwandswachstum beim satsolving  vs. linear wachsender Aufwand beim Durchprobieren. Wobei eine Einschränkung des Zielsuchraums durch 'mehr Nullen' in der Zielschwierigkeit ebenfalls aufwandssenkend wirkt.
legendary
Activity: 804
Merit: 1002
Das stimmt so allerdings auch nicht. Nicht jeder Noncendurchlauf bringt eine valid nonce. das ist mit einem satsolver auch nicht anders. Der Unterschied ist dass Gpu/Cpu mining dadurch effektiver wird dass die difficulty steigt.
legendary
Activity: 1270
Merit: 1000
Aber erst, wenn in SHA256(SHA256()) ein entsprechender Schwachpunkt gefunden wird, also der Algorithmus geknackt wurde.

Nö, da musst Du keinen Schwachpunkt finden, das einzige 'Problem' dürfte darin bestehen eine optimale Kombination aus Formel und dazu passendem (spezialisiertem)Solver zu finden. Wenn das Problem gelöst ist und der Solver  schneller ist als die durchschnittliche Zeit von 10 Minuten pro Block hast Du eine permanente Steigerung der Difficulty 'for free'. Und vermutlich ist das das Ende des Bitcoins wie wir ihn kennen.

hero member
Activity: 652
Merit: 500
Nehmen wir mal an 50% der Leistung des Netzes werden durch GPU Leute und andere "kleine" erzeugt. Die fallen dann jetzt alle nach und nach raus, weil es einfach nicht mehr geht unter normalen Umständen mit ner GPU zu minen.

Irgendwann werden die GPU-Miner mal 50% der Netzwerkhashrate stellen, aber ob dem noch so ist oder dieser Zeitpunkt nicht schon in der Vergangenheit liegt  ist die spannende Frage. Es sind ja doch auch etliche 100 GHash durch FPGAs erzeugt worden die nach wie vor profitabel arbeiten da die Anschaffungskosten bereits 'drin' sind. Guck Dir doch mal an zu welchen Zeitpunkt  klaus seinen Kawooom Thread gestartet hat, ich glaube nicht das danach noch nenneswert GPUs dazugekommen sind.

Meiner Meinung nach ist die Aufteilung wie folgt:



Dabei habe ich schon großzügig für GPU miner die Einteilung erstellt. Mit Beginn der enormen Schwankungen rechne ich das den ASIC´s zu. Die Nachzügler für GPU welche da noch kamen sind zu vernachlässigen. Zu diesem Zeitpunkt kamen die 65 GH Avalon so langsam auf den Markt. Der Durchschnitt aller GPU´lern sollte wohl gerade einmal 500 MHs pro Kopf erreichen. Darin auch tausende Leute die gerade mal mit einer Karte und 250-300 MHs minen. Würde ein Verhältnis mit Eintritt der Asic´s von 1:130 pro Kopf (0,5 GH:65 GH) ergeben.
Pages:
Jump to: