...warum machte eine (Radeon 6870 für 141.- EUR), ca. 300 Mhash/s und eine (Tesla M2050 für 2340.- EUR), nur ca. Mhash/s?
Warum wird von "Mhash" und nicht von FLOPS;( englisch für Gleitkommaoperationen pro Sekunde) gesprochen, wenn es um das Maß für die Leistungsfähigkeit von Prozessoren geht?
Hi,
Wie du schon sagst sind FLOPS eher Leistungswerte für Prozessoren. Bitcoin aber nutzt keine Gleitkommaoperationen sondern vereinfacht ausgedrückt nur SHA256 hash algorithmen, die mit integern arbeiten. Daher sind FLOPS weniger aussagekräftig bei Bitcoin. Mhash hat sich als allgemein gut zu vergleichende Geschwindigkeit angeboten. Mit abstrakten werten wäre das alles ein wenig komplizierter - aber so hat man einen einfachen Weg um seine Systeme vergleichen zu können.
Der Unterschied zwischen NVIDIA und AMD/ATI ist recht simpel erklärt: Nvidia kann einige wenige komplexe aufgaben parallel berechnen, ati viele simple. Für Spiele gleicht sich das aus, aber nicht für Berechnungen. Nvidia kann zwar auch bitcoins "berechnen" aber nunmal nicht so viele nebeneinander - während die "simpleren" ATIs viele kleinere Berechnungen durchführen und damit schneller sind (vereinfacht ausgedrückt).
Die CPU macht sequentiellen Aufgaben.
Eine GPU tut parallelisieren ...
Ich lese auch immer wieder: CPU--> GPU--> FPGA--> ASIC
Aber warum sind dann einzelne Grafikarten so unterschiedlich?
Vereinfacht gesagt:
eine CPU macht tausend andere Dinge neben Bitcoins berechnen und kann nur einige wenige Threads wirklich parallel ausrechnen, diese dafür umso schneller.
eine GPU kann sich schonmal vollständig auf das mining konzentrieren ist aber aufgrund ihrer Architektur nicht dafür gebaut - kann aber wesentlich mehr berechnungen parallel durchführen als eine CPU, jede einzelne dafür langsamer
ein FPGA ist ein Chip, der einzig für Bitcoins genutzt wird. Die ALgorithmen sind so auf den Chip abgestimmt, dass ein maximum an Effizienz erwartet werden kann. Wobei hier der effektivste Chip immernoch S6LX125 ist. Es gibt zwar alternativen (BFL Single) - aber deren Lebensdauer ist unbekannt.. Einzig der Preis im Vergleich zu High End Karten und die vergleichsweise begrenzte Verfügbarkeit haben FPGAs bisher daran gehindert den GPUs den Rang abzulaufen. Man beachte, dass ein einzelner FPGA bei 210Mh kaum 9W Strom benötigt.. eine entsprechende GPU das 10x
ASIC ist die wohl nächste Generation der Miner.. Ungeachtet der Werbeversprechen, die sowieso Unsinn sind, werden irgendwann ASICs existieren. Dieses sind Chips, die quasi um den Algorithmus herum gebaut werden. Also wie ein FPGA nur andersrum ;0)
Die Logikeinheiten eines ASICs sind dann dermaßen optimiert, dass ein maximum an Geschwindigkeit herauskommen kann. Das Problem mit ASICs sind die extremen Entwicklungs und Produktionskosten. Auch die Zukunftstauglichkeit ist so eine Sache. Software für CPU/GPU und auch FPGA lässt sich beliebig verändern - ein ASIC wäre unumprogrammierbar.
Fairerweise soll hier noch die HalbFPGAhalbASIC alternative genannt werden, die wahrscheinlicher kommt: "Hardcopy"s. Das sind FPGAs, die vom Hersteller als ASICs verkauft werden. Hierfür werden Chips ein wenig angepasst, so, dass Leistung und Stromaufnahme sich etwas verbessern. Diesen zwischenschritt kann man in Zukunft am ehesten erwarten.
Siehe oben. Eine CPU kann maximal (Anzahl Kerne) Optionen parallel berechnen, diese aber dafür sehr schnell. Eine GPU kann mal eben das tausendfache ein wenig langsamer berechnen - in der Summe ist dann aber die GPU schneller.
Xilinx ML605 development kit (375 Mhash/s)
X6500 Rev 2, Spartan-6 LX150-3FGG484C FPGAs (400 Mhash/s)
Wie würde man die Mhash/s eines
Copacobana-Rechners ausrechnen?
Naja, ich würde bei so einer Maschine Overhead wie interne kommunikation einfach ignorieren und Anzahl FPGA * Geschiwndigkeit pro FPGA als Maß nehmen. Sollte ungefähr hinkommen.