Author

Topic: TPS Skalierbarkeit nur von Festplattengroesse abhängig? (Read 105 times)

member
Activity: 81
Merit: 24
Wow, ich danke euch und habe wieder viel gelernt!

Gibt es gute deutsche bitcoin Theoretiker bei Twitter und Co? Hosp ist nichts für mich und der blocktrainer noch recht neu für mich.

Habt ihr hier Empfehlungen?
legendary
Activity: 2909
Merit: 1307

2nd layer wäre lightning oder gäbe es noch eine andere Alternative?


Börsen und andere Anbieter untereinader können auch Liquid als second Layer nutzen.
Das entlastet dann auch die On-chain transaktionen.

(puh da kommt man jetzt aber in die Diskussion ob es second layer oder sidechain zu benennen ist)



legendary
Activity: 1624
Merit: 2481
2nd layer wäre lightning oder gäbe es noch eine andere Alternative?

Am vielversprechendsten sind momentan tatsächlich die Hashed Timelocked Contracts (HTLC), wovon das Lightning Network die bekannteste Implementierung ist.

On-Chain ist natürlich auch immer eine Alternative. SegWit ist dafür ja ein schönes Beispiel.
Aber eleganter und effizienter wird wohl immer ein 2nd Layer sein.
legendary
Activity: 2912
Merit: 2066
Cashback 15%
Das heißt die Hardware ist "schuld"? Gibt es coins die das tps Problem ohne größere blocksize lösen können?

Es gibt einige DAG-basierte coins die allerdings vom Konsens-Mechanismus her meiner Meinung nach relativ fragwürdig sind weil sie zumindest teilweise auf zentrale Schlichtungsstellen angewiesen sind. (dazu bin ich mir auch nicht 100% ob die Speicherung des DAGs selber skalierungstechnisch nicht sogar ähnliche Probleme aufweist, aber das wissen andere Leute besser). Beispiele hierfür wären IOTA, NANO und GBYTE.

Es gibt Coins die zwar eine klassische Blockchain verwenden, diese aber in Form des MimbleWimble-Protokolls per Cut-Through klein halten. Hier gibt's u.A. die Challenge das die Transaktionen selber mit der Zeit an Größe zunehmen. Beispiele hierfür wären GRIN und BEAM.

Sharding ist auch oft ein Thema (= das Aufteilen der Blockchain in Untersegmente die jeweils nur von einem Subset der Nodes gespeichert werden), aber bringt wiederum eigene Herausforderungen mit sich. Sharding wird u.A. für Ethereum 2.0 in Betracht gezogen.


2nd layer wäre lightning oder gäbe es noch eine andere Alternative?

Im Bezug auf TPS wäre 2nd Layer das Lightning Network, wobei es auch schon Ansätze gibt zwischen Lightning Network und der Bitcoin Blockchain ggf. einen weiteren Layer zu ziehen um nochmal besser zu skalieren (Channel Factories, allerdings weiß ich nicht was hier der aktuelle Status ist).

Es gibt auch noch andere 2nd Layer Protokolle wie Sidechains (Liquid, RSK) und Colored Coins (OMNI, XCP) aber da gehts mehr um Smart Contracts und Tokens als um Skalierung. Leider sind diese Projekte allerdings entweder noch ziemlich am Anfang oder am Ende.

Davon abgesehen tut sich auch am Basis-Layer etwas! Smiley Gegen Ende des Jahres sollte nämlich hoffentlich auch Taproot inkl. Schnorr-Signaturen aktiv werden was bereits On-Chain zu einer zumindest geringfügigen Verbesserung des Transaktionendurchsatzes führen sollte.
member
Activity: 81
Merit: 24
Danke euch, war sehr erhellend!

Das heißt die Hardware ist "schuld"? Gibt es coins die das tps Problem ohne größere blocksize lösen können?

2nd layer wäre lightning oder gäbe es noch eine andere Alternative?

legendary
Activity: 2912
Merit: 2066
Cashback 15%
Und das Gegenargument war zu sagen das so leider ganz viel Speicherplatz auch in Zukunft verbraucht werden würde so dass die Dezentralisierung da drunter leidet weil nur noch wenige Menschen diese große Größe der blockchain auf einer Festplatte zum handelsüblichen Preis unterbringen können? Ist es nicht so oder verstehe ich etwas falsch?

Nicht nur. In der Praxis spielt die Festplattenkapazität tatsächlich eher eine untergeordnete Rolle, wichtiger werden bei größeren Blockgrößen tatsächlich auch Bandbreite und teilweise sogar die Rechenleistung und der Arbeitsspeicher des jeweiligen Rechners auf dem der Node laufen soll:

the builders thread:
https://bitcointalksearch.org/topic/announcing-the-futurebit-apollo-btc-a-full-nodemining-platform-for-the-home-5314398

these cheap nodes that mine at a small profit can be in 10 thousand homes.

building a super node with 32mb blocks would mean using 8tb ssds in arrays

you would need more than 300mb internet speed.

I loaded a node/wallet on a thread ripper about 18 months ago

used a threadripper 3970 with 128gb ram

used 200mb internet and a 2tb nvme m.2 ssd

took 2 hours to synch it.

the time was 2 hours due to a 100mb switch I downloaded at a constant 80-90mb. it was about 300gb

but if we had a 32mb block thread it would be 16x the size
take 32 hours to download
and use 4.8tb

if it were a 96mb block
it takes 96 hours to download

and use 13.4tb

so that would mean at least two 8tb ssds in an array to give 16tb
maybe the 2000 usd threadripper the 3970 is good enough
maybe the 128gb ram is enough.

but I would need to have built a 9 k rig to do a node.


Es kann schon durchaus sein das es mit fortschreitender Technik früher oder später doch noch zu einer Vergrößerung der Blocksize kommt. Allerdings wäre dass dann ein mehr oder weniger irreversibles Upgrade weshalb hier eine sehr konservative Heransgehensweise durchaus Sinn macht. Dazu kommt dass der Transaktionsdurchsatz durch eine bloße Blocksize-Vergrößerung nur linear gesteigert werden kann, während Second-Layer Lösungen hier ohne Beeinträchtigung des Basis-Layers um einiges mehr herausholen können.
legendary
Activity: 1624
Merit: 2481
Und zwar gab es bch und bsv doch vor allem deswegen weil diese die Blockgröße erhöhen und dadurch mehr Transaktionen pro Sekunde erlauben, richtig?

Richtig.


Und das Gegenargument war zu sagen das so leider ganz viel Speicherplatz auch in Zukunft verbraucht werden würde so dass die Dezentralisierung da drunter leidet weil nur noch wenige Menschen diese große Größe der blockchain auf einer Festplatte zum handelsüblichen Preis unterbringen können? Ist es nicht so oder verstehe ich etwas falsch?

Das Haupt Gegenargument war so weit ich mich erinnere nicht der Speicherplatz (der ist ja mittlerweile fast kostenlos) sondern die benötigte Rechenleistung um neue Blöcke möglichst zeitnah bearbeiten zu können.
Insbesondere ginge es auch darum Abwärtskompatibilität beizubehalten.

Immerhin gab es dank SegWit eine "Vergrößerung" auf ~2-3 MB (wenn auch indirekt).
member
Activity: 333
Merit: 18
Hodler
Dann man aber auch die Rechenpower haben, die BC in ausreichend schneller Zeit zu durchsuchen. Man muss ja auch schauen, ob die Adresse auch so viel Bitcoins/Satoschis hat, um die Überweisung durchzuführen.
Wenn Bitcoin doch mal Zahlungsmittel werden sollte (was ich nicht mehr glaube), wird sich alles auf dem Second Layer abspielen.
member
Activity: 81
Merit: 24
Hallo,

Ich habe eine Verständnisfrage zu bitcoin.
Und zwar gab es bch und bsv doch vor allem deswegen weil diese die Blockgröße erhöhen und dadurch mehr Transaktionen pro Sekunde erlauben, richtig?

Und das Gegenargument war zu sagen das so leider ganz viel Speicherplatz auch in Zukunft verbraucht werden würde so dass die Dezentralisierung da drunter leidet weil nur noch wenige Menschen diese große Größe der blockchain auf einer Festplatte zum handelsüblichen Preis unterbringen können? Ist es nicht so oder verstehe ich etwas falsch?

Weil dann hätte man ja in dem Moment dieses Problem gelöst indem wir quasi fast unendlich Speicher für fast kein Geld bereitstellen können, richtig?

Würde das also beispielsweise die neuartige DNA Speichertechnologie ermöglichen, dann gäbe es doch keinen Grund mehr die Blockgröße von Bitcoin zu beschränken oder? Was sehe ich hier nicht?
Jump to: