Pages:
Author

Topic: [ETH] Ethereum - мировой компьютер - page 96. (Read 1885798 times)

legendary
Activity: 1932
Merit: 4602
Buy on Amazon with Crypto
https://decrypt.co/resources/what-is-ethereum-2-0
https://decrypt.co/43188/ethereum-testnet-now-has-nearly-2-million-eth-staked

Важные моменты из статей (вольный перевод)

Как будет происходить обновление Ethereum 2.0?
После серии запусков тестовых сетей, Topaz , Medalla и Spadina , полное развертывание Ethereum 2.0 будет происходить в три фазы: фазы 0, 1 и 2 (разработчики предпочитают считать с нуля).
Фаза 0 нацелена на запуск в ноябре 2020 года , а остальные фазы будут развернуты в последующие годы.

Фаза 0 реализует запуск Beacon Chain;  который хранит и управляет реестром валидаторов, а также развертывает механизм консенсуса PОS для Ethereum 2.0.  Основная сеть на PoW алгоритме Ethereum 1.0 будет работать параллельно, так что нет никакого разрыва в непрерывности данных.

На фазе 1, запланированной на 2021 год, будут интегрированы шарды в алгоритм PОS. Ожидается, что сеть будет запущена с 64 шардами (что обеспечит в 64 раза большую пропускную способность, чем Ethereum 1.0), хотя при запуске не будет поддержки смарт-контрактов и новых аккаунтов Eth .

На фазе 1.5, промежуточном обновлении, которое должно выйти в 2021 году, основная сеть Ethereum 1.0 официально станет шардом сети Ethereum 2.0. Конец майнингу/POW алгоритму.

На фазе 2, запуск которой запланирован на 2021/22 год, шарды станут полностью функциональными и совместимыми со смарт-контрактами. Она также включает в себя добавление аккаунтов Eth,  переводы и снятия средств, реализацию переводов между шардами и поддержка смартконтрактов. Будет создана среда для масштабируемых приложений, построенных на основе Ethereum 2.0.

Простым пользователям фаза 0 и фаза 1 не принесет изменений. ETH 2.0 будет закрытым клубом до фазы 1.5. Но Виталик говорил что сложно запустить 1 шард, а потом обещал очень быструю скорость развертывания.


sr. member
Activity: 1204
Merit: 295
архивные ноды в эфире это совсем другой класс, они не просто требовательны к ресурсам как полные ноды, они чрезвычайно требовательно и должны просто даже дорогущие компьютеры, в то время как полный клиент более чем реально развернуть за день на мощных (по текущим меркам) домашних пк, или за несколько дней - неделю на средних или выше среднего.
PS Вложил долю сарказма когда писал что архивная нода это совсем другое и что нужно попробовать ее развернуть чтобы понять разницу, но увы не был правильно понят Sad
 Там просто всё на  самом деле, основное отличие обычной полной ноды от архивной в том что полная chaindata сжимает и тратит на это ресурсы чтоб экономить сторадж.По логике,нода архивная должна ресурсы экономить за счёт не сжатого хранения но сегодня получается что распаковка данных сожрёт в итоге больше и с ростом размера chaindata затраты на такое хранение "без сжатия" будут расти,если,конечно,вы не собираете собственный архив начиная с генезис-блока.
 Ну и там всякие плюшки вроде "быстрого доступа к событиям" но это уже другая история.
В принципе,развернуть архивные ноды можно относительно не дорого,для меня это исключительно вопрос мотивации.
 За этим просто нет нужного профита.
sr. member
Activity: 1232
Merit: 280
По первому пункту ок, согласен Smiley А вот со вторым вы явно неверно поняли: 1. полная нода это полноценная нода, к ней эфир требователен да, 2. архивная нода совсем другое, и если вы ее никогда не разворачивали и не пытались, то никогда не поймете разницу Wink
 Что именно я там не понял? Разве архивная нода ETH к железу менее требовательна чем полная? Любой полноценный клиент жрёт приличные ресурсы не зависимо от того как сжата chaindata.Если даже её совсем не сжимать жрать ресурсы всё равно будет прилично с дисковым пространством заодно а учитывая что архив ещё извлечь из сжатых данных нужно,сегодня это выйдет куда затратнее.
 Клиенты которые используют чужие ноды для работы уже не клиенты ETH,это сторонние сервисы но вот они,да,к ресурсам не требовательны.
То что там Виталик ставил целью сделать доступной работу клиентов на слабеньком "среднем потребительском" ноуте это чушь. Полноценный компонент сети ETH 2,3,5 да  хоть 100500 в таком ключе работать не сможет или проработает не долго.
Так в статье как раз все наглядно расписано. Я как-то пытался развернуть архивную ноду на не суперовом железе еще году в 16-17, понял что не дождусь этого вообще. И именно за эту разницу между полной и архивной нодами я и написал в ответ на это
Quote
Эфир к железу всегда требователен был и по логике всегда таким будет если речь идёт о полноценных клиентах...
, архивные ноды в эфире это совсем другой класс, они не просто требовательны к ресурсам как полные ноды, они чрезвычайно требовательно и должны просто даже дорогущие компьютеры, в то время как полный клиент более чем реально развернуть за день на мощных (по текущим меркам) домашних пк, или за несколько дней - неделю на средних или выше среднего.
PS Вложил долю сарказма когда писал что архивная нода это совсем другое и что нужно попробовать ее развернуть чтобы понять разницу, но увы не был правильно понят Sad
hero member
Activity: 1204
Merit: 501
Radix-The Decentralized Finance Protocol
От падения крипты эфир прям разгрузился. 50-70 гвей когда еще так было)) Лафа
Ага, наконец то вылился "ушат холодной воды" на головы всем этим доходным фермерам, а то уже реально с депозитом меньше 10к даже обмен на дексе гораздо дороже чем на централизованных биржах.
Дефи щас на дне почти все кто предлагал по 1000% прибыли. Интересно ликвидации были кто брал заемы
sr. member
Activity: 1204
Merit: 295
По первому пункту ок, согласен Smiley А вот со вторым вы явно неверно поняли: 1. полная нода это полноценная нода, к ней эфир требователен да, 2. архивная нода совсем другое, и если вы ее никогда не разворачивали и не пытались, то никогда не поймете разницу Wink
 Что именно я там не понял? Разве архивная нода ETH к железу менее требовательна чем полная? Любой полноценный клиент жрёт приличные ресурсы не зависимо от того как сжата chaindata.Если даже её совсем не сжимать жрать ресурсы всё равно будет прилично с дисковым пространством заодно а учитывая что архив ещё извлечь из сжатых данных нужно,сегодня это выйдет куда затратнее.
 Клиенты которые используют чужие ноды для работы уже не клиенты ETH,это сторонние сервисы но вот они,да,к ресурсам не требовательны.
То что там Виталик ставил целью сделать доступной работу клиентов на слабеньком "среднем потребительском" ноуте это чушь. Полноценный компонент сети ETH 2,3,5 да  хоть 100500 в таком ключе работать не сможет или проработает не долго.
sr. member
Activity: 1232
Merit: 280
A-Bolt тоже прав, пруф для вас - https://etherscan.io/chartsync/chaindefault

 Мне "пруфы" ни к чему ведь я и не писал что он "не прав".
Другое дело что писать про "размер chaindata" мультиклиентской сети в принципе не корректно, стоит учитывать версию клиента и его тип синхронизации иначе выходит как заявить что "у автомобилей четыре колеса".

Еще добавлю, что архивный вариант относительно легко делается из полной ноды, но относительно легко будет только при суперовом железе)

 Эфир к железу всегда требователен был и по логике всегда таким будет если речь идёт о полноценных клиентах...

По первому пункту ок, согласен Smiley А вот со вторым вы явно неверно поняли: 1. полная нода это полноценная нода, к ней эфир требователен да, 2. архивная нода совсем другое, и если вы ее никогда не разворачивали и не пытались, то никогда не поймете разницу Wink
sr. member
Activity: 1470
Merit: 297
only bitcoin only hardcore!
От падения крипты эфир прям разгрузился. 50-70 гвей когда еще так было)) Лафа
Ага, наконец то вылился "ушат холодной воды" на головы всем этим доходным фермерам, а то уже реально с депозитом меньше 10к даже обмен на дексе гораздо дороже чем на централизованных биржах.
sr. member
Activity: 1204
Merit: 295
Сегодня SSD конечно на уровень выше, ничего не скажешь, хотя момент надежности хранения здесь не однозначен.
В вашем случае безгеморной потоковой записи камер в HD качестве видимо сыграл тот факт, что софт именно заточен под такую многопоточность.
Просто нет задачи быстро читать/писать мелкие файлы разбросанные по разметке дисков вот и справляется,хотя софт там как раз "думает" что работает с локальным диском 60TB )))
 Надёжность SSD вопрос решаемый ровно так же через RAID.
Вы же прекрасно понимаете что раньше 200 байт в .com файле делали больше полезной работы, к тому же быстрее и без ошибок потому как были писаны на asm, чем эти мегатонны избыточного кода из под пера новых сеньоров помидоров Smiley
"Раньше" всего железа было на пальцах посчитать. Сегодня под каждую конфигурацию отдельно писать устанешь да и софт "под конкретное железо" популярность вряд ли найдёт если конечно вы не продаёте "своё железо вместе с софтом" по всему миру в масштабах Самсунга или Яблока Wink
 Хотя... Попытки перехода рабочих станций на RISCоподобные архитектуры в принципе могут вернуть актуальность таких решений в эту нишу когда-нибудь.
hero member
Activity: 1204
Merit: 501
Radix-The Decentralized Finance Protocol
От падения крипты эфир прям разгрузился. 50-70 гвей когда еще так было)) Лафа
legendary
Activity: 2016
Merit: 1118
Разве SCSI под RAID не тянуло?
Синхронизированный RAID 6 массив по SCSI не тянул.
Geth у меня тогда затыкался с синхронизацией,пробовал подсунуть ему готовую папку chaindata помню,тоже не помогало,я поставил 2TB SSD под ноду и забил на сетевое хранение.
 Хотя та же Cayuga у меня через SCSI пишет без проблем несколько десятков камер в 1080р без лицензии на сеть.Сам удивился.

Сегодня SSD конечно на уровень выше, ничего не скажешь, хотя момент надежности хранения здесь не однозначен.
В вашем случае безгеморной потоковой записи камер в HD качестве видимо сыграл тот факт, что софт именно заточен под такую многопоточность. Вы же прекрасно понимаете что раньше 200 байт в .com файле делали больше полезной работы, к тому же быстрее и без ошибок потому как были писаны на asm, чем эти мегатонны избыточного кода из под пера новых сеньоров помидоров Smiley
sr. member
Activity: 1204
Merit: 295
Разве SCSI под RAID не тянуло?
Синхронизированный RAID 6 массив по SCSI не тянул.
Geth у меня тогда затыкался с синхронизацией,пробовал подсунуть ему готовую папку chaindata помню,тоже не помогало,я поставил 2TB SSD под ноду и забил на сетевое хранение.
 Хотя та же Cayuga у меня через SCSI пишет без проблем несколько десятков камер в 1080р без лицензии на сеть.Сам удивился.
legendary
Activity: 2016
Merit: 1118
Всегда было интересно почему такая требовательность полных нод эфириума да и того же биткоина к железу.
Просто множественная запись/чтение мелких файлов разбросанных по разметке диска вешает даже самые быстрые HDD диски ведь их магнитные головки не могут одновременно в разных позициях быть, работа с архивами и кэшем жрёт ресурсы проца. Большие размеры растущего chaindata требуют широкого канала для нормальной синхронизации.
 Биткоин ноды в 2014-15 нормально даже на малинках работали а эфиру с генезиса на HDD тяжко было. Сетевые хранилища у меня через SCSI работать вообще не захотели когда пробовал в 15м году.
 Это нормальное поведение для подобных задач.

Разве SCSI под RAID не тянуло?
sr. member
Activity: 1204
Merit: 295
Всегда было интересно почему такая требовательность полных нод эфириума да и того же биткоина к железу.
Просто множественная запись/чтение мелких файлов разбросанных по разметке диска вешает даже самые быстрые HDD диски ведь их магнитные головки не могут одновременно в разных позициях быть, работа с архивами и кэшем жрёт ресурсы проца. Большие размеры растущего chaindata требуют широкого канала для нормальной синхронизации.
 Биткоин ноды в 2014-15 нормально даже на малинках работали а эфиру с генезиса на HDD тяжко было. Сетевые хранилища у меня через SCSI работать вообще не захотели когда пробовал в 15м году.
 Это нормальное поведение для подобных задач.
legendary
Activity: 2044
Merit: 1231
Эфир к железу всегда требователен был и по логике всегда таким будет если речь идёт о полноценных клиентах...
Всегда было интересно почему такая требовательность полных нод эфириума да и того же биткоина к железу. Понимаю что при синхронизации на компьютер донор закачиваются блоки информации. В чем проблема для современного компьютера получить объем информации и записать его на HDD или SDD? Через пиринговые сети типа торрент это происходит довольно легко. В процессе записи локальной базы она подвергается тяжело обсчитываемой дополнительной валидацией? Или идет построение дополнительных индексов?

скажу за Кору. На ХДД при синхронизации жутко тормозала последний год, перевёл на ССД самый скростной, какой нашёл в магазинах РФ, всё было ОК. Недавно поставил новую версию Коры 0.20.0, такие же тормоза пошли, как были на ХДД. Тормозит именно диск, проц и на 10% не загружен. Всё железо мощное. Это вопрос к программистам. Сам характер тормозов сказывается только на Коре, её UI, остальное на компе работает нормально. А вот на слабом железе тормозить всё начинает, в том числе проводник.
legendary
Activity: 2674
Merit: 1138
Через пиринговые сети типа торрент это происходит довольно легко. В процессе записи локальной базы она подвергается тяжело обсчитываемой дополнительной валидацией? Или идет построение дополнительных индексов?

Во первых забудь про хдд, ты просто задолбаешся ждать неделю и больше
Да скачиваешь блокчейн на ссд, а дальше импортируешь. Проверяется КАЖДЫЙ блок нодой (при обычном импорте), и потом досинхронизируешь остаток (тоже проверка каждого блока)
Ну про HDD образно написал, был уже подобный долгий опыт закачки Bitcoin Core. То есть если я вас правильно понял, сначала загружается массив данных, а потом блок за блоком, привет блокчейн Wink, происходит проверка и окончательная запись данных. Понимаю так устроено для избежания записи битых или ошибочных данных.
member
Activity: 644
Merit: 51
Через пиринговые сети типа торрент это происходит довольно легко. В процессе записи локальной базы она подвергается тяжело обсчитываемой дополнительной валидацией? Или идет построение дополнительных индексов?

Во первых забудь про хдд, ты просто задолбаешся ждать неделю и больше
Да скачиваешь блокчейн на ссд, а дальше импортируешь. Проверяется КАЖДЫЙ блок нодой (при обычном импорте), и потом досинхронизируешь остаток (тоже проверка каждого блока)
legendary
Activity: 2674
Merit: 1138
Эфир к железу всегда требователен был и по логике всегда таким будет если речь идёт о полноценных клиентах...
Всегда было интересно почему такая требовательность полных нод эфириума да и того же биткоина к железу. Понимаю что при синхронизации на компьютер донор закачиваются блоки информации. В чем проблема для современного компьютера получить объем информации и записать его на HDD или SDD? Через пиринговые сети типа торрент это происходит довольно легко. В процессе записи локальной базы она подвергается тяжело обсчитываемой дополнительной валидацией? Или идет построение дополнительных индексов?
sr. member
Activity: 432
Merit: 250
Radix-The Decentralized Finance Protocol
Майнеры Эфириума за день заработали на комиссиях рекордные 42 763 ETH

Майнеры Эфириума 17 сентября заработали на комиссиях 42 763 ETH, эквивалентные $16 млн по текущему курсу, в связи ростом числа транзакций на фоне бума приложений DeFi.

Это связано с тем, что дневной объем транзакций в сети вырос до 1.4 млн, что также побило предыдущий рекорд в 1.34 млн, достигнутый в январе 2018 года. Рост числа транзакций, размера комиссий и доходов майнеров связан с бумом индустрии DeFi. C 1 по 17 сентября 2020 года объемы торгов на децентрализованных биржах (DEX) достигли $15 млрд, и это заметно больше, чем за весь август.



Подробнее: https://bits.media/maynery-efiriuma-za-den-zarabotali-na-komissiyakh-rekordnye-42-763-eth/
Красивый график. Представляете сколько гвеев будет через месяц-другой или через несколько месяцев Grin Проводите транзы пока это дешево )))

Сначала прочитал: Представляете сколько геев будет через месяц-другой.
Много думал.
Это реально дексы убивает которым надо заводить токены потом торговать и выводить. Это дико дорого
sr. member
Activity: 1204
Merit: 295
A-Bolt тоже прав, пруф для вас - https://etherscan.io/chartsync/chaindefault

 Мне "пруфы" ни к чему ведь я и не писал что он "не прав".
Другое дело что писать про "размер chaindata" мультиклиентской сети в принципе не корректно, стоит учитывать версию клиента и его тип синхронизации иначе выходит как заявить что "у автомобилей четыре колеса".

Еще добавлю, что архивный вариант относительно легко делается из полной ноды, но относительно легко будет только при суперовом железе)

 Эфир к железу всегда требователен был и по логике всегда таким будет если речь идёт о полноценных клиентах...
sr. member
Activity: 1232
Merit: 280
Блокчейн Эфириума имеет размер более пяти терабайт
и ускоренно растет с увеличением размера блока
Smiley
Блокчейн Эфира занимает 300 ГБ.

5 ТБ может занимать разве что архив, который используется специализированными сервисами, например, эксплорерами. Обычным бизнес-пользователям архив не нужен.  

 Это игра такая "угадай размер chaindata"?  
Надо Ярёме голосовалку сделать  Grin

 Geth/v1.9.9-stable-01744997/windows-amd64/go1.13.4
 498 GB (535,178,653,058 bytes)


A-Bolt тоже прав, пруф для вас - https://etherscan.io/chartsync/chaindefault

Еще добавлю, что архивный вариант относительно легко делается из полной ноды, но относительно легко будет только при суперовом железе)
Pages:
Jump to: