Если алгоритм не требует каких-то особенностей
А если требует?
Давайте разберемся с терминами, которые я употребляю в своем доказательстве существования такого алгоритма, я же пишу:
ASIC - микросхема которая умеет вычислять только хэши (на несколько порядков быстрее CPU/GPU)
CPU - универсальный процессор, способный выполнять любую Тьюринг полную программу
И сразу делаю вывод, пусть алгоритм будет требовать от оборудования способности выполнения сложной задачи, которая посильна только процессору, например интерпретация.
Понятное дело, что можно сделать суперкомпьютер, под суперкомпьютером давайте будем понимать железку собранную на обычных процессорах, т.е. то что вы пишите:
Если майнинг на процессоре будет выгоден - то ставим 10 процессоров. На полученный профит
покупаем 100 процессоров. На полученный профит ставим задачу китайцам, чтоб они сделали
специализированный процессор под эту задачу. В результате имеем асик. Что и требовалось доказать.
И это абсолютно верно, за исключением терминологии. Смотрим в википедии: ASIC (аббревиатура от англ. application-specific integrated circuit, «интегральная схема специального назначения»)
А у вас будет суперкомпьютер...
Если существующие видеокарты не подходят под выполнение вашего алгоритма - то
либо вы какую-то хуйню придумали, которая на самом деле алгоритмом не является ни разу,
либо создание такой "видеокарты" - лишь вопрос времени.
Вот с видеокартами у меня засада, и я честно написал: "Отдельным вопросом стоит GPU - можно ли на нем написать интерпретатор?"
В примерах по программированию GPU приводятся простые матричные умножения, а также известно что GPU очень не любят условные переходы. В свою очередь я не нашел примеров создания интерпретаторов на GPU, все это хорошо, но недостаточно для того чтобы сделать выводы. Тем более, что они постоянно развиваются...
По GPU хотелось бы коллективного обсуждения с людьми у которых есть опыт программирования. Уверен, что есть засады в программировании и если их применить, то в обозримом будущем (например 5 лет) задачи майнинга на ГПУ тоже будут невозможны.
Например общеизвестный прием это использование большого количества памяти при расчете красивых хэшей. Так чтобы памяти не хватило для каждого универсального процессора.
Подсчитаем, сейчас в яндекс маркете самая топовая карта это: NVIDIA QUADRO GP100, она имеет 16Гб памяти и 3584 процессоров, т.е. на один процессор 4,5 МБайта. Если мы будем требовать для алгоритма 100 Мб памяти, то 20 раз ослабим мощность карты (т.к. не все процессоры смогут работать из-за нехватки памяти), а если 200 Мб, то в 40 раз и так далее.
Но это все это не строгие размышления....
Дело скорее в социальных поведенческих механизмах людей, при которых они всегда найдут способ объединиться в кучу. Потому, что как было сказано в легендарном фильме Семь Самураев: "Коллектив побеждает, одиночка - гибнет".
А мы криптоанархисты или кто, что нам стоит придумать нужный алгоритм?