Non esistono algoritmi "anti asic". Se si puo' fare con una cpu/gpu, si puo' fare anche con un asic.. (ricordo che qualsiasi controllore (cpu/gpu/etc) _e'_ un asic )
Non diciamo tali inesattezze, un ASIC (che vuol dire application specific integrated circuit) non centra un bel nulla con una CPU o una GPU. L'asic è un circuito elettronico che realizza una precisa funzione, quella, solo quella e sempre quella. Le CPU sono sistemi programmabili che eseguono del codice (e in alcuni casi a più livelli, dove le operazioni sono realizzate tramite del microcodice), siamo al livello di astrazione completamente diverso. Al massimo puoi vedere dei pezzi di CPU come degli asic.
E' vero invece che per qualsiasi algoritmo eseguibile da una CPU si può realizzare un ASIC specifico, il punto è se ha senso farlo. Gli algoritmi anti asic spingono su questo punto. In particolare gli asic per mining ottengono il grosso del loro vantaggio potendo sfruttare un elevato grado di parallelismo, essendo circuiti semplici se ne mettono molti che lavorano contemporaneamente. Un algoritmo anti asic semplicemente è strutturato in modo da limitare molto il grado di parallelismo, il modo più semplice di farlo (ma non l'unico) è giocare sulla quantità di memoria necessaria al calcolo. Il problema è che anche le GPU si avantaggiano della parallelizzazione dell'algoritmo (ma lo fanno in modo diverso dagli asic), se si vuole veramente tagliare fuori gli asic si finisce per rendere una GPU equivalente ad una CPU.
Non vedo alcuna inesattezza. La mia era una sintesi delle millemila righe che tu hai scritto. Cpu/gpu di fatto sono asic, come ho scritto. Poi che interpretino un instruction set (piuttosto che cercare il nonce) é solo la conseguenza del codice implementato in hardware dal chip.