Author

Topic: Почему FPGA быстро сдались на милость ASIC? (Read 934 times)

legendary
Activity: 1120
Merit: 1069
Себестоимость чипа 2$ при количестве миллионы, 10-20$ - сотни тысяч, 100-200$ - десятки тысяч...
Выпустить новую партию под новый алгоритм... не такая уж большая беда, сложнее собрать на апгрейд старые платы у народа и перепаять Smiley но все реально

p.s. только вот вероятность смены алгоритма на столько смехотворно мала, что производители железа в прогноз ее думаю даже не ставят, идет под графой риски
member
Activity: 76
Merit: 10
Согласен, что дорогие. Но ведь многоразовые. Как бы вот посчитать мощность в гигахешах для Virtex-6 LX365T, которая стоит где-то 1800$ за штучку.
legendary
Activity: 1334
Merit: 1004
TTM
Потому что FPGA очень дорогие
member
Activity: 76
Merit: 10
Вот гложут меня смутные сомнения. Зачем нужны ASIC с жесткой структурой под одну задачу?
Вот с GPU все понятно - основная задача - 3Д для игр и попутно числодробилка, довольно мощная и гибкая, алгоритм задается с помощью языка высокого уровня (opencl).
Далее в пищевой цепочке идут FPGA. На них можно загнать в вентили любую узкоспециализированную схему, которая будет быстро исполнять конкретную задачу.
В случае изменения задачи FPGA перешиваются на новый алгоритм (ограниченное кол-во раз), это не так быстро как компиляция opencl ядра, но достаточно быстро Smiley
Ну и наконец ASIC. Структура задается в процессе производства и не может быть изменена. За счет этого энергопотребление меньше, вычислительная мощность больше.
Однако, если нужно выполнить другую задачу или изменить старый алгоритм (в нем может быть концептуальная ошибка, которую никакой верилог не поймает) - ASIC идет в корзину. Как-то это не по нашенски Smiley
Вот и возникает вопрос - зачем все так ломанулись на ASIC. Разве FPGA полностью исчерпали свои возможности?
Ну не Spartan, так Virtex-6? Какой-нибудь VLX 365T разве сильно уступит тому, что понаваяли ASIC-о строители? И риск инвестиций в такой FPGA намного меньше, ведь такой вычислительный модуль можно будет приспособить и к другим задачам (особенно учитывая встроенный интерфейс DDR3 памяти).
Почему не пошил по этому пути?
Jump to: