Author

Topic: RPCMiner - CUDA (Read 12477 times)

sr. member
Activity: 362
Merit: 250
June 14, 2011, 12:45:34 AM
#20
Советую отказаться от RPCMiner в пользую poclbm - первый то ли устарел, то ли просто хуже, но лично у меня выдаёт 18 мегахешей вместо 26, и 22 вместо 30 после разгона. Если хочется скринсейвер, то вот он: http://www.reddit.com/r/Bitcoin/comments/hnzz3/mining_screensaver_open_source_update/ а к нему любой майнер. Я встречал с ним сбои. Если файл, который нужно запустить, не найден, то тот жирный курсор текста будет и в explorer при наборе. Тогда скринсейвер был с закрытым исходным кодом, теперь - открытый, надеюсь что исправлено.
newbie
Activity: 47
Merit: 0
May 29, 2011, 04:57:50 AM
#19
система  i7-2600/16gb-1333/560Ti
newbie
Activity: 47
Merit: 0
May 29, 2011, 04:56:26 AM
#18
использую agression 5 и threads и grids 512 - выдает 79mhs. при этом на втором монике идет net tv. а на первом я в это время работаю и пишу здесь.  если agression 7 то писать еще куда не шло - работать уже невозможно и тв тормозит. при запуске cpu майнера параллельно - скорость майнинга на gpu падает и а проц выдает 8-9 и в итоге получаем тоже что и с одной видео.
newbie
Activity: 42
Merit: 0
May 24, 2011, 02:23:13 PM
#17
Феникс 20мгхеш на 9600гт выдает, если прикинуть на глаз то точно. Но смысла в этом все равно нет.
оно потому и и так мало, что OpenCL набекрень. в противном случАе - было бы от силы ~2.5х разА разницы(а то и всего 1.5x на фоне ATi.

Большая разница так и останется. Что CUDA, что OpenCL разницы не будет.

1) Меньше процессоров на чип
2) У nvidia в чипах нет нативных команд битового сдвига для целочисленной арифметики.
    Они ставку на операции с плавающей точкой делали, т.к. для научных и графических расчетов именно они нужны.

ну разумеется, но в осн не из-за кол-ва процов, их как раз - меньше у АМД (~320 в 5870), но зато: они суперскалярные. это имеет КОЛОСАЛЬНЫЕ бенефиты, которые удвоением частоты, NVidia - не компенсировать.
не знаю уж на какие "операции с плавающей точкой" делала ставку NVidia, но поддержки двойной точности в них нет и даже квадро еле ползает(будучи сделаннной на тех же чипах + другой фирмварь и дрова проф), а на вычислениях с одинарной - и CPU достаточно в половине задач.

Речь конечно про shaders, а не про "полноценные процессоры".
Двойная точность в игровой графике и физике особо не нужна (во всяком случае пока).
А научные - ну да, более удачный маркетинг и удобнее "язык" для работы с SDK (C-подобный vs ASM) - поэтому большая часть рынка.

shaders и есть "полноценные процессоры".
кому не нужна - считает на CPU. а в физике - от атомной, радиофизике до аэродинамики. химии, метеорологии, биологии итп - без двойной точности, проку нет.
более того, в новом стандарте 2003-го года, утвердили стандарт вычислений  с учетвернной FP-точностью и все(ВСЕ!!) либы будут переводиться  на его поддержку.
это чего, С - удобнй язык ? большая часть рынка, потому что - NVidia ВКЛАДЫВАЕТСЯ в продвижение своего говноапи-либ, поддерживает разработчиков и консультирует, кодид иногда даже за них(кладя в рот), а у АМД до посл времени, даже доки скачать - семь потом сойдет, да еще и не все раскрыли(из критичного), но говоря уже о том, что Нвидия ЗАМЕТНО раньше вышла на рынок GPGPU.
hero member
Activity: 742
Merit: 500
BTCDig - mining pool
May 24, 2011, 02:12:36 PM
#16
Феникс 20мгхеш на 9600гт выдает, если прикинуть на глаз то точно. Но смысла в этом все равно нет.
оно потому и и так мало, что OpenCL набекрень. в противном случАе - было бы от силы ~2.5х разА разницы(а то и всего 1.5x на фоне ATi.

Большая разница так и останется. Что CUDA, что OpenCL разницы не будет.

1) Меньше процессоров на чип
2) У nvidia в чипах нет нативных команд битового сдвига для целочисленной арифметики.
    Они ставку на операции с плавающей точкой делали, т.к. для научных и графических расчетов именно они нужны.

ну разумеется, но в осн не из-за кол-ва процов, их как раз - меньше у АМД (~320 в 5870), но зато: они суперскалярные. это имеет КОЛОСАЛЬНЫЕ бенефиты, которые удвоением частоты, NVidia - не компенсировать.
не знаю уж на какие "операции с плавающей точкой" делала ставку NVidia, но поддержки двойной точности в них нет и даже квадро еле ползает(будучи сделаннной на тех же чипах + другой фирмварь и дрова проф), а на вычислениях с одинарной - и CPU достаточно в половине задач.

Речь конечно про shaders, а не про "полноценные процессоры".
Двойная точность в игровой графике и физике особо не нужна (во всяком случае пока).
А научные - ну да, более удачный маркетинг и удобнее "язык" для работы с SDK (C-подобный vs ASM) - поэтому большая часть рынка.
newbie
Activity: 42
Merit: 0
May 24, 2011, 01:28:28 PM
#15
Феникс 20мгхеш на 9600гт выдает, если прикинуть на глаз то точно. Но смысла в этом все равно нет.
оно потому и и так мало, что OpenCL набекрень. в противном случАе - было бы от силы ~2.5х разА разницы(а то и всего 1.5x на фоне ATi.

Большая разница так и останется. Что CUDA, что OpenCL разницы не будет.

1) Меньше процессоров на чип
2) У nvidia в чипах нет нативных команд битового сдвига для целочисленной арифметики.
    Они ставку на операции с плавающей точкой делали, т.к. для научных и графических расчетов именно они нужны.

ну разумеется, но в осн не из-за кол-ва процов, их как раз - меньше у АМД (~320 в 5870), но зато: они суперскалярные. это имеет КОЛОСАЛЬНЫЕ бенефиты, которые удвоением частоты, NVidia - не компенсировать.
не знаю уж на какие "операции с плавающей точкой" делала ставку NVidia, но поддержки двойной точности в них нет и даже квадро еле ползает(будучи сделаннной на тех же чипах + другой фирмварь и дрова проф), а на вычислениях с одинарной - и CPU достаточно в половине задач.
hero member
Activity: 742
Merit: 500
BTCDig - mining pool
May 24, 2011, 07:56:13 AM
#14
Феникс 20мгхеш на 9600гт выдает, если прикинуть на глаз то точно. Но смысла в этом все равно нет.
оно потому и и так мало, что OpenCL набекрень. в противном случАе - было бы от силы ~2.5х разА разницы(а то и всего 1.5x на фоне ATi.

Большая разница так и останется. Что CUDA, что OpenCL разницы не будет.

1) Меньше процессоров на чип
2) У nvidia в чипах нет нативных команд битового сдвига для целочисленной арифметики.
    Они ставку на операции с плавающей точкой делали, т.к. для научных и графических расчетов именно они нужны.
newbie
Activity: 42
Merit: 0
May 21, 2011, 03:33:40 PM
#13
Феникс 20мгхеш на 9600гт выдает, если прикинуть на глаз то точно. Но смысла в этом все равно нет.
оно потому и и так мало, что OpenCL набекрень. в противном случАе - было бы от силы ~2.5х разА разницы(а то и всего 1.5x на фоне ATi.
sr. member
Activity: 254
Merit: 250
May 21, 2011, 03:31:07 PM
#12
Феникс 20мгхеш на 9600гт выдает, если прикинуть на глаз то точно. Но смысла в этом все равно нет.
newbie
Activity: 42
Merit: 0
May 21, 2011, 03:09:09 PM
#11
Давно уже прикрутила.
угу и до сих пор считает с ошибками в OpenCL- с даже для игрушек непригодной, точностью.
sr. member
Activity: 254
Merit: 250
May 21, 2011, 02:54:58 PM
#10
Давно уже прикрутила.
newbie
Activity: 42
Merit: 0
May 21, 2011, 11:39:35 AM
#9
хоспадя, когда-ж Нвидиа прикрутит OpenCL к своим GPU ? нарное, не раньше, чем CUDA-у сольют с рынка :/
sr. member
Activity: 254
Merit: 250
May 20, 2011, 12:04:31 PM
#8
Может, по вики - Quadro NVS 3100M   3.6 Mhash/s
newbie
Activity: 16
Merit: 0
May 20, 2011, 02:45:39 AM
#7
Но все равно, не может же он быть слабее CPU.
sr. member
Activity: 357
Merit: 250
May 19, 2011, 10:42:17 PM
#6
ждать высокого хэша от 310М я бы не стал)
newbie
Activity: 16
Merit: 0
May 19, 2011, 01:49:46 PM
#5
Да, для ноутбука. Ок, спасибо) Попробую поиграться с параметрами. Но 128 и 128, ничего не поменяли =)
newbie
Activity: 79
Merit: 0
May 19, 2011, 01:43:11 PM
#4
оптимальные параметры -gpugrid и -gputhreads майнер может определить сам, если запустить его без их указания
возможно, нужно поставить 128 и 128, к примеру

Как такое возможно? Что CPU больше, чем GPU?...
... Карточка GeForce 310M
M - это ж для ноутбуков, верно?
скорее всего они попроще своих десктопных собратьев
newbie
Activity: 16
Merit: 0
May 19, 2011, 01:38:34 PM
#3
Я установил CUDA Toolkit и ещё какие-то Developers драйвера.

С параметрами "rpcminer-cuda.exe -aggression=7 -gpugrid=256 -gputhreads=256 -url=http://deepbit.net:8332 [email protected] -password=example"

Или если юзать GUI miner (by KIV) - то выдаёт всего около 4 MHash/s

CPU - выдаёт где-то 6 MHash/s. Как такое возможно? Что CPU больше, чем GPU?

P.S.: Карточка GeForce 310M
newbie
Activity: 79
Merit: 0
May 19, 2011, 01:26:17 PM
#2
разве что драйвера на видеокарту обновить


вот такой вариант у меня на GTS 450 выдаёт 41 мегахеш в секунду

rpcminer-cuda.exe -aggression=7 -gpugrid=256 -gputhreads=256 -url=http://deepbit.net:8332 [email protected] -password=example
newbie
Activity: 16
Merit: 0
May 19, 2011, 10:38:18 AM
#1
Хотелось бы потестить CUDA, благо моя видео карта поддерживает эту технологию.

Скачал Bitcoin-rpcminer. Мне нужно что-то до устанавливать для работы с CUDA?

И с какими параметрами запускать rpcminer-cuda.exe? Хотелось бы примеры.
Jump to: