Драйвер серии Detonator для карт на базе nVidia
смотря какой детонатор и на какую видюху
на видеокарты серии Riva (128, TNT, TNT2) и GeForce1-2 лучше всего ставить Детонатор 30.82;
на GeForce3 и 4 всех версий - 40.72, 41.09 или 42.51 (самый быстрый, но немного "читерский").
На GeForceFX - самый новый, какой найдешь (53.xx, 54.xx, etc.)
установил 5 3 0 3 - решил проблему LCD монитора
а откуда такие заявления?
т.е. установив новые дрова на старую видеокарту ты не получишь никаких бонусов (исправление ошибок, повышение стабильности и т.п. но можешь проиграть в скорости.
спасибо.
Ладно, маза не в этом. Юзать нужно ты дрова, которые не глючат.
30.82 DirectX 8 драйверы, и в приложениях DX9 могут отображать не все.
Лично я рекомендую Detonator 43.45 как очень быстрые и проверенные (и используемые) мной в течение почти уже года (хотя тоже читерские )
Взять можно на ftp:///distr/system/drivers/nvidia/4345
ftp:///distr/system/drivers/nvidia/4345/4345_Win9X_EN.exe - Win9X
ftp:///distr/system/drivers/nvidia/4345/4345_WinXP_EN.exe - Win2K/XP
Кстати, когда-то... очень давно... для карт серий TNT и TNT2 считались САМЫМИ быстрыми detonator 2.40, но это время прошло.
P.S.
>т.к. на них просто остановились изменения для этих видеокарт (известный факт). но в то же время оптимизация более новых дров под >более новые карты нередко вызывает падение производительности у старых (правда, не большое совсем).
Это наверное потому что забывают добавить все читы и для старых карт
>т.е. установив новые дрова на старую видеокарту ты не получишь никаких бонусов (исправление ошибок, повышение стабильности и т.п. >но можешь проиграть в скорости.
А это утверждение неверно. Как я уже говорил, можно получить поддержку DX9 (по крайней мере в пределах возможностей карты - попробуй на Geforce3/4 запусти демо 3DMark2003 с Detonator 30.82 - увидишь (точнее не увидишь ) много текстур от версии к версии меняется код видеовывода (Detonator 12.40 считались одними из самых лучших) и исправляются некоторые общие ошибки (на платах класса Geforce256/2 (DirectX7-compatible) тест 3DMark 2001SE при установке некоторых версий Detonator (по моему как минимум 40.72, 41.09) молча вылетает на тесте shader'ов (которые не поддерживаются и обычно тест пропускается).
дрова и поддержка Dx не связаны.
2: нет, конечно. но там вводится поддержка новых видеокарт, которые эти новые DirectX-ы держат.
C'mon, это где ты видел, чтобы detonator Riva128 поддерживал?
я например такое видел . правда долго перед этим искал версию детонатора постарей ...........
В некоторых играх я видел глюки на GeForce4 с Detonator 40.72, которые решались установкой 44.03. Так что поиск лучшего Детонатора штука непростая.
Но этот драйвер (42.51) в отличие от 40.72 даже не сертифицирован MS. Я ставлю просто потому что побыстрее немножко (=больше читов ). Так что ИМХО проблема в играх, которые пишут кривые программисты (хотя никто не отрицает возможность наличия среди них хороших).
> А это утверждение неверно. Как я уже говорил, можно получить поддержку DX9 (по крайней мере в пределах возможностей карты - попробуй на Geforce3/4 запусти демо 3DMark2003 с Detonator 30.82 - увидишь (точнее не увидишь ) много текстур)
О том, что существуют DX7,8,9-совместимые карты я прекрасно знаю, и знаю, чем они различаются. Может я выразился неправильно, но имел в виду следующее:
Естественно, аппаратно дополнительные блоки не появятся...
Как я уже говорил в некоторых D3D тестах и играх (DX9) не отображается часть текстур, потому что драйвер написан под старую версию DX, и возможно некорректно обрабатывает код новых команд. Иначе бы производители игр не стали бы в факах к играм просить обновлять версию дров, если есть проблемы с изображением.
Примеры - связка пресловутого 3DMark 2003 и драйвера 3X.XX серии, MAX PAYNE 2 и те же дрова 3X.XX серии. Это из мне известных, а я в игры особо-то не играю...
Anonymous c - Я.
Такое может быть в любом сочетании драйверов и программ. Кстати, на это м основаны оптимизации.
>Такое может быть в любом сочетании драйверов и программ. Кстати, на это м основаны оптимизации.
Попробуем по-другому... Много ты игр глючащих знаешь, которые напрямую с драйвером обсчаются (кстати, таковыми являются IMHO только OpenGL игры)? Большинство игр, которые 3D, написаны на базе какого-либо движка. Движок может быть на базе API Direct3D, OpenGL, GLide, PowerVR OGL и др. Фактически все игры (в плане 3D графики) на сегодня делятся на 2 части: Direct3D и OpenGL. DirectX - стандарт Microsoft и задается в основном (или в согласии с) ей, OpenGL открытый стандарт. Как раз по стандарту MS DX и делятся карты. OpenGL корректно умеют все или почти все - тут уже все зависит от производителя дров - обычно его или умеют, или не умеют. Отсюда и все глюки дров - вызовы функций через DX. В OpenGL мало у кого возникали проблемы (при наличии нормального драйвера от производителя, а не от Microsoft). Вот есть, например, такие, у кого Quake3 глючит? Или WolfEinstein? Или GLQuake? А вот с GTA3, GTA:VC, Max Payne 1&2, NFS разных версий проблем много... То в GTA шрифт не видно было, пока MS патч не сделала, то текстуры пропадают, то туман не виден...
Кстати, в OpenGL нет никаких шейдеров, поэтому там все и проще (или сложнее )...
Ну это все на самом деле IMHO, пусть меня поправят, если я не прав. Я не программист и всех тонкостей процесса не знаю...
А оптимизации - это отдельная тема для разговора, обычно они заключаются в замене режима на более простой - FSAA 4X на FSAA2X, степень анизотропии понижают, шейдеры заменяют на свои. Все сводится к определению приложения и замене того что должно быть, на что-то другое. Пример: 3DMark2001SE, Gf3/4 - драйвер 30.82 - честный. 40.72 (и более поздние) - нечестный, он заменяет вершинный шейдер tree.vsh на свой - в результате чего трава движется по иному, снижается нагрузка на чип (в оригинале им обсчитываются полиномы 9 порядка, во встроенном чуть ли не линейная функция FPS вырастает процентов на 20-25 если не больше.
Чувак, ты сам напросился.
> Кстати, в OpenGL нет никаких шейдеров, поэтому там все и проще (или сложнее )...
Ты их вчера ночью оттуда выкинул? glExtensions еще никто не запретил вроде. Сами шейдерные команды пишутся точно также, как и для DX, а для их вызова используются gl_NV_vertex_program, gl_NV_vertex_program2( последнее для NV3x аналогичные для ATI, а общеплатформенные начинаются glARB... Как ты понял, это было про вершинные шейдеры.
Аналогично для пиксельных шейдеров - сообщу только про существование gl_ARB_fragment_program, остальное, если заинтересуешься, сам посмотришь.
> GTA3, GTA:VC
Твои рассуждения о графических движках показались немного туманными, конкретно информирую, что вышеупомянутое написано с использованием движка RenderWare, который может поддерживать как GL, так и DX. Даже из просмотра простых примеров на использование этого движка видно, что у этого движка fps при GL в два раза меньше, чем у DX. Выбор DX - решение разработчиков игры, но никак не ограничение движка.
> шейдеры заменяют на свои
Чоо?
>Ты их вчера ночью оттуда выкинул? glExtensions еще никто не запретил вроде. Сами шейдерные команды пишутся точно также, как и для DX, >а для их вызова используются gl_NV_vertex_program, gl_NV_vertex_program2( последнее для NV3x аналогичные для ATI, а >общеплатформенные начинаются glARB... Как ты понял, это было про вершинные шейдеры.
>Аналогично для пиксельных шейдеров - сообщу только про существование gl_ARB_fragment_program, остальное, если заинтересуешься, сам >посмотришь.
Ага, и ты хочешь сказать, что Quake3, Wolfeinstein, Modal Of Honor написаны с помощью шейдеров? Че ж там тогда какие рожи убогие?
Или ты хочешь сказать, что Doom3 (Quake3 и иже с ними) по разному выглядеть будет на Riva TNT и GfFX? И почему, интересно GLQuake что на Voodoo2, что на Geforce выглядит одинаково (не рассматривая 32 бит). И почему 3DMark2000 (Final Reality) по разному?
Насколько мне известно в OpenGL шейдеров НЕТ! Пусть приведут фрагмент кода, который пошел бы на моем Geforce3 и не пошел бы на Geforce2 MX (Riva TNT) - тогда, возможно, я поверю, что каким-то образом выполнение OpenGL кода зависит от аппаратной поддержки шейдеров чипом...
GLExtensions это GLExtensions и это не связано с шейдерами... Там система команд совершенно иная и не связана с аппаратной совместимостью карт с DX. Что-то я не видел, чтобы карты делились по совместимости с OGL... Видел поддержку той или иной версии OGL ICD драйвером. Как вариант - открой 3DAnalyzer (программа эмулирующая поддержку шейдеров разных версий) и сравни эмуляцию для DX и OGL. Для DX оччень много опций, для OGL - только общие. Если сможешь привести что-то конкретное и переубедить меня - это будет очень хорошо, т.к. я не такой уж профи в области программирования.
> GTA3, GTA:VC
>Твои рассуждения о графических движках показались немного туманными, конкретно информирую, что вышеупомянутое написано с >использованием движка RenderWare, который может поддерживать как GL, так и DX. Даже из просмотра простых примеров на >использование этого движка видно, что у этого движка fps при GL в два раза меньше, чем у DX. Выбор DX - решение разработчиков игры, но >никак не ограничение движка.
Не знаю насчет FPS. Думаю, что можно сравнить OGL и D3D как ASM и C++ - в одном случае (OGL) программер все пишет сам, в другом (D3D) все функции уже написаны за него, и ему остается только их вызывать. Очевидно в первом случае можно оптимизировать... оптимизировать... в результате появляются библиотеки, которые повышают FPS в игре, за счет оптимизаций под что-то.
Пример: пожалуйста....
ftp:///Games/Patches/Quake3/Optimize/ - оптимизированные dll для Quake3, на системах P3 от 1000 и P4 очень заметен прирост FPS ~10%.
> шейдеры заменяют на свои
>Чоо?
А то... В 3DMark2001 вытащи вершинный шейдер из data.ras и укажи тесту использовать его -> смотри падение FPS.... Это уже в инете обсуждалось, и в журнале CHIP. Подробнее читай: http://www.nvworld.ru/docs/3dm2001.html
В 3DMark 2003 драйвер в некоторых сценах игнорирует очистку заднего буфера, что также приводит к увеличению FPS (и не всегда корректной прорисовке картинки).
Ага, и ты хочешь сказать, что Quake3, Wolfeinstein, Modal Of Honor написаны с помощью шейдеров? Че ж там тогда какие рожи убогие?Не ищи в моих словах своих тупых мыслей.
Насколько мне известно в OpenGL шейдеров НЕТ! Пусть приведут фрагмент кода, который пошел бы на моем Geforce3 и не пошел бы на Geforce2 MX (Riva TNT) - тогда, возможно, я поверю, что каким-то образом выполнение OpenGL кода зависит от аппаратной поддержки шейдеров чипом...для начального самообразования ты найдешь кучу таких примеров на www.nvidia.com
GLExtensions это GLExtensions и это не связано с шейдерами...Баклан, я тебе привел конкретно, как это из GL использовать. Дятлов я не переубеждаю, конкретных примеров кода полно в инете (см. ссылку).
Там система команд совершенно иная и не связана с аппаратной совместимостью карт с DXДля начала посмотри собственно код самих шейдерных команд (для простоты в любой демке, ибо более сложное ты не поймешь и ты увидишь, что он идентичен как для GL - приложения, которое будет его вызывать, так и для D3D.
Думаю, что можно сравнить OGL и D3D как ASM и C++ - в одном случае (OGL) программер все пишет сам, в другом (D3D) все функции уже написаны за него, и ему остается только их вызыватьТы думать можешь сколько угодно, но сначала ответь (только честно) - ты хоть че-нить из перечисленного (OGL, D3D, ASM, C++) знаешь? Сразу говорю, ни GL, ни D3D ты не знаешь. Когда хоть что-нить выучишь, мы, возможно, продолжим разговор.
Это уже в инете обсуждалось, и в журнале CHIP. Подробнее читай: http://www.nvworld.ru/docs/3dm2001.htmlВместо чтения научно-популярных обсуждений в инете тебе домашнее задание - напиши одну небольшую прогу с шейдерами на GL и аналогичную на DX, а потом приходи (с программами;)извиняться за сказанные тобой глупости.
Взять его можно здесь:
ftp:///distr/system/drivers/nvidia/4345/4345_Win9X_EN.exe - Win9X
ftp:///distr/system/drivers/nvidia/4345/4345_WinXP_EN.exe - Win2K/XP
2 : Без комментариев (по крайней мере здесь).
Оставить комментарий
AsiaM
стоит установить?