InfoCity
InfoCity - виртуальный город компьютерной документации
Реклама на сайте







Размещение сквозной ссылки

 

Тестирование PixelView GeForce4 MX440

COMPOSTER team


Введение

Одним из факторов, благодаря которым компании nVidia удалось занять сегодняшнее доминирующее положение на рынке игровых 3D-чипов, стала высокая периодичность выпуска новых графических ускорителей. Действительно, еще совсем недавно nVidia выдерживала просто таки фантастический темп - новый чип каждые полгода. Не найдя в себе силы работать в таком ритме, один за другим отмирали конкуренты, и вот уже и nVidia позволила себе немого расслабиться и перейти на одногодичный цикл. Год назад были представлены GeForce3, и теперь, по прошествии 12 месяцев, им на смену приходят чипы GeForce4 и GeForce4 MX. Впрочем, с тем, кто кого собирается менять, мы еще разберемся.

Прежде чем начать рассмотрение возможностей GeForce4 MX, хотелось бы остановиться на одном моменте. Как вы наверное помните, первая карта серии MX - GeForce2 MX - обладала многими возможностями старшей модели (GeForce2 GTS), но содержала на 4 конвейера рендеринга, а только 2. Это автоматически влекло за собой более низкую производительность, однако в общем и целом GeForce2 GTS и GeForce2 MX можно было рассматривать в качестве старшего и младшего представителей линейки GeForce2.

GeForce4 MX Logo В случае с GeForce4 и GeForce4 MX ситуация совсем иная. Несмотря на то, что графические чипы GeForce4 и GeForce4 MX были представлены одновременно и имеют одинаковое коммерческое имя - GeForce 4, это совершенно разные решения, основанные на чипах разной архитектуры. Поэтому не стоит пытаться переносить результаты и выводы, справедливые для чипов GeForce4 MX на GeForce4, и наоборот.

Вспомним. На момент выхода GeForce2 MX, компания nVidia позиционировала это решение в качестве замены предыдущему чипу - GeForce 256, который с появлением GeForce2 MX довольно быстро исчез. Многие ожидали от GeForce4 MX подобного поведения, однако nVidia рассудила иначе.

Знакомство с GeForce4 MX

GeForce4 MX ни в коем случае не является заменой GeForce3. Фактически, GeForce4 MX представляет некий гибрид между GeForce4 и GeForce2 MX, и рассматривать его следует как замену GeForce2 GTS/GeForce2 MX. От GeForce4 в наследство ему достались улучшенный контроллер памяти (этот чип гораздо меньше зависит от пропускной способности памяти, чем GeForce2 MX), блок вершинных шейдеров (правда в GeForce4 их два), технология nView, новые методы FSAA.

PixelView GeForce4 MX440 Box В этом материале мы не собираемся скрупулезно рассматривать внутреннюю архитектуру GeForce4 MX, перебирая все подробности. Желающие разобрать по косточкам особенности устройства GeForce4 MX, могут либо изучить официальные спецификации, доступные на сайте nVidia, либо же проштудировать один из материалов в Интернете, полностью посвященный этому вопросу. Мы лишь остановимся на ключевых моментах, которые, надеемся, помогут составить представление о GeForce4 MX. Итак, чем же порадовал (или огорчил ;-)) GeForce4 MX, какие основные технические характеристики заложены в этот чип?

  • Два конвейера с двумя текстурными блоками на каждом (как у Geforce2 MX).
  • Два полноценных интегрированных RAMDAC с частотой 350 МГц (напомним, на двухголовых платах GeForce2 MX второй RAMDAC был внешним и имел частоту 270 МГц).
  • Технология nView, которая предоставляет значительно большие возможности по выводу изображения на несколько приемников сигнала, чем ее предшественник TwinView.
  • Поддержка вершинных шейдеров версии 1.1
  • Отсутствие (!!!) поддержки пиксельных шейдеров (в отличие от полноценных GeForce3/GeForce4). Мы специально выделили в отдельный пункт эту "отсутствщую возможность", т.к. название GeForce 4 (пусть даже МХ) может ввести в заблуждение.
  • Поддержка анизотропной фильтрации (2 би/три линейных выборки), карты отражения (с анизотропией), туман (FOGVERTEX, FOGRANGE, FOGTABLE). В отличие от GeForce3/GeForce4 3D-текстуры НЕ поддерживаются.
  • Поддержка полноэкранного сглаживания (FSAA) на основе мультисемплинга (тут возможности GeForce 4 MX полностью совпадают со старшими моделями GeForce 4, они будут рассмотрены подробнее в практической части).
  • Поддержка OpenGL версии 1.3

Таким образом, если не принимать во внимание маркетинговые трюки nVidia, то можно говорить о том, что по функциональным возможностям GeForce4MX близок к картам серии GeForce2 и RadeOn 7500. До GeForce3 и RadeOn 8500 он "не дотягивает".

PixelView GeForce4 MX

В последнее время nVidia стремиться представить не один чип, а целое семейство, с тем, чтобы лучше "покрыть" все сегменты рынка. Так случилось и на этот раз. Линейка GeForce4 MX состоит из трех представителей: GeForce4 MX460, MX440 и MX420. Отличаются они частотами работы и шириной шины между графическим чипом и памятью:
  GeForce 4 MX 460 GeForce 4 MX 440 GeForce 4 MX 420
Тип шины памяти 128 бит DDR 128 бит DDR 128 бит SDR
Частота чипа 300 МГц 270 МГц 250 МГц
Частота памяти 275(550) МГц 200(400) МГц 166 МГц
Филрейт (млн. пикселей/млн. текселей) 600/1200 540/1080 500/1000

PixelView GeForce4 MX440 К нам на тестирование попала видеокарта GeForce4 MX440 производства PixelView, которая хотя и не работает на предельных частотах, но оснащена DDR-памятью со 128-битной шиной. Память - 5 ns, производства Samsung. Графический чип прикрыт золотистым радиатором средних размеров, сверху установлен вентилятор. На задней панели находится видеовыход.

В целом исполнение этого видеоадаптера оставляет приятное впечатление. Элементы расположены компактно, все на своих местах. Карта поставляется в фирменной коробке, внутри которой находится набор кабелей, которые позволяют подключать к ней разнообразные приемники сигнала, в том числе и телевизор. Внутри коробки - компакт диск с драйверами и бонусными утилитами.

В работе - 2D

Прежде, чем приступить к исследованию производительности GeForce4 MX в трехмерных играх, обязательно нужно остановиться на возможностях видеокарт на основе этих чипов в 2D. Ведь в них (равно как и в полноценном GeForce4) реализована фирменная технология nVidia nView, предоставляющая пользователям множество новых возможностей по работе как с одним монитором, так и с несколькими приемниками сигнала.

nView Как уже отмечалось выше, GeForce4 MX содержит два независимых RAMDAC, которые, собственно, и ответственны за вывод изображения на экран. Таким образом, владельцы GeForce4 MX получают возможность выводить абсолютно разные изображения на два монитора или, скажем, на монитор и телевизор. Например, монитор можно вывести контрольную панель медиа-проигрывателя, а на телевизоре будет при этом крутиться DVD или MPEG-4.

Более того, новые драйверы, поддерживающие nView, открывают новые возможности и перед теми, кто в работе или для развлечений пользуются только одним монитором. Речь идет о технологии виртуальных экранов. Суть сводится к следующему: на одном виртуальном экране можно разместить Photoshop, на другом - Delphi, на третьем - браузер Интернет. И определив для каждого виртуального десктопа горячую клавишу, мгновенно, без свопа, переключаться между приложениями. Если же к компьютеру подключено два приемника сигнала, то речь уже можно вести о переключении не между приложениями, а между экранами. И все по горячей клавише. Дальше - больше. Никто не мешает создать большие десктопы, с размерами, превышающими видимую область одного из приемников. И переключаться между ними в свое удовольствие. Любопытно, что схожие возможности уже лет 10 как есть в X-Window, причем для любых видеокарт :-)

В целом же, nView - очень мощная и продвинутая технология, которая по спектру возможностей сравнима с HydraVision, реализованным в видеокартах Radeon 8500 и Radeon VE.

Да и качество картинки в 2D оказалось очень хорошим. По крайней мере в разрешениях вплоть до 1600х1280 не было заметно ни мыла, ни прочих неприятных артефактов. Конечно же, здесь многое зависит от того, кто именно выпустил видеокарту. Подчас некоторые не особенно прилежные китайские самоделкины такого "наклеят", что глаза на лоб вылазят (в прямом смысле этого слова). Однако же есть все основания полагать, что на видеокартах приличных производителей, основанных на GeForce4 MX, проблем с 2D не возникнет.

И еще хочется сказать пару слов о воспроизведении DVD, впервые реализованном в GeForce4 MX на должном уровне. Аппаратные средства декомпрессии MPEG-2 потока позволяют надеяться на должное качество изображения. Конечно же, задействованы они будут лишь в случае использования DVD-плеера, умеющего работать с GeForce4 MX. За этим дело не станет - nVidia уже представила проигрыватель nvDVD, который знает, как обращаться не только с GeForce4 MX, но и с 6-канальным звуком из южного моста nForce.

В работе - 3D

Главный недостаток архитектуры GeForce 4MX - отсутствие пиксельных шейдеров, которые поддерживаются и GeForce3, и GeForce 4. И это автоматически делает GeForce 4MX несовместимым с API DirectX 8.1. Другой вопрос - много ли игр, использующих сегодня пиксельные шейдеры? Да, мало, но рано или поздно они все равно появятся, и тогда этот недостаток вылезет на всеобщее обозрение. А пока что, чуть ли не единственное приложение, где он проявляется - тест 3DMark 2001. В нем не идет сцена Game 4: Nature.

С другой стороны, GeForce4 MX содержит довольно продвинутый контроллер памяти, "взятый" из GeForce4. Благодаря этому недостаточная пропускная способность памяти, являющаяся "бичом" многих современных видеокарт, ощущается здесь не так сильно, как в случае с GeForce2/GeForce 2MX.

Ну что ж, перейдем к измерению скорости работы. Тесты проводились на такой конфигурации:

  • процессор Pentium4 1.8 ГГц
  • материнская плата Intel D845HV на чипсете i845-SDR
  • 128 Мб SDR-памяти 2-2-2
  • Жесткий диск Maxtor 20 Гб (5400 RPM, ATA/100)
  • Операционная система Windows ME Rus
  • Драйверы nVidia Detonator 27.70

В тестах, помимо GeForce4 MX, участвовали еще ATI RadeOn 8500 LE и Leadtek GeForce2 Ti.

Для измерений использовались:

  • Quake III v. 1.17
  • 3DMark 2001
  • Return to Castle of Wolfenstein

Такой выбор программного обеспечения обусловлен следующими факторами. Quake III является сегодня, по сути, стандартным тестом, использующимся практически во всех тестированиях. Поэтому, данные, полученные в Quake III, интересны, прежде всего, с той точки зрения, что их можно сравнить с результатами других замеров, выполненных на других платах, в других режимах и т.п.

3DMark 2001 можно считать чуть ли не идеальным средством изучения производительности видеокарты в Direct 3D. Этот тест примечателен тем, что в отличие от Quake III, который работает на довольно "древнем" движке, он использует команды DirectX 8, и, таким образом, позволяет графической карте в большей мере раскрыть свой потенциал.

Wolfenstein, хоть и основан на ядре Quake, но так основательно пригружает машину, что даже относительно быстрые видеокарты подчас не способны обеспечить должный уровень FPS в сложных сценах. Поэтому, тест в Wolfenstein призван продемонстрировать, в каком разрешении видеокарта достигнет своего минимального предела.

Но, перейдем непосредственно к тестам.

Итак, Quake III. Здесь все однозначно: лидирует Radeon 8500LE, за ним с некоторым отставанием идет GeForce4 MX, замыкает гонку GeForce2 Ti.

Quake III

А вот в Wolfenstein GeForce4 MX выходит на первое место, пусть не намного, но обгоняя Radeon 8500 LE. Последнее место снова занял GeForce2 Ti. Стоит, пожалуй, обратить внимание на абсолютные значения FPS: разрешение 1024х768@32 оказывается предельным для GeForce4 MX. Комфортной игры при FPS меньше 60 кадров ожидать не приходится, ведь это средний FPS, стало быть минимальный - еще меньше.

Return to Castle of Wolfenstein

Тесты в 3DMark 2001 снова демонстрируют преимущество Radeon 8500LE над GeForce4 MX и отставание GeForce2 Ti. В зависимости от конкретной сцены абсолютные значения, конечно же, меняются, но общая расстановка сил остается прежней.

3DMark 2001: General 3DMark 2001: Detailed

Следовательно, можно констатировать: GeForce4 MX работает медленнее RadeOn 8500LE, но быстрее GeForce2 Ti. При этом, исходя из результатов тестов, проведенных нашими коллегами из других изданий, GeForce4 MX работает медленнее GeForce3 Ti 200.

В работе - FSAA

Режимы полноэкранного сглаживания интересны, прежде всего, для тех, кто играет в разрешениях порядка 800х600, но обладает видеокартой, способной на большее. Или просто хочет получить высокое качество изображения в разнообразных квестах-ходилках-бродилках, т.е. в играх, где высокий FPS не нужен.

GeForce4 MX поддерживает два "нестандартных" режима полноэкранного сглаживания: Quincunx и 4xS. Первый хоть и работает довольно быстро, но довольно ощутимо мылит текстуры. В то же время второй характеризуется очень высоким качеством, которое явно выше, чем при обычном сглаживании 4х4. При этом скорость работы видеокарты в режимах 4x4 и 4xS практически одинаковая. По крайней мере, так утверждает nVidia.

Как говориться, лучше один раз увидеть, чем сто раз услышать. Давайте просто посмотрим скриншоты, полученные в 3DMark 2001 в разных режимах на GeForce4 MX и Radeon 8500LE:

Picture from 3DMark

GeForce4 MX

Radeon 8500

Какой режим обеспечивает лучшее качество, а какой - худшее, решайте сами. Мы же изучим вопрос о падении производительности, которое наблюдается при включении режимов полноэкранного сглаживания:

Действительно, скорость работы в режимах 4xS и 4х4 сопоставима и оказывается в 3-4 раза меньше, чем при отключенном полноэкранном сглаживании. Собственно, так и должно быть, ведь суть метода FSAA заключается в том, что картинка рендерится в более высоком разрешении, а потом "уменьшается" до видимого разрешения.

В работе - разгон

Какое же исследование новой видеокарты обходится без изучения вопроса о разгоне?! Хоть мы и не являемся сторонниками экстремального оверклокинга, эксперименты по разгону все же поставили. Нам удалось повысить частоту, на которой работала видеокарта PixelView GeForce4 MX440 с 270/200 МГц до 305/235 МГц. Результат хоть и не рекордный, но вполне приемлемый.

Выводы

Что же получается в итоге? GeForce4 MX - видеокарта, производительность которой лежит в пределах GeForce2Ti - GeForce3 Ti. Она не полностью совместима DirectX 8.1, зато имеет расширенные возможности по работе в 2D и воспроизведению DVD.

Стоит ли покупать GeForce4 MX прямо сейчас? Пожалуй, не стоит. Как это обычно бывает, "горячие" новинки поначалу продаются по завышенной цене. Оно и неудивительно - продавцы снимают сливки, рассчитывая на нетерпеливых "маньяков". Когда же первая волна ажиотажа спадает, цены приходят в норму. По всей видимости, в случае с GeForce4 MX это произойдет ближе к маю месяцу. И вот тогда, выбирая видеокарту между GeForce4 MX, GeForce3 Ti 200 и GeForce2 Ti, стоит, пожалуй, остановиться на первом варианте. Особенно он будет интересен тем, кто работает с двумя мониторами или же любит смотреть DVD/MPEG4 фильмы на телевизоре.

Благодарим компанию MI COM, предоставившую видеокарту nVidia GeForce4 MX400.

Благодарим компанию Европлюс, предоставившую видеокарту ATI RadeOn 8500LE, Leadtek GeForce2 Ti.


Реклама на InfoCity

Яндекс цитирования



Финансы: форекс для тебя








1999-2009 © InfoCity.kiev.ua