| ||||||||||||||||
![]() | ||||||||||||||||
| ||||||||||||||||
![]() | ||||||||||||||||
| ||||||||||||||||
![]() |
Тестирование PixelView GeForce4 MX440 Введение Одним из факторов, благодаря которым компании nVidia удалось занять сегодняшнее доминирующее положение на рынке игровых 3D-чипов, стала высокая периодичность выпуска новых графических ускорителей. Действительно, еще совсем недавно nVidia выдерживала просто таки фантастический темп - новый чип каждые полгода. Не найдя в себе силы работать в таком ритме, один за другим отмирали конкуренты, и вот уже и nVidia позволила себе немого расслабиться и перейти на одногодичный цикл. Год назад были представлены GeForce3, и теперь, по прошествии 12 месяцев, им на смену приходят чипы GeForce4 и GeForce4 MX. Впрочем, с тем, кто кого собирается менять, мы еще разберемся. Прежде чем начать рассмотрение возможностей GeForce4 MX, хотелось бы остановиться на одном моменте. Как вы наверное помните, первая карта серии MX - GeForce2 MX - обладала многими возможностями старшей модели (GeForce2 GTS), но содержала на 4 конвейера рендеринга, а только 2. Это автоматически влекло за собой более низкую производительность, однако в общем и целом GeForce2 GTS и GeForce2 MX можно было рассматривать в качестве старшего и младшего представителей линейки GeForce2.
Вспомним. На момент выхода GeForce2 MX, компания nVidia позиционировала это решение в качестве замены предыдущему чипу - GeForce 256, который с появлением GeForce2 MX довольно быстро исчез. Многие ожидали от GeForce4 MX подобного поведения, однако nVidia рассудила иначе.
Знакомство с GeForce4 MX GeForce4 MX ни в коем случае не является заменой GeForce3. Фактически, GeForce4 MX представляет некий гибрид между GeForce4 и GeForce2 MX, и рассматривать его следует как замену GeForce2 GTS/GeForce2 MX. От GeForce4 в наследство ему достались улучшенный контроллер памяти (этот чип гораздо меньше зависит от пропускной способности памяти, чем GeForce2 MX), блок вершинных шейдеров (правда в GeForce4 их два), технология nView, новые методы FSAA.
Таким образом, если не принимать во внимание маркетинговые трюки nVidia, то можно говорить о том, что по функциональным возможностям GeForce4MX близок к картам серии GeForce2 и RadeOn 7500. До GeForce3 и RadeOn 8500 он "не дотягивает".
PixelView GeForce4 MX В последнее время nVidia стремиться представить не один чип, а целое семейство, с тем, чтобы лучше "покрыть" все сегменты рынка. Так случилось и на этот раз. Линейка GeForce4 MX состоит из трех представителей: GeForce4 MX460, MX440 и MX420. Отличаются они частотами работы и шириной шины между графическим чипом и памятью:
В целом исполнение этого видеоадаптера оставляет приятное впечатление. Элементы расположены компактно, все на своих местах. Карта поставляется в фирменной коробке, внутри которой находится набор кабелей, которые позволяют подключать к ней разнообразные приемники сигнала, в том числе и телевизор. Внутри коробки - компакт диск с драйверами и бонусными утилитами.
В работе - 2D Прежде, чем приступить к исследованию производительности GeForce4 MX в трехмерных играх, обязательно нужно остановиться на возможностях видеокарт на основе этих чипов в 2D. Ведь в них (равно как и в полноценном GeForce4) реализована фирменная технология nVidia nView, предоставляющая пользователям множество новых возможностей по работе как с одним монитором, так и с несколькими приемниками сигнала.
Более того, новые драйверы, поддерживающие nView, открывают новые возможности и перед теми, кто в работе или для развлечений пользуются только одним монитором. Речь идет о технологии виртуальных экранов. Суть сводится к следующему: на одном виртуальном экране можно разместить Photoshop, на другом - Delphi, на третьем - браузер Интернет. И определив для каждого виртуального десктопа горячую клавишу, мгновенно, без свопа, переключаться между приложениями. Если же к компьютеру подключено два приемника сигнала, то речь уже можно вести о переключении не между приложениями, а между экранами. И все по горячей клавише. Дальше - больше. Никто не мешает создать большие десктопы, с размерами, превышающими видимую область одного из приемников. И переключаться между ними в свое удовольствие. Любопытно, что схожие возможности уже лет 10 как есть в X-Window, причем для любых видеокарт :-) В целом же, nView - очень мощная и продвинутая технология, которая по спектру возможностей сравнима с HydraVision, реализованным в видеокартах Radeon 8500 и Radeon VE. Да и качество картинки в 2D оказалось очень хорошим. По крайней мере в разрешениях вплоть до 1600х1280 не было заметно ни мыла, ни прочих неприятных артефактов. Конечно же, здесь многое зависит от того, кто именно выпустил видеокарту. Подчас некоторые не особенно прилежные китайские самоделкины такого "наклеят", что глаза на лоб вылазят (в прямом смысле этого слова). Однако же есть все основания полагать, что на видеокартах приличных производителей, основанных на GeForce4 MX, проблем с 2D не возникнет. И еще хочется сказать пару слов о воспроизведении DVD, впервые реализованном в GeForce4 MX на должном уровне. Аппаратные средства декомпрессии MPEG-2 потока позволяют надеяться на должное качество изображения. Конечно же, задействованы они будут лишь в случае использования DVD-плеера, умеющего работать с GeForce4 MX. За этим дело не станет - nVidia уже представила проигрыватель nvDVD, который знает, как обращаться не только с GeForce4 MX, но и с 6-канальным звуком из южного моста nForce.
В работе - 3D Главный недостаток архитектуры GeForce 4MX - отсутствие пиксельных шейдеров, которые поддерживаются и GeForce3, и GeForce 4. И это автоматически делает GeForce 4MX несовместимым с API DirectX 8.1. Другой вопрос - много ли игр, использующих сегодня пиксельные шейдеры? Да, мало, но рано или поздно они все равно появятся, и тогда этот недостаток вылезет на всеобщее обозрение. А пока что, чуть ли не единственное приложение, где он проявляется - тест 3DMark 2001. В нем не идет сцена Game 4: Nature. С другой стороны, GeForce4 MX содержит довольно продвинутый контроллер памяти, "взятый" из GeForce4. Благодаря этому недостаточная пропускная способность памяти, являющаяся "бичом" многих современных видеокарт, ощущается здесь не так сильно, как в случае с GeForce2/GeForce 2MX. Ну что ж, перейдем к измерению скорости работы. Тесты проводились на такой конфигурации:
В тестах, помимо GeForce4 MX, участвовали еще ATI RadeOn 8500 LE и Leadtek GeForce2 Ti. Для измерений использовались:
Такой выбор программного обеспечения обусловлен следующими факторами. Quake III является сегодня, по сути, стандартным тестом, использующимся практически во всех тестированиях. Поэтому, данные, полученные в Quake III, интересны, прежде всего, с той точки зрения, что их можно сравнить с результатами других замеров, выполненных на других платах, в других режимах и т.п. 3DMark 2001 можно считать чуть ли не идеальным средством изучения производительности видеокарты в Direct 3D. Этот тест примечателен тем, что в отличие от Quake III, который работает на довольно "древнем" движке, он использует команды DirectX 8, и, таким образом, позволяет графической карте в большей мере раскрыть свой потенциал. Wolfenstein, хоть и основан на ядре Quake, но так основательно пригружает машину, что даже относительно быстрые видеокарты подчас не способны обеспечить должный уровень FPS в сложных сценах. Поэтому, тест в Wolfenstein призван продемонстрировать, в каком разрешении видеокарта достигнет своего минимального предела. Но, перейдем непосредственно к тестам.
Итак, Quake III. Здесь все однозначно: лидирует Radeon 8500LE, за ним с некоторым отставанием идет GeForce4 MX, замыкает гонку GeForce2 Ti.
![]()
А вот в Wolfenstein GeForce4 MX выходит на первое место, пусть не намного, но обгоняя Radeon 8500 LE. Последнее место снова занял GeForce2 Ti. Стоит, пожалуй, обратить внимание на абсолютные значения FPS: разрешение 1024х768@32 оказывается предельным для GeForce4 MX. Комфортной игры при FPS меньше 60 кадров ожидать не приходится, ведь это средний FPS, стало быть минимальный - еще меньше.
![]() Тесты в 3DMark 2001 снова демонстрируют преимущество Radeon 8500LE над GeForce4 MX и отставание GeForce2 Ti. В зависимости от конкретной сцены абсолютные значения, конечно же, меняются, но общая расстановка сил остается прежней.
![]() ![]() Следовательно, можно констатировать: GeForce4 MX работает медленнее RadeOn 8500LE, но быстрее GeForce2 Ti. При этом, исходя из результатов тестов, проведенных нашими коллегами из других изданий, GeForce4 MX работает медленнее GeForce3 Ti 200.
В работе - FSAA Режимы полноэкранного сглаживания интересны, прежде всего, для тех, кто играет в разрешениях порядка 800х600, но обладает видеокартой, способной на большее. Или просто хочет получить высокое качество изображения в разнообразных квестах-ходилках-бродилках, т.е. в играх, где высокий FPS не нужен. GeForce4 MX поддерживает два "нестандартных" режима полноэкранного сглаживания: Quincunx и 4xS. Первый хоть и работает довольно быстро, но довольно ощутимо мылит текстуры. В то же время второй характеризуется очень высоким качеством, которое явно выше, чем при обычном сглаживании 4х4. При этом скорость работы видеокарты в режимах 4x4 и 4xS практически одинаковая. По крайней мере, так утверждает nVidia.
Как говориться, лучше один раз увидеть, чем сто раз услышать. Давайте просто посмотрим скриншоты, полученные в 3DMark 2001 в разных режимах на GeForce4 MX и Radeon 8500LE:
![]()
Какой режим обеспечивает лучшее качество, а какой - худшее, решайте сами. Мы же изучим вопрос о падении производительности, которое наблюдается при включении режимов полноэкранного сглаживания:
![]() Действительно, скорость работы в режимах 4xS и 4х4 сопоставима и оказывается в 3-4 раза меньше, чем при отключенном полноэкранном сглаживании. Собственно, так и должно быть, ведь суть метода FSAA заключается в том, что картинка рендерится в более высоком разрешении, а потом "уменьшается" до видимого разрешения.
В работе - разгон Какое же исследование новой видеокарты обходится без изучения вопроса о разгоне?! Хоть мы и не являемся сторонниками экстремального оверклокинга, эксперименты по разгону все же поставили. Нам удалось повысить частоту, на которой работала видеокарта PixelView GeForce4 MX440 с 270/200 МГц до 305/235 МГц. Результат хоть и не рекордный, но вполне приемлемый.
Выводы Что же получается в итоге? GeForce4 MX - видеокарта, производительность которой лежит в пределах GeForce2Ti - GeForce3 Ti. Она не полностью совместима DirectX 8.1, зато имеет расширенные возможности по работе в 2D и воспроизведению DVD. Стоит ли покупать GeForce4 MX прямо сейчас? Пожалуй, не стоит. Как это обычно бывает, "горячие" новинки поначалу продаются по завышенной цене. Оно и неудивительно - продавцы снимают сливки, рассчитывая на нетерпеливых "маньяков". Когда же первая волна ажиотажа спадает, цены приходят в норму. По всей видимости, в случае с GeForce4 MX это произойдет ближе к маю месяцу. И вот тогда, выбирая видеокарту между GeForce4 MX, GeForce3 Ti 200 и GeForce2 Ti, стоит, пожалуй, остановиться на первом варианте. Особенно он будет интересен тем, кто работает с двумя мониторами или же любит смотреть DVD/MPEG4 фильмы на телевизоре.
Благодарим компанию
Благодарим компанию |
|
![]() | ||||||||||||||||
| ||||||||||||||||
![]() | ||||||||||||||||
|