Обзор чипсет nvidia. Чипсеты семейства NVIDIA nForce. Контроллер оперативной памяти

Современные видеокарты на чипсетах компании NVIDIA

Алексей Шобанов

реди тех, кто хоть как-то связан с использованием ПК в повседневной жизни, вряд ли найдется сегодня хоть один человек, которому не знакома аббревиатура «NVIDIA». Название этой компании уже давно стало своего рода синонимом понятия «видеокарта», а также символом высочайшей производительности. Однако серьезная конкуренция в этом секторе ИТ-рынка никогда не позволяет NVIDIA почивать на лаврах, а в последнее время борьба за лидерство обострилась на столько, что говорить о ее безоговорочном лидерстве было бы уже не совсем корректно. Тем не менее компания NVIDIA была, есть и, надеемся, будет и впредь одним из лидеров индустрии кремниевой логики для графических карт. Компания NVIDIA предлагает свои решения для всего спектра графики, начиная от чипсетов для недорогих видеокарт так называемого low-end-сектора (здесь уместно упомянуть и о наборах микросхем системной логики с интегрированным графическим ядром серий nForce, nForce 2 и nForce 3, которое также можно причислить к бюджетным решениям видеоподсистемы) и заканчивая наборами микросхем для hi-end-графики и профессиональных видеокарт.

Темой же данного обзора станут современные чипсеты NVIDIA поколения DirectX 9 с интерфейсом AGP. Хотя эти наборы микросхем значительно отличаются по производительности, цене, и в той или иной мере, по своей технической реализации, их объединяет то, что все они поддерживают работу API DirectX 9, а это, в свою очередь, обусловливает обязательное наличие поддержки пиксельных и вершинных шейдеров версии 2.0. К числу таких чипсетов следует отнести наборы микросхем серии GeForce FX, основанные на графическом ядре NV30 (GeForce FX 5800 и GeForce FX 5800 Ultra), на пришедшем ему на смену NV35 (GeForce FX 5900, GeForce FX 5900 Ultra и GeForce FX 5900 FX), на NV38 (GeForce FX 5950 Ultra), на NV31 (GeForce FX 5600 и GeForce FX 5600 Ultra), наследником которого стало ядро NV36 (GeForce FX 5700 и GeForce FX 5700 Ultra), а также на ядре NV34 (GeForce FX 5200, GeForce FX 5200 Ultra и GeForce FX 5500). C некоторой оговоркой к этому же поколению можно отнести и последние чипсеты серии GeForce 6, появление которых стало новым этапом в развитии компьютерной графики, поскольку, помимо прочего, графическое ядро NV40, положенное в основу чипов этой серии, стало первым решением, поддерживающим пиксельные и вершинные шейдеры версии 3.0. Таким образом, отбросив уже покидающие «большую сцену» чипы на ядре NV30 и NV31, в этом обзоре мы решили рассмотреть возможности следующих графических чипсетов компании NVIDIA: GeForce FX 5500, GeForce FX 5700, GeForce FX 5700 Ultra, GeForce FX 5900 FX, GeForce FX 5900, GeForce FX 5900 Ultra, GeForce FX 5950 Ultra, GeForce 6800, GeForce 6800 GT, GeForce 6800 Ultra.

Начнем наш обзор с краткой спецификации современных графических чипсетов NVIDIA, которая наглядно иллюстрирует их возможности, и, опираясь на эти данные, попробуем указать на достоинства и недостатки этих решений (табл. 1).

Таблица 1. Технические характеристики современных графических чипсетов NVIDIA

Представленные в таблице чипсеты, выпускаемые сегодня компанией NVIDIA, практически полностью охватывают все ценовые сегменты рынка ПК - от решений для геймеров и энтузиастов (GeForce FX 5900 Ultra, GeForce FX 5950 Ultra, GeForce 6800, GeForce 6800 GT, GeForce 6800 Ultra) до рынка бюджетных ПК (GeForce FX 5500, а также GeForce FX 5200 и GeForce FX 5200 Ultra, не вошедшие в данный обзор). Маркетологи NVIDIA проводят более общее деление этих продуктов - например графические чипы серии GeForce FX они условно разбивают на две группы: perfomance (GeForce FX 5700, GeForce FX 5700 Ultra, GeForce FX 5900 FX, GeForce FX 5900, GeForce FX 5900 Ultra, GeForce FX 5950 Ultra) и mainstream (GeForce FX 5500, GeForce FX 5200 и GeForce FX 5200 Ultra). Основой для подобной классификации служат не только показатели производительности и цены чипов, но и реализованные в них технологии (табл. 2).

Пожалуй, следует сказать несколько слов о том, что скрывается за звучными названиями этих технологий.

Начнем с CineFX. В общем понимании CineFX - это архитектура графического ядра, которая позволяет чипам NVIDIA воссоздавать различные эффекты кинематографического качества для игра и других прикладных задач в реальном времени. Наиболее емко характеризуют данную архитектуру такие возможности, как гибкость, адаптивность и программируемость. Так, для архитектуры CineFX отсутствует понятие пиксельного конвейера в классическом смысле этого термина. Здесь уже нет набора независимых, логически завершенных параллельно работающих функциональных единиц - в данном случае речь идет о некоем наборе вычислительных блоков (ALU) и блоков выборки текстур. На основе поставленных задач этот массив элементов образует цепи, являющиеся по своей сути теми самыми пиксельными конвейерами, при этом адаптивно пытаясь воссоздать наиболее производительную архитектуру за счет варьирования числа блоков выборки текстур, связанных в образуемый конвейер. Еще одной неотъемлемой частью архитектуры CineFX является расширенная поддержка пиксельных и вершинных шейдеров DirectX 9, что особо подчеркивается компанией NVIDIA: даже в спецификациях чипов обозначается номер версии шейдеров - 2.0+. Что же означает этот плюс? А то, что в отношении пиксельных шейдеров план перевыполнен по всем показателям: максимальная длина пиксельного шейдера для графического ядра с архитектурой CineFX практически неограниченна (до 2048 инструкций при требуемых 96), а кроме того, намного увеличено количество заранее заданных констант и временных регистров. Реализация поддержки вершинных шейдеров также честно заслужила свой значок, поскольку архитектура CineFX предусматривает значительное увеличение числа используемых регистров.

Логическим продолжением архитектуры CineFX стали ее последующие версии - CineFX 2.0 (графическое ядро NV35 и NV36/38) и CineFX 3.0 (графическое ядро NV 40) - которые характеризуются скорее эволюционными, нежели революционными изменениями. Так, к примеру, в архитектуре CineFX 2.0 была вдвое повышена производительность блоков работы с числами с плавающей запятой, которые используются при исполнении пиксельных шейдеров.

Теперь рассмотрим технологию Intellisample HCT (High-resolution Compression Technology), сущнсть которой в полной мере отражена в ее названии: HCT - это совокупность алгоритмов компрессии текстур, буфера кадра и Z-буфера, позволяющих значительно увеличить производительность при работе в больших разрешениях. Так на официальном сайте NVIDIA указывается, что при работе с максимальными настройками качества изображения и разрешении 1600Ѕ1200 и выше производительность увеличивается до 50%. Поэтому вполне естественным кажется то, что в картах, позиционируемых компанией как mainstream-решения, то есть в картах нижнего middle-end-уровня, подобная технология отсутствует.

Технология UltraShadow — еще один способ снизить вычислительную нагрузку на графическое ядро. На этот раз хитрость заключается в том, что при расчете теней можно задавать граничные координаты, до и после которых построение теней выполняться не будет.

nView — это поддерживаемая ПО NVIDIA ForceWare технология, которая обеспечивает возможность многоэкранной работы. Подключив к видеокарте два монитора (сегодня это позволяют делать все построенные на перечисленных графических чипах видеокарты), пользователь получает возможность с помощью NVIDIA nView сконфигурировать вдвое большее виртуальное рабочее пространство. К примеру, имея один компьютер, можно на одном мониторе просматривать презентацию, а на другом — работать, предположим, с документом Word.

Все вышеописанные классификации и технологии относятся к чипам серии NVIDIA GeForce FX, а решения поколения GeForce 6 при этом оказались в стороне. И это не случайно: сегодня графические карты на графическом ядре NV40 - это топовое решение вне классификаций. Чипсеты на его основе сложно вписать в рамки, по которым ранжируют графику семейства GeForce FX, - это будет выглядеть так же нелепо, как попытка найти великану подобающее место в строю карликов. Ведь даже самый скромный из чипов GeForce 6 - GeForce 6800, позиционируемый в своем классе как решение для широкого круга пользователей (mainstream), по своим возможностям не идет ни в какое сравнение даже с самым производительным решением из серии GeForce FX. Поэтому отдельно остановимся на тех наработках и технологиях, которые специалисты компании NVIDIA реализовали в графическом ядре NV40.

При создании этого графического ядра нового поколения применялся как экстенсивный так и интенсивный подход. Первый нашел свое выражение в увеличении числа пиксельных конвейеров (хотя говорить о конвейере в привычном понимании здесь нельзя), которые теперь могут обрабатывать до 16 пикселов за такт. Количество вершинных конвейров было увеличено до 6. Качественные же изменения коснулись реализации поддержки пиксельных и вершинных шейдеров. В отношении графического ядра NV40 речь идет уже не о расширенных возможностях шейдеров в версии 2.0, а о полноценной реализации шейдеров версии 3.0, что подразумевает использование в вершинных и пиксельных программах-шейдерах динамических ветвлений и циклов. Данные нововведения свидетельствуют о том, что ядро NV40 построено на основе нового поколения архитектуры CineFX - CineFX 3.0, позволяющей добиться еще более реалистичного изображения, что стало очередным шагом на пути к реализации компьютерной графики кинематографического качества. В чипах серии GeForce 6 была усовершенствована и описанная выше технология UltraShadow, которая теперь носит название UltraShadow II. В ней, как и прежде, отрисовка теней происходит только в заданном диапазоне, но на этот раз скорость расчетов увеличилась, чему в не малой степени способствует тот факт, что при работе с Z-буфером и буфером шаблонов пиксельные конвейеры графического ядра NV40 способны удвоить скорость и обрабатывать не 16, а 32 пиксела за такт. Еще одним новшеством, с помощью которого повышается реалистичность компьютерного изображения, стала технология NVIDIA HPDR (High-Precision Dynamic Range). Применение данной технологии позволяет строить сцены с высоким динамическим диапазоном освещенности за счет реализации полноценной поддержки вычислений с плавающей запятой при выполнении операций фильтрации, текстурирования, смешения и сглаживания; при этом используется формат представления данных OpenEXR. И наконец, в графическом ядре NV40 реализован программируемый видеопроцессор, что позволило значительно снизить загрузку центрального процессора и улучшить качество при просмотре видео в форматах MPEG-1/2/4 и WMV9, а также HDTV. Это стало возможным благодаря реализации аппаратной поддержки кодирования и декодирования перечисленных форматов представления видеопотока.

В заключение несколько затянувшейся теоретической части стоит, пожалуй, рассказать о «генеалогическом древе» описываемых графических чипсетов, поскольку определение «родственных» связей позволит более точно позиционировать чипсет, опираясь на понимание их архитектуры и заложенных в них функциональных возможностей. Начнем с семейства GeForce FX.

Родоначальником GeForce FX можно считать графическое ядро NV30, которое легло в основу графических чипсетов GeForce FX 5800/5800 Ultra. Нельзя сказать, что это графическое ядро стало крупной удачей компании NVIDIA, основной причиной чему стало, наверное, не самое удачное решение в организации работы с видеопамятью - 128-битный контроллер, энергоемкая «горячая» память GDDR2, как следствие, дополнительные проблемы по организации ее охлаждения. Прямыми наследниками архитектуры NV30 стали графические ядра NV31 (GeForce 5600/5600 Ultra) и NV34 (GeForce 5200/5200 Ultra и GeForce 5500), которые, по сути, являются урезанными версиями NV30, хотя и имеют свои особенности, например возвращение к графической памяти GDDR.

Учтя недостатки первенца серии GeForce FX - графического ядра NV30 - по прошествию довольно небольшого времени компания NVIDIA выпустила на рынок новое поколение графических чипов GeForce 5900, построенных на основе нового топового графического ядра - NV35. При создании этого ядра был использован 256-битный контроллер видеопамяти, в качестве которой использовались модули GDDR. Пожалуй, можно даже говорить о том, что ревизии и доработке была подвергнута вся архитектура CineFX, легшая в основу создания графического ядра NV30, - теперь она стала именоваться CineFX 2.0. В чем заключаются эти изменения - уже было описано выше. Кроме того, в графическом ядре NV35 впервые была реализована технология UltraShadow, а усовершенствованные алгоритмы компрессии текстур, буфера кадра и Z-буфера были объединены под эгидой технологии Intellisample HCT (High-Resolution Compression Technology). Судьба чипсетов на ядре NV35 оказалась куда более удачной, нежели его предшественника - чипы GeForce FX 5900XT/5900/5900 Ultra, в основу которого легло именно это графическое ядро, и стали предметом нашего рассмотрения. Но венцом серии GeForce FX стало графическое ядро NV38 и основанный на нем чипсет GeForce FX 5950 Ultra. Хотя по своей сути это графическое ядро является разогнанной версией NV35, тем не менее и здесь не обошлось без инноваций. Так, была изменена конструкция системы охлаждения, а кроме того, чипы на графическом ядре NV38 имеют два режима работы - 2D и 3D, с автоматическим переключением между ними. Это позволяет снизить тепловыделение графического чипа, а также уменьшить скорость вращения (и соответственно снизить шум) вентилятора охлаждения графической карты, что становится возможным благодаря снижению тактовой частоты графического ядра при работе с нересурсоемкими 2D-графическими приложениями. Как и в случае с NV30, для охвата большего спектра рынка видеокарт компания NVIDIA выпустила и бюджетные решения, в основу которых были положены наработки, реализованные в графическом ядре NV35. На этот раз в роли младших братьев выступили графические чипы GeForce FX 5700/5700 Ultra (ядро NV36). Хотя в данном случае правильнее говорить о том, что NV36 - это все же упрощенный вариант ядра NV38, а не NV35. Основанием для подобного утверждения послужил тот факт, что, как и GeForce FX 5950 Ultra, графические чипы NVIDIA GeForce FX 5700/5700 Ultra имеют два режима работы - для 2D- и 3D-графики. При этом, как в случае с NV38, графическое ядро NV36 в 2D-режиме работает на частоте 300 МГц.

Говоря о появлении облегченных вариантов типовых моделей графических чипов с целью расширить спектр выпускаемых графических решений, нужно обратить внимание и еще на на один подход, широко применяемый сегодня ведущими производителями. Его суть сводится к тому, что на основе одного графического ядра выпускаются несколько вариантов чипов, различающихся лишь тактовой частотой работы ядра и видиопамяти. Обычно модельный ряд таких решений включает базовый чип и его «ускоренную» (Ultra) и «замедленную» (XT) версии.

О построении «родового дерева» семейства GeForce 6 говорить пока не приходится, хотя ядро NV40 уже дало первый побег - NV43. Это первое графическое ядро от NVIDIA, имеющее родной интерфейс PCI Express 16x. Хотя рассмотрение графики с этим интерфейсом выходит за рамки данного обзора, однако, коль скоро речь зашла о видеокартах с интерфейсом PCI Express, стоит сказать, что до появления графического ядра NV43 все ранее выпускаемые компанией NVIDIA чипсеты для этого интерфейса были всего лишь тандемом графического AGP-процессора и моста AGP-PCI Express. К примеру, под именем GeForce PCX 5750 скрывается хорошо знакомый нам чип GeForce FX 5700.

После пространных теоретических выкладок пришло время перейти к практической части нашего обзора. Мы попытаемся оценить возможности видеокарт, построенных на основе рассматриваемых графических чипсетов NVIDIA, при работе с современными ресурсоемкими приложениями. Для этой цели нами было проведено тестирование следующих видеокарт: WinFast A400 Ultra TDH (GeForce 6800 Ultra), WinFast A400 GT TDH (GeForce 6800 GT), Chaintech Apogee AA6800 и ASUS V9999GE (GeForce 6800), Gigabyte GV-N595U256GT (GeForce FX 5950 Ultra), ASUS V9950 Ultra (GeForce FX 5900 Ultra), Point of view FX-5900 (GeForce FX 5900), Point of view FX-5900XT (GeForce FX 5900XT), MSI FX5700 Ultra-TD128 (GeForce FX 5700 Ultra), MSI FX5700-TD128 (GeForce FX 5700), Point of view FX-5500 GeForce FX 5500) и Albatron PCX5750 (GeForce PCX 5750). Последняя из перечисленных видеокарт была взята для того, чтобы на практике оценить влияние смены интерфейса на производительность графического чипа (напомним, что, как указано выше, графический чипсет GeForce PCX 5750 представляет собой чип GeForce FX 5700, взаимодействующий с PCI Express-интерфейсом посредством дополнительного чипа-моста AGP-PCI Express 16x).

Основной упор при проведении тестирования делался на оценку производительности в современных 3D-играх, для чего были использованы тестовые сцены из таких популярных компьютерных игр, как FarCry, Tomb Raider: The Angel of Darkness, Unreal Tournament 2004, Serious Sam: Second Encounter и, конечно же, DOOM III. В качестве синтетических тестов, позволяющих определить производительность графических карт при работе с 3D- и 2D-приложениями, были использованы тестовые пакеты FutureMark 3DMark 2003 (build 340) и FutureMark PCMark 2004 соответственно. Кроме того, мы попытались оценить возможности тестируемых видеокарт при работе с профессиональными графическими OpenGL-приложениями (для чего воспользовались тестовой утилитой SPEC Viewperf 8.0.1), а также при работе с популярным пакетом Discreet 3d studio max 6.0 (тест SPECapc_3dsmax_rev1_1). Для проведения тестирования были собраны два стенда следующей конфигурации:

Для карт с AGP-интерфейсом:

Центральный процессор — Intel Pentium 4 3,4 ГГц,

Системная память — 2Ѕ512 DDR400 (PC3200),

Материнская плата — Intel D875PBZ,

Дисковая подсистема — 2ЅMaxtor MaXLine III (250 Гбайт), собранные в RAID-массив 0-го уровня;

Для карт с интерфейсом PCI Express 16x:

Процессор — Intel Pentium 4 550 (3,4 ГГц),

Память — 2Ѕ512 DDR2 533,

Материнская плата — Intel D925XCV,

Дисковая подсистема — 2ЅMaxtor MaXLine III (250 Гбайт), собранные в RAID-массив 0-го уровня.

Тестирование проводилось под управлением операционной системы Windows XP SP1 с установленной версией API DirectX 9.0с. Для обеспечения работы испытываемых видеокарт использовались видеодрайверы ForceWare 61.77. Внесем некоторую ясность относительно усиленногов тестировании внимания графических карт на чипах NVIDIA GeForce 6800. Дело в том, что модели Chaintech Apogee AA6800 и ASUS V9999GE изначально выполнены с несколько увеличенной тактовой частотой работы графического ядра и памяти. По этой причине мы решили и показать возможности как доработанных решений, и протестировать одну из этих карт в штатных частотах, определяемых спецификациями чипа GeForce 6800.

Полученные в ходе тестирования результаты не принесли никаких неожиданностей (табл. 3 и ): по уровню демонстрируемой производительности видеокарты расположились строго в соответствии с рангом графических чипов, лежащих в их основе. Отметим лишь три момента. Во-первых, при анализе результатов тестирования становится очевидным преимущество видеокарт, построенных на основе графического ядра NV40, над картами семейства GeForce FX, причем это преимущество нарастает при увеличении нагрузки на видеоподсистему (при увеличении разрешения и улучшении настроек качества изображения). Обращает на себя внимание и лучшее качество «картинки» новых чипов поколения GeForce 6. Так, к примеру, значительно улучшилось качество полноэкранного сглаживания за счет использования мультисэмплинга на повернутой решетке. Во-вторых, при просмотре результатов, показанных тестируемыми картами в таких чрезвычайно требовательных к ресурсам играх, как FarCry, Tomb Raider: The Angel of Darkness, DOOM III, становится ясно, что комфортную игру с приемлемыми настройками качества способны обеспечить лишь графические карты начиная от GeForce 5900 и выше. А по-настоящему насладиться красотами подобной 3D-графики позволяют только графические карты семейства NVIDIA GeForce 6 - естественно при наличии соответствующей им по производительности всей компьютерной системы в целом. И в-третьих, PCI Express-карты, несмотря на все достоинства этого интерфейса, в своем нынешнем виде не дают никаких преимуществ в сравнении с их AGP-аналогами.

Но если по поводу производительности современных видеокарт, построенных на графических чипах NVIDIA, все было известно заранее и общий порядок полученных результатов мог предсказать любой знакомый с предметом человек, то вопрос оптимальности покупки наверняка вызовет споры. Тем не менее выскажем свое мнение по этому поводу: оптимальным соотношением «качество/цена» с позиции обычного домашнего пользователя, на наш взгляд, обладают видеокарты на чипах NVIDIA GeForce FX 5900XT, ну а заядлым геймерам мы бы порекомендовали видеокарты на основе графики NVIDIA GeForce 6800GT.

) за видеокарты MSI FX5700 Ultra-TD128 и MSI FX5700-TD128;

  • компании R&K (www.r-andk.com) за видеокарты Point of view FX-5900, Point of view FX-5900XT и Point of view FX-5500.
  • Смотрите в этой статье:

    Видеокарты на базе NVIDIA GeForce RTX 2070, которым посвящен данный материал, являются младшими моделями из уже представленных на данных момент графических адаптеров нового поколения с архитектурой NVIDIA Turing.

    Если не брать во внимание очень специфическую NVIDIA Titan RTX стоимостью $2500, то пользовательские видеокарты с архитектурой NVIDIA Turing представлены семейством NVIDIA GeForce RTX 2080 Ti, RTX 2080 и RTX 2070. Это видеокарты высокого класса, а через некоторое время планируется появление и более простых устройств типа RTX 2060.

    Смотрим на характеристики

    Графические процессоры для новых видеокарт Turing выполняются по более «тонкому» 12-нанометровому техпроцессу. Но, по слухам, этот техпроцесс не является чем-то принципиально новым, а представляет собой лишь чуть доработанную версию 16-нанометрового техпроцесса, который используется в предшественниках.

    Для удобства сравнения характеристики новых GeForce RTX 2080 Ti, RTX 2080 и RTX 2070 и предшественников GeForce GTX 1080 Ti, GTX 1080 и GTX 1070 мы свели их в одну таблицу.

    От поколения к поколению видеокарт NVIDIA можно наблюдать рост стоимости видеокарт. Но если ранее он был довольно плавным, то в данном случае адаптеры NVIDIA Turing значительно превзошли предшественников по цене.

    За что платим?

    Отчасти такое повышение можно объяснить увеличившейся сложностью новых GPU. Обратите внимание, что они имеют сильно возросшее количество транзисторов и значительно более высокую площадь кристалла. Соответственно, можно предположить, что себестоимость таких кристаллов оказывается выше.

    Есть некоторые девиации по значениям частот GPU. Память теперь новая. Вместо GDDR5X и GDDR5 видеокарты RTX получили GDDR6.

    Но примечательно, что объем памяти в новом поколение видеокарт остался на том же уровне, что и у предшественников.

    Очень важно, что появились совершенно новые ядра RT и тензорные ядра. Именно этим обусловлен такой рост числа транзисторов и площади кристалла GPU.

    Трассировка лучей

    Поколение видеокарт RTX 2080 Ti, RTX 2080, RTX 2070 на базе архитектуры Turing сама NVIDIA называет революционной и связывает это с аппаратной поддержкой трассировки лучей в реальном времени.

    Для этого внедрены упоминаемые выше RT-ядра. NVIDIA считает это настолько важным, что привычную приставку GTX в новых видеокартах даже заменили на RTX, где RT - Ray Tracing (трассировка лучей).

    Данной технологии на презентации видеокарт нового поколения было уделено чуть ли не главное внимание.

    Если упрощенно, то с Ray Tracing связаны новые эффекты отражений на объектах (в том числе взаимных), отражений света и прохождения лучей сквозь объекты. При этом лучи могут иметь реалистичное преломление, наложение и т. д. Ray Tracing также позволяет использовать более реалистичные смягченные тени и формировать правдоподобное освещение.

    Это действительно очень важное нововведение для индустрии, но, как ни парадоксально, именно с технологией Ray Tracing и связывают довольно холодный прием новых видеокарт пользователями.

    Новые RT-ядра сделали кристалл более крупным и дорогим, а что пользователи получают взамен?

    На момент выхода видеокарт RTX не было ни единой игры, которая бы обладала поддержкой Ray Tracing. Сейчас ситуация меняется, но очень медленно.

    К примеру, попробовать Ray Tracing вообще в какой-либо игре стало возможно совсем недавно с выходом Battlefield V.

    Как оказалось, картинка в Battlefield V с эффектами меняется не так и кардинально. Улучшения есть, но совсем не скажешь, что получаешь принципиально новый уровень восприятия.

    А вот вычислительные ресурсы Ray Tracing «подъедает» существенно. При активации трассировки лучей производительность может падаем более чем вдвое.

    В результате, даже с дорогущей топовой NVIDIA GeForce RTX 2080 Ti, уровень FPS при Full HD-разрешении, максимальных настройках качества с использованием Ray Tracing не всегда сможет удовлетворить требовательного геймера.

    А что тогда говорить о более простых RTX 2080, RTX 2070 и более высоких разрешениях?

    Получается, что на данный момент игр с Ray Tracing практически нет, визуально разница в изображении с эффектами RT не такая кардинальная, а активация трассировки приводит к большому падению уровня FPS.

    Для пользователей Ray Tracing в реальном времени пока является лишь потенциально перспективной технологией. Посмотрим, как будет развиваться ситуация.

    DLSS-сглаживание, тензорные ядра и искусственный интеллект

    Вдобавок к совершенно новым RT-ядрам в видеокартах RTX появились и тензорные ядра, предназначенные для рассчетов ИИ и нейросетей. Они работают в связке c RT-ядрами, но тензорные ядра могут использоваться и для других функций.

    На базе их работы реализован новый метод сглаживания - DLSS (Deep Learning Super Sampling). Используется сниженное разрешение рендеринга, но за счет ИИ и тензорных ядер видеокарта преобразовывает изображение в более качественное, «додумывая» новые детали.

    В зависимости от особенностей реализации за счет этого можно добиться увеличения производительности, повышения качества изображения или того и другого одновременно.

    Опять-таки, как и в случае с Ray Tracing, для работы DLSS необходима поддержка со стороны игр. Указывается, что несколько десятков готовящихся к выходу игр будут поддерживать DLSS-сглаживание.

    Одним из немногих тестов, где уже сейчас можно проверить DLSS, стал бенчмарк Final Fantasy XV Benchmark. Если в системе установлена видеокарта GeForce RTX, в настройках появляется соответствующий пункт, позволяющий активировать DLSS.

    По нашим тестам, активация DLSS привела к существенному увеличению производительности.

    Качество изображения с использованием DLSS и с обычным TAA-сглаживанием в данном приложении сопоставимо. Вы можете самостоятельно сравнить кадры с DLSS и с TAA.

    DLSS
    TAA

    Что еще нового?

    Продолжает совершенствоваться технология автоматического повышения частоты GPU. В видеокартах NVIDIA RTX используется уже четвертое поколение GPU Boost.

    Добавлена возможность ручной корректировки алгоритма работы разгона. Но куда более интересно, что впервые появилась функция автоматического разгона.

    Если ранее для определения предельной частоты GPU требовалось экспериментировать, запускать различные игры, приложения, то сейчас процесс может быть сильно упрощен.

    В приложениях типа MSI AfterBurner доступен новый пункт Nvidia Scanner. Нажав всего одну кнопку, через минут 15 автоматических тестов вы получите измененную кривую частот/напряжений GPU, соответственно, с более высокими значениями частот.

    В наших тестах для всех видеокарт RTX 2070 мы проверяли такой автоматический разгон. Конечно, для получения еще более высоких результатов оверклокинга придется все же проводить более сложный разгон «вручную».

    К видеокартам RTX можно подключить сразу два монитора с разрешением 8K. Максимальная кадровая частота будет составлять 60 Гц у обоих устройств вывода изображения.

    Порты DisplayPort теперь соответствуют версии DisplayPort 1.4a, а HDMI - HDMI 2.0b. Обратите также внимание на наличие разъема USB Type-C прямо на видеокарте. Он предназначен для новых VR-шлемов.

    Впрочем, этот порт может использоваться для любых устройств с поддержкой USB Type-C.

    Вполне ожидаемо, что была проведена работа с различными видеокодеками. Например, добавлена поддержка компрессии данных в формате H.265 (HEVC) в режиме разрешении , а также повышено качество кодирования. Учитывая, что сегодня видеокарты активно используются при видеомонтаже, это весьма актуально.

    Возможность объединения нескольких видеокарт в одной системе теперь доступна только в видеокартах самого высокого класса. NVIDIA GeForce RTX 2070 такой функции лишены.

    Участники теста

    В одном тесте нам удалось собрать сразу четыре видеокарты на базе NVIDIA GeForce RTX 2070 от разных производителей.

    Это модели ASUS ROG Strix GeForce RTX 2070 OC edition, Gigabyte AORUS GeForce RTX 2070 XTREME 8G, Inno3D GeForce RTX 2070 Gaming OC X2 и MSI GeForce RTX 2070 GAMING Z 8G.

    Все они имеют значительные отличия от референсных RTX 2070, получили повышенные частоты и используют фирменные системы охлаждения.

    Сравнительная таблица характеристик

    Кодовый идентификатор модели ROG-STRIX-RTX2070-O8G-GAMING GV-N2070AORUS X-8GC N20702-08D6X-2511683 -
    Поставщик Представ-во ASUS Представ-во Gigabyte Представ-во Inno3D Представ-во MSI
    Цена, $ 796 742 675 725
    Результаты измерений
    Производительность 87,49 87,73 86,21 87,93
    100 96,91 98,54 98,79
    Производитетльнось/Цена 86,7 93,26 100 95,66
    Технические характеристики
    Чипсет NVIDIA GeForce RTX 2070 NVIDIA GeForce RTX 2070 NVIDIA GeForce RTX 2070 NVIDIA GeForce RTX 2070
    Техпроцесс чипсета, нм 12 12 12 12
    Тип и объем памяти, ГБ GDDR6, 8 GDDR6, 8 GDDR6, 8 GDDR6, 8
    Конструкция системы охлаждения фирменная фирменная фирменная фирменная
    Количество вентиляторов системы охлаждения 3 3 2 2
    Количество занимаемых слотов 3 3 2 3
    Субъективная оценка шумности охлаждения Отлично Отлично Хорошо Отлично
    Номинальная частота GPU 1410 1410 1410 1410
    Boost-частота GPU 1815 1815 1755 1830
    Результирующая частота памяти, МГц 14000 14142 14000 14000
    Шина памяти, бит 256 256 256 256
    Требует дополнительного питания? да да да да
    Тип разъема доп. питания 6pin+8pin 6pin+8pin 6pin+8pin 6pin+8pin
    Количество выходов HDMI/DisplayPort/USB Type-C 2/2/1 3/3/1 1/3/1 2/2/1

    ASUS ROG Strix GeForce RTX 2070 OC edition (ROG-STRIX-RTX2070-O8G-GAMING)

    Представленная в тесте ASUS ROG Strix GeForce RTX 2070 OC edition на данный момент является самой мощной, в плане частоты GPU, и продвинутой среди всех видеокарт ASUS на базе RTX 2070 .

    Она имеет традиционный для ASUS ROG Strix дизайн, который практически не изменился со времен прошлого поколения.

    Устройство получилось довольно крупным и в системе займет три слота расширения.

    Тут используется модифицированная плата с конфигурацией фаз питания 10+2 и фирменная система охлаждения с тремя вентиляторами.

    Как заявляется, вентиляторы имеют специальную конструкцию, а внутренности защищены от пыли. Кстати, направление вращения всех вентиляторов одинаковое.

    Массивный радиатор СО пронизан шестью тепловыми трубками. Подошва теплоприемника имеет особую обработку, которую ASUS называет технологией MaxContact.

    При осмотре ASUS ROG Strix GeForce RTX 2070 OC edition (ROG-STRIX-RTX2070-O8G-GAMING) со всех сторон обнаруживаются любопытные детали.

    На плате установлены сразу две микросхемы BIOS с немного измененными режимами работы платы. Один из них (Performance) предусматривает повышенную эффективность охлаждения, что достигается более высокими скоростями работы вентиляторов, а второй (Quiet) рассчитан на более тихую эксплуатацию. Выбор BIOS осуществляется специальным переключателем.

    Кстати, полная остановка вентиляторов при малой нагрузке становится доступна только при использовании варианта BIOS с режимом Quiet.

    На торце выведена специальная кнопка для быстрого отключения/включения подсветки. Это неплохое решение, когда надо погасить свечение без использования фирменного ПО.

    Также на плате предусмотрена площадка для ручного измерения напряжения RAM, GPU, PLL и набор контактов для подключения светодиодной ленты и корпусных вентиляторов. Скорость вращения этих вентиляторов можно связать с температурой GPU. Это классная функция.

    На одной из сторон ASUS ROG Strix GeForce RTX 2070 OC edition можно заметить контакты для подключения светодиодной ленты и корпусных вентиляторов

    Частота памяти в данной модели соответствует референсной, а вот Boost-частота GPU повышена очень значительно - с 1620 до 1815 МГц.

    В результате ASUS ROG Strix GeForce RTX 2070 OC edition находится среди лидеров теста по производительности. Превзойти Gigabyte AORUS GeForce RTX 2070 XTREME 8G и MSI GeForce RTX 2070 GAMING Z 8G по скорости не удалось, так как все три модели, включая ASUS, имеют похожие рабочие частоты. Уж очень сильные видеокарты участвуют в тесте.

    Мониторинг работы ASUS ROG Strix GeForce RTX 2070 OC edition в приложении MSI Afterburner

    При работе под нагрузкой в наших условиях температура GPU составила всего 57 ° C . Для всех тестов производительности и замера температуры использовался BIOS с режимом Performance.

    Учитывая довольно высокое энергопотребление видеокарты, это просто великолепный результат. К слову, это самое низкое значение температуры среди всех тестируемых видеокарт на базе RTX 2070 в этом тесте.

    Скорость вращения вентиляторов составила около 1600 об/мин. При работе видеокарта не будет создавать шумовой дискомфорт.

    При использовании автоматического разгона с изначальными настройками максимальная частота GPU почти достигла отметки 2100 МГц.

    ASUS ROG Strix GeForce RTX 2070 OC edition позволяет увеличить предел энергопотребления до 125%. Это самое высокое значение в тесте.

    Система подсветки состоит из нескольких элементов с RGB-подсветкой на передней панели, светящимся логотипом ASUS ROG по боку и еще одним крупным логотипом, выведенным на заднюю пластину.

    Работой подсветки, разумеется, можно управлять. Доступны ряд эффектов, а также возможность смены цвета в зависимости от температуры GPU.

    Особенность: цвет свечения может меняться, но одновременно все элементы подсветки имеют один и тот же цвет.

    Весьма неплохо, но сегодня уже есть и более продвинутые решения, в том числе и среди участников теста. Подсветка видеокарт Gigabyte AORUS и MSI оказалась еще более крутой.

    Фирменное ПО ASUS по возможностям примерно представляет собой объединение MSI Afterburner и GPU-Z

    ASUS ROG Strix GeForce RTX 2070 OC edition - это очень мощная видеокарта на базе RTX 2070 с просто-таки отличной по эффективности системой охлаждения.

    Она находится среди лидеров по производительности, имеет ряд любопытных дополнительных функций в виде двух микросхем BIOS, контактов для вентиляторов корпуса и светодиодной ленты.

    Но при всех своих достоинствах, ASUS ROG Strix GeForce RTX 2070 OC edition обладает и самой высокой стоимости среди других участников теста на базе RTX 2070.

    Оценка ASUS ROG Strix GeForce RTX 2070 OC edition (ROG-STRIX-RTX2070-O8G-GAMING):

    Отличная система охлаждения

    Предел энергопотребления выше чем у других участников

    Двойной BIOS

    Контакты для подключения RGB светодиодных лент и вентиляторов корпуса

    — самая высокая стоимость

    — большие габариты

    — сравнительно скромная комплектация

    Если видеокарты ASUS ROG Strix в новом поколении выглядят почти также, как и в предыдущем, то MSI свою серию GAMING видоизменила существенно .

    Узнаваемый дизайн с преобладанием красного цвета и вставками, напоминающими когти дракона, решили больше не использовать.

    Модель хоть и не такая длинная, но широкая и в системе займет место трех слотов расширения.

    MSI GeForce RTX 2070 GAMING Z 8 G (внимание на приставку Z в названии) выделяется более высокими частотами по сравнению с близнецами MSI GeForce RTX 2070 GAMING X 8 G и MSI GeForce RTX 2070 GAMING 8 G и является самой быстрой RTX 2070 у компании MSI на данный момент.

    Плата типично для серии GAMING переработанная. Распаяна конфигурация фаз питания 8+2. СО состоит из двух вентиляторов и мощного радиатора с шестью тепловыми трубками.

    Если присмотреться, то в каждом вентиляторе чередуются лопасти двух видов. Технология носит название TORX FAN 3.0. В сочетании с новым дизайном рассеивающих пластин радиатора это, по информации производителя, будет способствовать лучшей эффективности.

    Система охлаждения и вправду оказалась очень эффективной.

    Зафиксированная температура под нагрузкой - 66 °C. Но удивило другое. Данная температура держится при скорости вращения вентилятора всего 1100 об./мин.

    В результате видеокарта работает очень тихо . По эффективности охлаждения MSI превзошла других участников кроме, пожалуй, ASUS ROG Strix GeForce RTX 2070 OC edition. Но с СО ASUS сравнивать сложно. С одной стороны, у конкурента более низкая температура, а с другой - это достигается при заметно более высоких оборотах вентиляторов.

    Boost-частоте GPU видеокарты MSI GeForce RTX 2070 GAMING Z 8G составляет 1830 МГц. Это самое высокое значение среди всех участников теста. Но превосходство над ASUS ROG Strix GeForce RTX 2070 OC edition и Gigabyte AORUS GeForce RTX 2070 XTREME 8G совсем мизерное. У этих видеокарт данное значение составляет 1815 МГц.

    Частота памяти, при этом, стандартная. Логично, что RTX 2070 GAMING Z 8G оказалась среди лидеров по производительности. При автоматическом разгоне максимальная частота доходит до отметки 2100 МГц.

    Кривые зависимости частоты и напряжения графического процессора Характеристики MSI GeForce RTX 2070 GAMING Z 8G (данные приложения GPU-Z) со стандартными настройками (сверху) и после автоматического разгона

    Доступный лимит энергопотребления - 111%.

    Очень порадовала новая система подсветки данной видеокарты . Светящимися участками по периметру окружили вентиляторы. Подсвечивается и логотип на боку.

    Все дело в том, как тут реализованы динамические эффекты. В некоторых режимах это, своего рода, цветовое шоу. Хотя тут и нет светящегося элемента на задней пластине данная подсветка MSI понравилась больше, чем решение у ASUS.

    В комплекте с видеокартой поставляется дополнительная планка для более надежного крепежа видеокарты в корпусе. Видеокарта действительно увесистая, но, на наш взгляд, большой необходимости в такой планке нет. Вероятно, она не помешает, при транспортировке корпуса.

    Планка прикручивается в корпусе компьютера ниже видеокарты после чего устройство опирается на эту планку через мягкие прокрадки

    MSI GeForce RTX 2070 GAMING Z 8G отличается и высоким заводским разгоном, и отличной по эффективности системой охлаждения, и интересной новой подсветкой. Хорошая получилась модель.

    Оценка MSI GeForce RTX 2070 GAMING Z 8G:

    Отличная система охлаждения

    Отключение вентиляторов при низкой нагрузке

    Значительно повышенные частоты GPU

    Продвинутая система RGB-подсветки

    Дополнительная планка крепления в комплекте

    — большие габариты

    Gigabyte AORUS GeForce RTX 2070 XTREME 8G (GV-N2070AORUS X-8GC)

    Даже по сравнению с другими крупными видеокартами в тесте Gigabyte AORUS GeForce RTX 2070 XTREME 8G оказывается еще массивнее.

    Gigabyte AORUS GeForce RTX 2070 XTREME 8G слева

    Но основной вклад в толщину устройства вносит не радиатор СО, а довольно любопытное размещение вентиляторов.

    Они расположены немного внахлест. За счет этого, при умеренной длине, удалось разместить сразу три 100-миллиметровых вентилятора .

    Gigabyte AORUS GeForce RTX 2070 XTREME 8 G является самой быстрой RTX 2070 у Gigabyte .

    Boost частота составляет 1815 МГц, что, впрочем, сравнимо с тестируемыми ASUS ROG Strix GeForce RTX 2070 OC edition и MSI GeForce RTX 2070 GAMING Z 8G.

    Любопытно, что заводской разгон получила и память. Во всех остальных видеокартах RTX 2070 данного теста частоты памяти соотвествуют референсным.

    Но прибавка по памяти в случае с AORUS GeForce RTX 2070 XTREME 8G чисто номинальная и мало влияет на итоговую производительность. Частоту подняли со стандартной 14 000 до 14 140.

    Производительность Gigabyte AORUS GeForce RTX 2070 XTREME 8G оказалась на уровне видеокарт MSI и ASUS.

    Используя автоматический разгон максимальное значение частоты GPU составило около 2100. Что примерно повторяет результаты MSI и ASUS.

    Кривые зависимости частоты и напряжения графического процессора Gigabyte AORUS GeForce RTX 2070 XTREME 8G со стандартными настройками (сверху) и после автоматического разгона

    Доступный для изменения максимальный лимит энергопотребления - 109%.

    Конфигурация фаз системы питания - 10+2.

    В отличие от других участников, в конструкции системы охлаждения вместо полированной пластины или испарительной камеры используется вариант, когда сами тепловые трубки касаются GPU.

    Всего тепловых трубок пять.

    Производитель обращает отдельное внимание, что центральный вентилятор имеет другое направление вращения по сравнению с крайними. Указано, что это позволяет избежать турбулентности и увеличивает эффективность СО.

    Умеет модель и останавливать вентиляторы при низкой нагрузке. На боковой панели, традиционно для Gigabyte, даже выведена подсвечиваемая надпись “Fan Stop”, которая загорается, когда вентиляторы бездействуют.

    Как такая СО показала себя в деле?

    Зафиксированные значения температуры и оборотов вентиляторов под нагрузкой составили 67 °C при 1700 об./мин. Очень неплохо, но, получается, что эффективность СО участвующих в тесте ASUS ROG Strix GeForce RTX 2070 OC edition и MSI GeForce RTX 2070 GAMING Z 8G немного выше.

    Система подсветки в Gigabyte AORUS GeForce RTX 2070 XTREME 8G устроена очень необычно.

    На краю одной из лопастей каждого вентилятора размещен RGB-диод. Этот диод может менять цвет в зависимости от того, в каком секторе круга он находится при вращении вентилятора . Получаемые эффекты впечатляют.

    Видеокарта действительно способна привлечь немало внимания.

    Дополнительно подсвечиваются логотипы, размещенные на лицевой, обратной сторонах и на боку видеокарты.

    Из-за того, что подсветка AORUS GeForce RTX 2070 XTREME 8G связана с вращением вентиляторов обнаружились и не очень приятные особенности. Во-первых, эффекты с кольцами работают только при работающих вентиляторах. Во-вторых, заметно небольшое мерцание. Второй недостаток, впрочем, выражен не так существенно. Если видеокарта не находится постоянно в вашем поле зрения, неудобств не будет.

    У видеокарты Gigabyte AORUS GeForce RTX 2070 XTREME 8G оказалось самое большое количество видеовыходов вреди других видеокарт на базе RTX 2070 в этом обзоре

    В комплекте обнаружилась ножка для надежной фиксации видеокарты в корпусе. Да, видеокарта увесистая, но острой необходимости в такой дополнительной поддержке, на наш взгляд, нет.

    К слову, уровень материалов и обработки у этой ножки просто изумительные.

    Неужели такого рода аксессуары становится трендом для видеокарт высокого класса?

    Резюмируя, можно сказать, что Gigabyte AORUS GeForce RTX 2070 XTREME 8G выделяется не только значительным заводским разгоном, но и довольно смелым дизайном в сочетании с любопытной системой подсветки.

    Это очень достойный соперник для других мощнейших участников данного теста.

    Оценка Gigabyte AORUS GeForce RTX 2070 XTREME 8G (GV-N2070AORUS X-8GC):

    Эффективная система охлаждения

    Отключение вентиляторов при низкой нагрузке

    Значительно повышенные частоты GPU

    Эффектная система RGB-подсветки

    Дополнительная ножка крепления в комплекте

    — большие габариты

    — Эффекты системы подсветки зависят от того, вращаются вентиляторы или нет

    Inno3D GeForce RTX 2070 Gaming OC X2 (N20702-08D6X-2511683)

    Inno3D GeForce RTX 2070 Gaming OC X2 - это далеко не рядовая модель. Тут и заводской разгон GPU, и фирменная система охлаждения, и подсветка с RGB-элементами.

    Но на фоне других видеокарт GeForce RTX 2070 из данного теста, а это оказались очень продвинутые модели, она выглядит скромнее.

    Видеокарта от Inno3 D единственная в тесте занимает не три, а два слота расширения.

    Радиатор содержит четыре тепловые трубки и обдувается парой вентиляторов.

    Учитывая более скромный класс устройства, по эффективности охлаждения Inno3D GeForce RTX 2070 Gaming OC X2 ожидаемо уступила другим участникам теста.

    Мониторинг работы Inno3D GeForce RTX 2070 Gaming OC X2 в приложении MSI Afterburner

    Под нагрузкой температура составила 66 °C. Это более чем комфортный уровень, но обороты вентиляторов при этом оказались на уровне 2050 об/мин, что заметно выше, чем у представленных видеокарт ASUS, Gigabyte, MSI.

    Соответственно, Inno3D GeForce RTX 2070 Gaming OC X2 работает не так тихо, но уровень ее шума большого дискомфорта создавать не должен.

    Видеокарта умеет останавливать вентиляторы при низкой нагрузке, но делает это несколько своеобразно. Перед окончательной остановкой вентиляторы еще пару десятков раз раскручиваются от 0 до, примерно, 600 об./мин. Вполне возможно, что этот «баг» может быть решен в новой версии прошивки, хотя и сейчас существенной проблемой это не является.

    На гистограмме видно, как вентиляторы перед полной остановкой некоторое время «пульсирует» со скоростью от 0 до 600 об/мин.

    Boost-частота GPU повышена со стандартных 1620 до 1755 МГц. Это неплохой заводской разгон, но, опять-таки, конкуренты оказались уж слишком мощными и у них этот параметр еще выше.

    Как результат, Inno3D GeForce RTX 2070 Gaming OC X2 немного уступила соперникам по производительности.

    Если проанализировать полученную кривую частоты GPU/напряжения при автоматическом разгоне, то можно увидеть, что максимальная частота GPU примерно на 50 МГц ниже чем у других видеокарт RTX 2070 в тесте при заданных значениях напряжений.

    Кривые зависимости частоты и напряжения графического процессора Inno3D GeForce RTX 2070 Gaming OC X2 со стандартными настройками (сверху) и после автоматического разгона

    Подсветкой в Inno3D GeForce RTX 2070 Gaming OC X2 оснащены несколько элементов. На лицевой панели логотип Inno3D подсвечивается белым цветом. Зажигаются также и желтые вставки рядом с этим логотипом. А вот логотип Inno3D на боку может светиться уже любым цветом (RGB-подсветка).

    Доступно управление подсветкой при помощи приложения.

    Да, Inno3D GeForce RTX 2070 Gaming OC X2 несколько уступила соперникам в скорости и в эффективности системы охлаждения. Но для многих это все может быть запросто нивелировано тем, что Inno3 D GeForce RTX 2070 Gaming OC X2 отличается заметно более доступной стоимостью и по соотношению производительности и цены она переигрывает всех других участников данного теста .

    А еще у Inno3D GeForce RTX 2070 Gaming OC X2 весьма продвинутая комплектация. Модель поставляется с игровым ковриком и ключами для тестов VRMark, 3DMark.

    Оценка Inno3D GeForce RTX 2070 Gaming OC X2 (N20702-08D6X-2511683):

    Наилучший баланс стоимости и производительности среди всех видеокарт на базе RTX 2070 в тесте

    Отключение вентиляторов при низкой нагрузке

    Заводской разгон GPU

    Интересная комплектация

    — сравнительно скромная подсветка

    — странное поведение вентиляторов при переходе в режим остановки

    Как мы тестировали видеокарты

    Видеокарты работали с использованием изначальных настроек драйверов, оптимизированные игровые профили не применялись.

    Видеокарты тестировались без разгона и без использования фирменных профилей (OC, Gaming, Silence и т. д.), которые иногда доступны при установке фирменного программного обеспечения.

    Тестируемые видеокарты на базе RTX 20170 мы сравнивали с видеоадаптерами прошлого поколения на базе GTX 1080 и GTX 1080 Ti, в роли которых выступили MSI GeForce GTX 1080 GAMING X 8G и Gigabyte GeForce GTX 1080 Ti Gaming OC 11G.

    В качестве тестовых приложений для определения производительности видеокарт мы использовали современные игры с поддержкой DirectX 11 и DirectX 12, которые имеют встроенные бенчмарки. Также в программу вошли популярные синтетические тесты 3DMark.

    В каждой игре применялись максимальные или близкие к максимальным настройки графики. В играх мы использовали разрешение 2560×1440 и 3840×2160 пикс. (4K-разрешение). В 3DMark 11 видеокарты тестировались с предустановкой Extreme, а в 3DMark (2013) использовались тесты Fire Strike Extreme, Fire Strike Ultra и DirectX 12-тест Time Spy.

    Отслеживание максимальной температуры GPU и энергопотребления системы (без монитора) производилось в игре Metro: Last Light. Именно в этой игре видеокарты, по наблюдениям, нагревались наиболее интенсивно и происходило максимальное энергопотребление.

    Сама система эксплуатировалась вне корпуса ПК (открытый стенд) при температуре в помещении около 21 °C. Уровень шума, создаваемый работой систем охлаждения видеокарт, оценивался субъективно.

    Итоговая оценка в категории «Производительность» определялась на базе всех тестов с равнозначным вкладом каждого теста. При этом, если говорить об играх, для уменьшения влияния зависимости от процессора, при подсчете общей производительности (категория «Производительность») учитывались только результаты с разрешением 3840×2160 пикс. (4 K ) .

    Результаты с разрешением 2560×1440 пикс. приведены для ознакомления.

    Гистограммы нормированы в процентах с сортировкой моделей по результатам тестов. Конкретные результаты в виде баллов и FPS также указаны.

    Стоимость видеокарт указана на базе данных крупных интернет-магазинов (на момент публикации) с сайта Hotline.

    В отдельном тесте Final Fantasy XV benchmark проводились эксперименты с технологией DLSS (см. гистограмму выше).

    Конфигурация тестовой платформы:

    Процессор: Intel Core i7-3770K, разогнанный до 4,4 МГц

    Материнская плата: Biostar Hi-Fi Z77X

    Объем оперативной памяти: 4×4 ГБ DDR3 1600

    Накопители: SSD (система), HDD

    Операционная система: Windows 10 Pro 64 бит

    Монитор: Philips 272P7VPTKEB с разрешением 4K

    Используемый драйвер NVIDIA для всех видеокарт: GeForce 416.94

    Результаты тестов

    Выводы

    Как видно по результатам тестов, если сравнивать с решениями прошлого поколения, производительность новых видеокарт на базе RTX 2070 находится между NVIDIA GeForce GTX 1080 и GTX 1080 Ti ближе к GTX 1080.

    Тройка ASUS ROG Strix GeForce RTX 2070 OC edition, Gigabyte AORUS GeForce RTX 2070 XTREME 8G и MSI GeForce RTX 2070 GAMING Z 8G - это очень «навороченные» видеокарты. Они имеют продвинутые системы подсветки, значительно повышенные частоты GPU.

    Разницу в скорости между ними без специальных тестов вы точно не заметите. По эффективности систем охлаждения в этой тройке лидируют модели от ASUS и MSI.

    ASUS позволяет сильнее других увеличить лимит энергопотребления. Эта же модель, кстати, выделяется и самой высокой стоимостью среди всех участников теста.

    По впечатлениям от работы подсветки Gigabyte AORUS и MSI можно поставить несколько выше, чем ASUS. Inno3D тут в аутсайдерах.

    Представленная в тесте Inno3D GeForce RTX 2070 Gaming OC X2 скромнее на фоне тройки ASUS, Gigabyte AORUS и MSI, хотя тоже далеко не рядовая модель. Она имеет более низкие частоты GPU, не такую продвинутую систему охлаждения и уступит по возможностям подсветки и разгона.

    Но, зато, данная модель от Inno3D и самая доступная по цене. По соотношению производительности и стоимости она превосходит других участников теста.

    Разница в скорости между Inno3D и тройкой ASUS, Gigabyte AORUS, MSI есть, но она не такая и существенная. Если есть желание сэкономить - это очень достойный вариант.

    С самими участниками теста полный порядок. Любая видеокарта из теста - это качественное устройство с высокой производительностью, эффективным охлаждением без каких-то существенных недостатков.

    Но новое поколение видеокарт RTX в целом оставляет целый ряд поводов для раздумий, хотя именно переход к RTX производитель называет революционным.

    Если не «копать» сильно далеко в прошлое и взять во внимание переходы от поколения GTX 700 к GTX 900 (серия 800 в десктопных видеокартах была пропущена) и от GTX 900 к GTX 1000, то всегда новое поколение видеокарт отличалось сильно возросшей производительностью с одновременным значительным улучшением энергопотребления. При этом большого скачка стоимости равнозначных моделей не происходило.

    А что же мы видим сейчас с выходом поколения NVIDIA GeForce RTX?

    Да, рост производительности есть, но он не такой заметный, как это было ранее с новым поколением видеокарт.

    По энергоэффективности новинки лучше моделей GTX 1000, но совсем незначительно.

    А еще вы заметили, что в поколении RTX не произошло роста объема видеопамяти?

    Но главное, что новые видеокарты оказались намного дороже своих предшественников .

    Причем, ожидать значительного снижения стоимости видеокарт NVIDIA RTX довольно сложно. Они получили намного более сложные и дорогие в производстве графические процессоры.

    Проблема в том, что значительная часть усложнений в новых GPU пошла на используемые впервые RT -ядра (аппаратная поддержка трассировки лучей), которые пока мало где можно задействовать . Кстати, на момент выхода видеокарт RTX игр с аппаратной поддержкой трассировки не было вовсе!

    И тут еще большой вопрос, стоят ли те изменения в изображении, которые привносит трассировка лучей, очень серьезного падения производительности, происходящего при активации этой функции.

    Получается, что на данный момент по соотношению производительности и стоимости новинки RTX 2000 уступают видеокартам-предшественникам серии GTX 1000 (прошлое поколение на архитектуре Pascal).

    Да, потенциально RTX 2000 могут наращивать свою привлекательность со временем, с появлением большего количества игр, поддерживающих трассировку лучей и DLSS-сглаживание, но пока об этом говорить рано.

    Благодарим компанию Philips за предоставленный 4K-монитор Philips 272P7VPTKEB

    Активность производителей наборов логики в последнее время просто удивляет. Чипсеты выходят одним за другим и, честно говоря, мы с трудом успеваем доводить до наших читателей все подробности об архитектуре и производительности этих новинок. Действительно, если еще в недалеком прошлом вся конкурентная борьба на рынке чипсетов происходила по большей части только между VIA и Intel, то за последнее время к ним присоединились AMD, SiS и ALi, которые начали выпуск вполне конкурентоспособных продуктов. Однако, похоже, это еще далеко не все. На рынок системных чипсетов теперь пытаются выйти совсем новые игроки. Например, весной этого года о выпуске своего первого чипсета для материнских плат объявила компания NVIDIA, до сих пор производившая исключительно графические чипсеты.
    По заявлению представителей NVIDIA, настроенных крайне оптимистично, для компании разрабатывающей 3D ускорители, в состав которых входит подчас несколько десятков миллионов транзисторов, проектирование системной логики – задача крайне простоя. Тем более, что NVIDIA была разработчиком базового набора микросхем для игровой приставки от Microsoft, X-BOX, являющейся почти что полноценным PC. Однако, как оказалось, не все так просто. Несмотря на то, что NVIDIA обещала начало поставок материнских плат и систем на базе набора логики собственного изготовления еще в августе, только сейчас эти платы стали появляться в продаже. Ну а раз так, пришла пора провести всестороннее тестирование этого нового чипсета.
    Первый чипсет от NVIDIA, названный nForce и поддерживающий Socket A процессоры от AMD, представляет собой интегрированный набор логики со встроенным графическим ядром GeForce2 MX. Однако и как дискретный набор логики nForce представляет значительный интерес, так как в нем реализовано несколько интересных технологий, в первую очередь относящихся к контроллеру памяти, поддерживающему DDR SDRAM. Поэтому, мы построим рассмотрение nForce следующим образом: сначала поговорим об особенностях nForce, как обычного чипсета, а затем отдельно исследуем его графическое ядро, звуковой контроллер и другие подобные возможности.

    Основы

    Семейство новых чипсетов от NVIDIA, nForce включает в себя два продукта, отличающихся реализацией шины памяти. Одной из ключевых особенностей nForce является так называемая TwinBank архитектура: nForce в общем случае имеет два независимых контроллера памяти, работающих с DDR SDRAM. Соответственно, в зависимости от числа задействованных контроллеров памяти, nForce позволяет организовать либо 64-битный доступ к памяти, либо двухканальный 128-битный.
    Набор логики NVIDIA nForce состоит из двух микросхем, называемых в терминологии производителя «процессорами». Северный мост, Integrated Graphics Processor (IGP), объединяет в себе контроллер памяти, интегрированное графическое ядро GeForce2 MX, поддерживающий процессоры семейства Athlon/Duron интерфейс и AGP 4x интерфейс для подключения внешних видеокарт. Для того, чтобы отличать северные мосты с 64-битной шиной памяти и двухканальной 128-битной шиной, NVIDIA использует для них различную маркировку, IGP-128 и IGP-64 соответственно.
    Южный мост, Media and Communication Processor (MCP) содержит аппаратный звуковой контроллер Audio Processor Unit (APU) с аппаратной поддержкой Dolby Digital, встроенный сетевой контроллер, PCI-контроллер, а также поддерживает типичные для современных южных мостов возможности: USB 1.1 порты, ATA-100 интерфейс, AC’97 интерфейс и т.п. Аналогично северным мостам, NVIDIA прелагает также и две версии южного моста: MCP-D с Dolby Digital 5.1 кодером и MCP – без него.
    Северный и южный мосты в nForce соединяются последовательной шиной HyperTransport с топологией точка-точка.

    Для лучшего понимания сравним возможности nForce с возможностями других современных DDR - наборов логики (возможности встроенной графики в рассмотрение пока не берутся).

    * Версия южного моста, поддерживающего ATA-133 поставляется производителям материнских плат опционально.


    Итак, глядя на представленную таблицу, можно отметить, что основными инновациями, реализованными в nForce являются:

    Контроллер памяти, реализующий технологию TwinBank, позволяющую организацию двухканального 128-битного доступа к памяти. Отдельно следует отметить еще одну уникальную особенность этого контроллера, наличие Dynamic Adaptive Speculative Pre-Processor (DASP).
    Использование шины HyperTransport для связи северного и южного моста.
    Высокопроизводительное интегрированное графическое ядро GeForce2 MX.
    Встроенный Audio Processing Unit (APU), аппаратный звуковой процессор совместимый с DirectX 8.0 и имеющий встроенный Dolby Digital 5.1 кодер.

    В зависимости от того, в какой комбинации используются северные и южные мосты nForce, версия чипсета может иметь различные наименования:

    Теоретически, как уже говорилось, nForce во многом повторяет набор системной логики, который NVIDIA спроектировала по заказу Microsoft для игровой приставки XBOX. Однако, необходимо понимать, что чипсет, используемый в игровой приставке поддерживает процессоры с архитектурой P3 и, соответственно, имеет отличную от nForce процессорную шину. Intel не предоставил NVIDIA лицензии на использование своих процессорных шин в наборах системной логики, поэтому, NVIDIA свой первый чипсет ориентировала под Socket A процессоры от AMD. Однако, не исключено что данная ситуация может измениться, и компания будет предлагать также и чипсеты под платформу Pentium 4: тут все в конечном итоге зависит от желания Intel.

    Подробности: контролер памяти

    Одной из главных особенностей nForce, выделяющей его по сравнению с другими наборами логики, является инновационный контроллер DDR памяти, позволяющий организацию двух независимых каналов передачи данных с суммарной шириной шины 128 бит. С учетом того, что набор микросхем nForce поддерживает память типа PC2100/PC1600 DDR SDRAM, пиковая пропускная способность подсистемы памяти у этого чипсета может достигать 4.2 Гбайт в секунду. То есть, среди всех сегодняшних наборов логики, ориентированных на применение в настольных PC, nForce обеспечивает наибольшую пропускную способность памяти, так как все остальные чипсеты имеют 64-битную шину памяти.
    Посмотрим на то, как все это работает. nForce реализует так называемую TwinBank архитектуру. Это означает, что контроллер памяти, примененный в этом наборе логики, по сути напоминает Croosbar контроллер видеочипсета GeForce3 и попросту является расщепленным на два независимых контроллера MC0 и MC1.

    То есть, для получения высокой пропускной способности подсистемы памяти NVIDIA не стала изобретать для своего набора логики новые типы памяти, а просто добавила в свой чипсет еще один контроллер DDR SDRAM. Следует отметить, что контроллеры MC0 и MC1 являются равноправными и полностью независимыми, поэтому они способны обрабатывать запросы одновременно. В результате, суммарная ширина шины памяти достигла 128 бит, однако в целом подсистема памяти nForce, благодаря наличию двух контроллеров памяти, осталась оптимизирована для работы с 64-битными пакетами данных. Это немаловажный факт, поскольку процессорная шина, используемая в Socket A системах, также имеет ширину 64 бита.
    Благодаря равноправности и полной независимости MC0 и MC1, nForce позволяет работу с ассиметричными конфигурациями памяти, устанавливаемой на разные каналы. Например, модули DIMM, работающие с MC0 и MC1 могут иметь разную скорость, разную конфигурацию и разный объем. Более того, можно вообще не задействовать один из каналов, оставив второй контроллер памяти неиспользуемым. Как раз именно благодаря этому, NVIDIA с легкостью предлагает производителям материнских плат два варианта своего северного моста: IGP-128 с двумя контроллерами памяти и IGP-64 с одним незадействованным контроллером.
    Преимущество TwinBank архитектуры nForce кажется очевидным. Значительный рост пропускной способности, казалось бы, должен обеспечить значительное превосходство в производительности этого набора логики над конкурентами. Однако, не все тут так просто, как кажется. Пиковая пропускная способность подсистемы памяти nForce составляет 4.2 Гбайт/с и в два раза превосходит пропускную способность процессорной шины 2.1 Гбайт/с. А это значит, что процессор сам по себе оказывается не в состоянии задействовать весь потенциал шины памяти nForce. Как мы видели на примере набора логики VIA Apollo Pro266, подобный перекос в пропускных способностях шин ни к чему хорошему не приводит: производительность по сравнению с системами, где пропускные способности шин памяти и процессора уравновешены, практически не возрастает.
    Но инженеры NVIDIA оснастили nForce двумя контроллерами памяти все-таки неспроста. Не следует забывать о том, что nForce – это все же в первую очередь интегрированный чипсет, и высокие требования к пропускной способности памяти в системах на его основе будет предъявлять не только CPU, но и встроенное графическое ядро. Благодаря TwinBank архитектуре, подразумевающей наличие двух независимых 64-битных контроллеров памяти, графическое ядро и процессор могут работать с памятью независимо. А учитывая то, что графическое ядро, основанное на архитектуре GeForce2 MX, обладает сравнительно высоким быстродействием, необходимость производительной шины памяти становится очевидной.
    Тем не менее, говорить о том, что 128-битная шина памяти nForce может быть задействована только лишь при использовании интегрированной графики не совсем верно. Теоретически, напрямую к памяти, минуя процессор, могут обращаться и некоторые другие устройства. Например, AGP-видеокарты или контроллеры, встроенные в южный мост чипсета. Для этих устройств, хотя они и не столь требовательны к пропускной способности памяти, архитектура TwinBank также может принести определенные дивиденды. Таким образом, если рассматривать nForce, как обычный неинтегрированный набор логики, наличие двух контроллеров памяти может позволить получить выигрыш в производительности в некоторых приложениях, интенсивно работающих с AGP графикой или использующих потоковые операции ввода-вывода с данными большого объема. В остальных случаях TwinBank архитектура, рассматриваемая отдельно от встроенного графического ядра, ряд ли может оказаться полезной.
    Более того, если наличие двух независимых каналов памяти теоретически позволяет увеличить скорость записи данных в память, благодаря использованию техники чередования каналов, то операции чтения из памяти ускорятся далеко не всегда. Наоборот, из-за необходимости при каждом обращении «искать» данные в обоих банках, латентность подсистемы памяти, по сравнению с одноканальными системами, возрастает. О том, какое значение имеет латентность подсистемы памяти, говорилось уже не раз. Нередко более низкая латентность имеет для производительности в реальных приложениях даже большее значение, чем высокая пропускная способность памяти. А это значит, что nForce 220, в котором используется северный мост IGP-64 с одним каналом памяти, теоретически даже может превзойти по быстродействию nForce 420 с IGP-128 и двумя каналами.
    Понятно, что подобные принципы распространяются не только на наборы логики от NVIDIA. И, если бы не некоторые дополнительные технологии, о которых пойдет речь ниже, двухканальный nForce вполне мог бы отставать не только от своего одноканального собрата, но и от DDR-чипсетов других производителей. Естественно, NVIDIA, привыкшую быть лидером во всем, такой расклад совершенно не устраивал. Поэтому, перед инженерами компании была поставлена задача найти путь к уменьшению латентности подсистемы памяти при операциях чтения.
    И это решение было найдено. В NVIDIA nForce был добавлен дополнительный блок, имеющий название DASP – Dynamic Adaptive Speculative Pre-Processor. Задача DASP состоит в мониторинге обращений процессора к памяти и предсказанию, какие данные могут потребоваться CPU впоследствии. Используя возможности 128-битной шины памяти с двумя независимыми контроллерами, DASP параллельно с работой процессора извлекает эти данные из памяти и размещает их в специальном буфере, находящемся в северном мосту чипсета. В результате, в случае правильного предсказания, процессору при обращении к этим данным не приходится осуществлять доступ к памяти с относительно большой латентностью: необходимые данные уже находятся в чипсете. Поэтому, DASP существенно снижает латентность подсистемы памяти.

    Как можно заметить, DASP представляет собой некий аналог технологии Data Prefetch, реализованной в современных процессорах. Однако DASP по сравнению с Data Prefetch имеет важное преимущество – его работа не сопряжена с дополнительной загрузкой процессорной шины. А поскольку шина памяти, которую загружает DASP, у nForce узким местом не является, работа этого блока не вызывает никаких коллизий, связанных с чрезмерной загрузкой каких-либо каналов передачи данных в чипсете.
    Важно понимать, что DASP в nForce обрабатывает исключительно обращения процессора, а данные, которые могут требоваться, например, графическому ядру или внешней AGP-видеокарте в буфер не попадают. Этим устройствам, поскольку они гораздо менее критичны к высокой латентности памяти, нежели CPU, приходится работать с памятью напрямую.
    Именно DASP, а не TwinBank архитектура является главной технологией, влияющей на производительность nForce. При использовании с nForce внешней графической карты высокая пропускная способность шины памяти оказывается практически бесполезной, потому что процессор задействовать ее в полную силу не может из-за ограничений, накладываемых пропускной способностью процессорной шины. Современные же AGP-видеокарты используют для хранения текстур локальную видеопамять, поэтому с системной памятью они взаимодействуют не активно. DASP же позволяет уменьшить латентность подсистемы памяти независимо ни от чего. И единственное, о чем приходится жалеть – это о небольшом размере буфера, используемого DASP. В современной версии nForce его объем составляет всего 64 Кбайта, но и этого оказывается вполне достаточно для того, чтобы nForce показывал великолепную производительность.

    Подробности: Hypertransport

    На настоящий момент практически все производители наборов логики отказались от использования шины PCI для организации связи между северным и южным мостом. Исключение составляет разве что компания ALi, но и в ее ближайших планах – отказ от применения для этой цели PCI. Что же побуждает производителей чипсетов искать альтернативные решения? Ответ, как всегда, несложен. Пропускной способности шины PCI, 133 Мбайт в секунду, перестает хватать для того, чтобы все контроллеры, сосредоточенные в южном мосту могли беспрепятственно связываться с северным мостом. Посмотрим, например, чем нашпиговала свой южный мост (или, в терминологии компании, MCP) NVIDIA.

    Помимо традиционных для южных мостов PCI моста, двухканального ATA-100 контроллера, пары USB-хабов, интегрированного программного модема, 6-канального AC’97 кодека и LPC-устройств, MCP содержит и пару относительно уникальных вещей. Во-первых, это сетевой контроллер для 10/100 Mбит Ethernet и HomePNA 2.0, а во-вторых, APU (Audio Processor Unit). Именно наличие этих двух блоков в южном мосту заставило NVIDIA искать для соединения мостов своего nForce решение, гарантирующее более высокую, чем у PCI, пропускную способность.
    Имея в виду, что APU – это полноценный совместимый с DirectX 8.0 аппаратный звуковой контроллер, поддерживающий позиционное 3D аудио и имеющий Dolby Digital 5.1 кодер, можно считать, что это устройство способно «отъесть» от пропускной способности шины до 150 Мбайт в секунду. В свете этого NVIDIA сразу обратила внимание на высокоскоростные шины. Ну и поскольку NVIDIA принимала активное участие в разработке технологии Hypertransport, совершенно неудивительно, что в nForce для связи мостов была выбрана именно эта шина.
    Вообще, Hypertransport – это двухпортовая последовательная шина с шириной от 2 до 32 бит, предназначенная для организации соединения типа точка-точка. В nForce для связи мостов используется Hypertransport с шириной 8 бит и частотой 200 МГц. Учитывая, что протокол Hypertransport предполагает передачу данных по обоим фронтам сигнала, получаем, что пропускная способность шины при передаче данных в одном направлении – 400 Мбайт в секунду. NVIDIA же оперирует более крупным числом, 800 Мбайт/с, однако это всего-навсего означает, что пропускная способность соединения между мостами в nForce 400 Мбайт/с в обоих направлениях.

    Подробности: референс-плата

    Также, как и при создании видеочипсетов, вместе с набором логики nForce, NVIDIA разработала и референс-дизайн материнской платы на его основе. Отметим, что этот референс-дизайн будет использоваться рядом производителей плат для выпуска своих продуктов, использующих nForce, и поэтому референс-плата от NVIDIA заслуживает подробного рассмотрения.

    Референс-дизайн материнской платы на базе чипсета nForce выполнен в MicroATX форм-факторе. И это сразу говорит о многом. NVIDIA видит основное применение своего nForce в первую очередь как удобного решения для сборщиков компьютеров, потому и выбрала именно MicroATX формат. Впрочем, отчасти компания права. Собирать компьютеры на платах с чипсетом nForce действительно удобно: одна материнская плата сразу исключает необходимость и в видеокарте с неплохой производительностью, и в качественной звуковой карте, и даже в сетевом контроллере и модеме. Поэтому, несмотря на относительно высокую стоимость, сборщики PC должны будут полюбить nForce, как хорошую платформу для домашних компьютеров средней стоимости.
    Однако, использование Micro ATX форм-фактора неотвратимо влечет за собой урезание возможностей для расширения. Действительно, на референс-плате помимо слотов для памяти и AGP 4x слота поместилось всего два слота PCI и один слот ACR. Впрочем, для материнской платы, на которой интегрированы все мыслимые устройства, такого количества слотов расширения может быть вполне достаточно.
    Референс плата использует северный мост IGP-128.

    Как следует из названия, эта версия северного моста поддерживает 128-битную шину памяти и TwinBank архитектуру. Три имеющихся на плате 184-контактных слота DDR DIMM делятся между контроллерами следующим образом: к первому контроллеру памяти MC0 относится первый слот DIMM, а ко второму контроллеру памяти MC1 – второй и третий слоты. Легким намеком на это является, кстати, несколько обособленное расположение на плате первого слота DIMM. Таким образом, при установке модулей памяти в первый и во второй или третий слоты DIMM, плата будет использовать 128-битный доступ к памяти. Если же используется только один модуль DDR DIMM, или же два модуля, установленные во второй и третий слоты – шина памяти имеет ширину 64 бита, как у классических наборов логики, и второй контроллер памяти северного моста отключается.
    Заметим, что на северном мосту на референс-плате нет никакого радиатора, и, в принципе, несмотря на это плата работает стабильно. Однако, чип при этом раскаляется до такой температуры, что его дальнейшая судьба невольно начинает вызывать беспокойство. Поэтому, на серийных платах северный мост будет снабжаться чипсетным кулером.
    В качестве южного моста для референс платы NVIDIA выбрала чип MCP-D, обладающий встроенным Dolby Digital 5.1 кодером, о чем свидетельствует литера «D» в названии моста.

    Несмотря на то, что южный мост поддерживает шестиканальный 3D звук, цифровой выход для усилителя с Dolby Digital декодером, 10/100 Мбит Ethernet и программный модем, на самой референс-плате нет никаких разъемов для реализации работы всех этих устройств. Все необходимые коннекторы располагаются на дополнительной райзер-карте, входящей в комплект и устанавливаемой в слот ACR.

    Здесь можно видеть место для монтажа цифрового аудиовыхода, два аналоговых аудиовыхода для подключения задних колонок, центральной колонки и сабвуфера, разъем для присоединения телефонной линии и сетевой RJ45 коннектор.
    Плата использует Phoenix BIOS, обладающий только лишь самым необходимым минимумом настроек: о разгоне можно забыть.

    Как мы тестировали

    Поскольку данный материал посвящен рассмотрению NVIDIA nForce в качестве дискретного решения, все тесты выполнялись со внешней видеокартой и отключенным интегрированным графическим ядром. Мы протестировали референс-плату на базе nForce в двух режимах: при 128-битном доступе к памяти, когда задействованы оба контроллера памяти, и при 64-битном доступа к памяти, когда один из контроллеров памяти отключен. Таким образом, мы получим возможность судить о производительности как nForce 420, так и nForce 220, поскольку эти два варианта набора логики от NVIDIA отличаются лишь шириной шины памяти.
    Производительность NVIDIA nForce сравнивалась с быстродействием других современных DDR Socket A наборов логики: VIA KT266A, SiS 735 и Ali MAGiK 1 ревизии C.
    Тестовые системы были сконфигурированы следующим образом:

    На тестовых системах была установлена операционная система Microsoft Windows XP.
    Результаты тестов встроенного в nForce графического ядра, звукового и IDE контроллеров будут приведены во второй части данного обзора.

    Производительность

    Теория - теорией, пора переходить к практике. В первую очередь, как и всегда, - синтетические тесты производительности подсистемы памяти.

    В первую очередь отметим, что даже синтетический тест, такой как SiSoft Sandra, не показывает значительного превосходства пропускной способности двухканальной памяти nForce 420 над другими чипсетами, работающими с 64-битной шиной памяти. Как мы видим, процессор в одиночку не может задействовать всю пропускную способность шины памяти nForce 420. Таким образом, все прелести TwinBank архитектуры могут быть раскрыты только при использовании встроенного графического ядра nForce, которое, наряду с процессором, является одним из самых активно использующих память компонентов. Когда же встроенное графическое ядро не используется, как, например, в нашем случае, даже синтетический тест показывает всего лишь 5-процентное превосходство практической пропускной способности чипсета с 128-битной шиной над аналогичным чипсетом с шиной шириной 64 бита.
    Также, немаловажно отметить, что оба nForce, и 420, и 220, ощутимо обгоняют остальных участников тестирования. И дело тут уже не в ширине шины памяти. Разрыв в 10% между показателями nForce 220 и VIA KT266A можно списать лишь на DASP, поскольку эта модификация чипсета от NVIDIA не имеет 128-битной шины памяти. Как показывают результаты, эффективность DASP чрезвычайно высока: применение этой технологии позволило NVIDIA создать Socket A чипсет с самой быстродействующей подсистемой памяти.
    Однако, лидерство в пропускной способности подсистемы памяти, измеряемой тестом SiSoft Sandra 2001 – еще не ключ к победе. Как мы неоднократно отмечали, наряду с пропускной способностью на производительность системы оказывает значительное влияние и латентность памяти. Посмотрим, как обстоит дело у nForce с ней.

    И тут nForce просто нет равных. Направленный в первую очередь на уменьшение латентности DASP попадает точно в цель.
    Также заметим, что как это не кажется странным на первый взгляд, набор логики nForce 220 с одним контроллером памяти и 64-битной шиной имеет меньшую латентность, чем nForce 420 с двумя контроллерами памяти и 128-битной шиной. Однако, ничего удивительного в этом нет. Поскольку NVIDIA ставила перед собой задачу создать такую подсистему памяти, которая была бы способна обеспечивать данными несколько «потребителей» одновременно (например, CPU и GPU), компания не стала применять в своем наборе логики классическую технику чередования каналов (interleaving). Контроллеры памяти в nForce 420 полностью независимы и, в отличие например от того же i850, позволяют установку модулей DIMM разной конфигурации в разные банки памяти. Поэтому, перед тем, как извлечь данные из памяти в случае использования двух каналов, специальному арбитру приходится решать, какой из контроллеров должен обрабатывать пришедший запрос. На это как раз и уходят дополнительные такты. Поэтому, в ряде случаев nForce 220 с более узкой шиной памяти может оказаться быстрее nForce 420 с более широкой шиной.
    В синтетических тестах nForce смотрится неплохо. Посмотрим, как же он себя поведет в реальных приложениях.

    Тест SYSmark 2001, показывающий средневзвешенную производительность систем в типичных офисных задачах и приложениях создания контента, подтверждает результаты синтетических тестов. nForce, хоть и не так значительно, превосходит по скорости другие чипсеты. Однако следует понимать, что для тех приложений, которые используются в SYSmark 2001, важна не только скорость памяти, также немалое влияние на результат оказывает, например, и производительность дисковой подсистемы. Плюс к этому, преимущества более быстрой системы памяти видны только при операциях с большими объемами данных, не умещающихся в кеше CPU.

    Например, в Internet Content Creation части теста, где приложения используют большие объемы последовательно хранящихся данных, nForce не так уж и быстр, поскольку влияние латентности в задачах такого класса сведено к минимуму, а реализоваться высокой пропускной шине памяти nForce 420 не дает ограничение, налагаемое пропускной способностью процессорной шины.

    В офисной же части того же теста наоборот, оба nForce опережают обоих соперников более существенно: тут уже играет свою роль низкая латентность подсистемы памяти этого чипсета. В частности, превосходство nForce 420 над прошлым лидером наших тестирований, VIA KT266A, составляет 4%.

    Для составления полной картины соотношения сил в офисных задачах мы также измерили скорость архивации большого количества информации (директории с установленной игрой Unreal Tournament) популярным архиватором WinZIP при обычном уровне компрессии. Смысл этого теста заключается в том, что помимо постоянных обращений к памяти архиватор также постоянно работает с дисковой подсистемой. Поэтому, результаты, показанные системами здесь, позволяют оценить в том числе и качество IDE Bus Master драйверов. На диаграмме выше отображено время выполнения архивации, поэтому меньший результат соответствует лучшей производительности.

    Также, нами была замерена производительность при кодировании DVD видеопотока в формат DivX MPEG-4. Этот тест замечателен тем, что модификация nForce 220 с 64-битной шиной памяти в нем оказалась быстрее своего 128-битного аналога nForce 420. Хотя эта разница очень мала, факт остается фактом: такое возможно не только в теории, но и на практике.
    Следующим этапом наших испытаний является измерение быстродействия систем в играх.

    Обратите внимание, результаты nForce 420 и nForce 220 в этом тесте практически одинаковы. То есть даже Quake3, производительность в котором сильно зависит от быстродействия подсистемы памяти, не может использовать преимущества, предоставляемые архитектурой TwinBank, при условии, что в системе используется внешняя видеокарта. DASP же, присутствующий в обоих nForce, придает им неплохое ускорение: оба nForce опережают ближайшего конкурента, VIA KT266A на 4.5%.

    При увеличении разрешения и доведения его до обычно используемого среднестатистическими игроками, разница в производительности нивелируется. Два контроллера памяти не помогают nForce 420 и в этом случае.

    Картина в Unreal Tournament повторяет результаты, которые мы уже видели в Quake3. Правда, теперь преимущество nForce220 над nForce 420 немного увеличилось и уже не может быть списано на тривиальную погрешность измерений.

    Мы любим использовать игру DroneZ при тестировании чипсетов в первую очередь потому, что она очень чутко реагирует на скорость работы памяти. Поэтому, неудивительно, что DASP дает обоим nForce возможность обогнать VIA KT266A на целых 7%, что для наборов системной логики является достаточно крупной победой. Также, отметим, что в очередной раз nForce 220 удалось обойти своего старшего брата, nForce 420 примерно на 2 fps.

    Профессиональный OpenGL бенчмарк SPECviewperf 6.2.1 является тестом, производительность в котором сильно зависит от пропускной способности памяти. Поэтому, никого не должно удивлять, что во всех задачах, входящих в этот тест, nForce 420 обгоняет nForce 220. Однако, следует отметить, что при этом результаты nForce 420 оказываются не такими уж и выдающимися, несмотря на вдвое более широкую, чем у других наборов логики, шину памяти. В Awadvs-04 и DRV-07 nForce 420 отстает от VIA KT266A. Что же касается младшей версии, nForce 220, то ее производительность в первых трех подтестах вообще чуть ли не самая худшая. Думается, причина такого результата кроется в том, что 64-килобайтный буфер, используемый DASP, оказывается совершенно бесполезен при передаче большого объема информации, хранящейся в памяти последовательно.

    Выводы

    Подобьем бабки. Как показало наше исследование, nForce, пока рассматриваемый отдельно от своего графического ядра как дискретный набор логики, чрезвычайно продвинутый и самый производительный Socket A чипсет среди присутствующих сегодня на рынке. Хотя он и оказался лидером благодаря прогрессивным технологиям, примененным NVIDIA, следует отметить следующее. Главным элементом nForce, из-за которого этот чипсет показал высокое быстродействие, является DASP. Единственное «но», которое можно сказать в адрес этого блока – недостаточный размер буфера, которого не хватает для профессиональных OpenGL приложений. Twinbank архитектура же, как показали тесты, оказалась совершенно бесполезна в случаях, когда не используется встроенное графическое ядро.
    Таким образом, для применения в системах со внешними графическими ускорителями версия nForce 220 подходит больше, чем nForce 420. Производительность nForce 220 в большинстве тестов практически такая же, как у nForce 420, а в ряде задач nForce 220 даже обгоняет своего старшего собрата. При этом, стоимость плат, основанных на nForce 220 должна быть ниже из-за отсутствия второго контроллера памяти и сопутствующей разводки. nForce 420 же стоит воспринимать в таком случае как, в первую очередь, интегрированное решение.
    Что касается рыночных перспектив nForce вообще, то тут остается масса неясностей. Если вы готовы ради дополнительных 3-7% производительности выложить в полтора раза большую сумму за материнскую плату, а потом не пользоваться «оплаченной» встроенной видеокартой, то nForce – набор логики для вас. Если же вы ищите подходящее решение с точки зрения соотношения цена-производительность, то nForce тут вам не товарищ.
    И в заключение еще раз напомню, что все вышесказанное относится к nForce, как дискретному набору логики. Интегрированные возможности этого чипсета, такие как видео, звук и пр. мы рассмотрим позднее, в следующей части этого материала.

    Компания NVIDIA в первую очередь ассоциируется у нас с видеокартами, однако, кроме того, это очень крупный разработчик наборов логики для материнских плат. Стоит вспомнить о том стремительном взлёте, который проделали чипсеты NVIDIA. Первое поколение наборов логики nForce не пользовалось большой популярностью, хотя обращало на себя внимание использованием ряда интересных особенностей, однако чипсет nForce2 уже произвёл настоящий фурор. Растаяло казавшееся незыблемым положение компании VIA, как одного из ведущих производителей чипсетов, а в пару к процессору Socket A почти неизменно ставилась материнская плата на чипсете NVIDIA nForce2. Набор логики nForce3 не вызывал столь заметного резонанса, но это во многом объясняется тем, что первые процессоры AMD Socket 754 были редкими и дорогими, к тому же многие предпочли подождать появления CPU Socket 939. Чипсет nForce4 вновь ожидал небывалый успех, но после этого триумфальное шествие комплектов микросхем NVIDIA замедлилось. Переход на чипсеты nForce пятой серии и процессоры Socket AM2 требовал одновременной замены памяти DDR на DDR2, поэтому происходил не очень быстро. К тому же вскоре появились новые процессоры Intel Core 2 Duo и многие предпочли мигрировать на более производительную платформу.

    Да, говоря об успехе чипсетов NVIDIA, мы имели в виду исключительно наборы логики для процессоров AMD, поскольку конкурировать на равных с чипсетами Intel компания NVIDIA оказалась не в состоянии. Первые материнские платы на чипсете NVIDIA nForce4 SLI Intel Edition удивили и разочаровали слабыми оверклокерскими способностями, к тому же их репутацию подпортили проблемы с поддержкой двухъядерных процессоров Smithfield. Переключив своё внимание с процессоров AMD на процессоры Intel семейства Conroe, мы как-то упустили из виду чипсеты NVIDIA nForce5 для процессоров Intel. Но, судя по тому, что о таких материнских платах не было слышно ничего особенного, мы не пропустили ничего важного. Зато список проверенных нами плат на чипсетах NVIDIA nForce 680i SLI и 650i SLI оказался довольно велик. И опять ничего интересного, и опять проблемы с оверклокингом, и снова с поддержкой процессоров, только на этот раз четырёхъядерных Yorkfield. Вдобавок обнаружились проблемы с производительностью на высоких частотах (FSB Strap), неработоспособность плат в определённых интервалах (FSB Hole), "рассыпающиеся" RAID-массивы и потерянные данные на жёстких дисках.

    Ничуть не удивительно, что в свете перечисленных недостатков материнские платы для процессоров Intel на чипсетах NVIDIA большим спросом не пользуются. Вот и сейчас владельцы и потенциальные покупатели таких процессоров с интересом ждали лета и предстоящего анонса наборов логики Intel четвёртой серии. На основе этих чипсетов появятся приемлемые по цене материнские платы с поддержкой PCI Express 2.0. Однако более доступные платы, чем основанные на чипсетах Intel X38 Express и Intel X48 Express, уже давно имеются. Наш сегодняшний обзор посвящён рассмотрению возможностей одной из таких плат – Asus P5N-D, но прежде мы изучим набор логики NVIDIA nForce 750i SLI, на котором она основана.

    Чипсет NVIDIA nForce 750i SLI

    Официальные характеристики набора логики NVIDIA nForce 750i SLI выглядят следующим образом:

    Если сравнивать с возможностями примерно равного по позиционированию чипсета Intel P35 Express, то он выигрывает по количеству портов USB – у NVIDIA nForce 750i SLI их всего восемь вместо двенадцати, и по количеству портов Serial ATA – их четыре против шести. Зато у NVIDIA nForce 750i SLI осталась полноценная поддержка Parallel ATA, можно подключить до четырёх приводов, в то время как на чипсетах Intel она давно уже отсутствует и её приходится реализовывать с помощью дополнительных контроллеров. В целом характеристики Intel P35 Express выглядят более отвечающими современным требованиям, хотя отставание NVIDIA nForce 750i SLI не выглядит критическим.

    Однако наиболее наглядной для оценки является блок-схема чипсета NVIDIA nForce 750i SLI. Сразу бросается в глаза, что вместо традиционной двухчиповой схемы с использованием северного и южного мостов, или даже одночиповой схемы, которую нередко использовала NVIDIA и к которой в будущем планирует перейти Intel, используется комбинация из трёх микросхем. Добавился новый "восточный мост".

    Очевидно, что "лишний" элемент – это NVIDIA nForce 200, однако именно он определяет основное отличие чипсета от предыдущих наборов логики. Эта микросхема представляет собой чип-коммутатор, который реализует поддержку PCI Express 2.0. В качестве южного моста используется чип MCP51 или, говоря иначе, nForce 430. Эта микросхема появилась ещё в далёком 2005 году и нам уже давно знакома. Она встречалась в чипсетах NVIDIA, предназначенных как для процессоров Intel, так и AMD, как дискретных, так и с интегрированным графическим ядром. В частности, именно этот южный мост использовался в составе чипсета NVIDIA nForce 650i SLI. Северный мост чипсета NVIDIA nForce 750i SLI носит кодовое имя C72P.

    Но вот, что интересно – материнская плата Asus P5N-D при старте не отрицает, что использует южный мост MCP51, однако она утверждает, что в качестве северного моста у неё чип с кодовым наименованием C55. Нетрудно вспомнить, что это именно та микросхема, которая использовалась в чипсетах NVIDIA nForce 680i SLI и NVIDIA nForce 650i SLI. Сочетание северного моста C55 и южного MCP51 даёт нам чипсет NVIDIA nForce 650i SLI, а добавление чипа-коммутатора NVIDIA nForce 200 превращает его в NVIDIA nForce 750i SLI.

    В идентичности характеристик чипсетов и NVIDIA nForce 750i SLI, за исключением поддержки PCI Express 2.0 естественно, нетрудно убедиться. Впрочем, помимо PCI Express 2.0 есть ещё одно немаловажное отличие – для нового набора микросхем декларируется полная поддержка 45 нм. процессоров поколения Penryn, как четырёхъядерных Yorkfield, так и двухъядерных Wolfdale, в то время как для чипсетов NVIDIA nForce 6 поддержка Yorkfield сначала заявлялась, но потом была отозвана. То есть новый набор логики NVIDIA nForce 750i SLI образован из старого NVIDIA nForce 650i SLI путём исправления обнаруженных недостатков и добавления дополнительной микросхемы NVIDIA nForce 200, приносящей поддержку PCI Express 2.0.

    По той же схеме, кстати, получился новый чипсет NVIDIA nForce 780i SLI. Он образован сочетанием NVIDIA nForce 680i SLI и NVIDIA nForce 200. Очевидно, что наборы логики NVIDIA nForce 780i SLI и NVIDIA nForce 750i SLI, модернизированные из старых, представляют собой временное, промежуточное явление, что косвенно подтверждает появление действительно нового чипсета NVIDIA nForce 790i SLI, выполненного по традиционной двухчиповой схеме.

    Материнская плата Asus P5N-D

    Спецификации

    Самое время ознакомиться с техническими характеристиками материнской платы Asus P5N-D.

    Если сравнить с официальными спецификациями набора логики NVIDIA nForce 750i SLI, то можно заметить, что компания Asus реализовала на плате лишь один разъём Parallel ATA из двух, которые обеспечивает чипсет, что даёт нам поддержку двух приводов, вместо четырёх возможных. Однако это вполне достаточное на сегодня количество и многие другие производители поступают так же. Даже платы на чипсете NVIDIA nForce 650i SLI нередко имели лишь один разъём Parallel ATA.

    Интереснее другое отличие. Для одиночной видеокарты материнская плата Asus P5N-D в полном соответствии с официальными спецификациями набора логики NVIDIA nForce 750i SLI обеспечивает режим работы PCI Express 2.0 x16. Что касается двух видеокарт в режиме SLI, то используется странная формулировка – hardware ready for x16, x16. Что имела в виду компания Asus, ведь плата на чипсете NVIDIA nForce 750i SLI формально может работать лишь в режиме PCI Express 2.0 x8 + PCI Express 2.0 x8? Что пропускная способность PCI Express 2.0 x8 равна PCI Express 1.0 x16? Или это намёк на возможное появление обновлённого nForce 750i SLI с поддержкой формулы PCI Express 2.0 x16 + PCI Express 2.0 x16? Или что чип-коммутатор NVIDIA nForce 200 в состоянии обеспечить режим PCI Express 2.0 x16 + PCI Express 2.0 x16 и ограничения имеются не на уровне железа, а лишь в драйверах?

    Наиболее вероятной мне представляется последняя версия. Северный мост чипсета обеспечивал лишь 16 линий PCI Express. Ещё 16 линий, которых не хватало для реализации формулы PCI Express x16 + PCI Express x16, ему добавлял южный мост. После модернизации до 16 линий PCI Express 1.0 от южного моста теперь предназначаются лишь для третьей видеокарты, а 16 линий PCI Express 1.0 от северного с помощью NVIDIA nForce 200 вдруг превратились в 32 линии PCI Express 2.0, которые делятся между двумя слотами PCI Express 2.0 x16. И что мешает таким же образом поступить в случае с набором логики NVIDIA nForce 750i SLI? Технически, вероятно, ничего, только лишь желание компании NVIDIA чётче отграничить старший чипсет 780i SLI от младшего 750i SLI.

    Конечно, возникает вопрос, а с какой скоростью, по какому интерфейсу чип-коммутатор NVIDIA nForce 200 общается с чипсетом? "Наружу" выходят два слота PCI Express 2.0 x8 в случае NVIDIA nForce 750i SLI и два PCI Express 2.0 x16 в случае NVIDIA nForce 780i SLI. А что внутри? Неужели PCI Express 1.0 x16, PCI Express 2.0 x1 или даже просто PCI Express 1.0 x1? В таком случае текущая реализация PCI Express 2.0 у наборов логики NVIDIA nForce 750i SLI и NVIDIA nForce 780i SLI лишь формальность и ничто не мешает расширить возможности nForce 750i SLI до формулы PCI Express 2.0 x16 + PCI Express 2.0 x16. Пока же владельцам плат на чипсете NVIDIA nForce 750i SLI твёрдо можно рассчитывать лишь на режим PCI Express 2.0 x8 + PCI Express 2.0 x8.

    Что же, пора оставить предположения и догадки в покое, и приступить к рассмотрению материнской платы Asus P5N-D.

    Упаковка и комплектация

    Коробка материнской платы в первую очередь предназначена для того, чтобы в неповреждённом виде донести своё содержимое до потребителя. С этой задачей все упаковки, как правило, справляются без труда. Одновременно ставится цель привлечь потенциального покупателя с помощью оформления и рассказать ему об особенностях и преимуществах продукта.

    Заманить неопределившегося покупателя своим внешним видом коробке материнской платы Asus P5N-D вряд ли удастся, аттрактивная составляющая находится на низком уровне. Хотя, теоретически, все необходимые компоненты имеются: имя производителя, название платы, логотипы, но лицевая сторона получилась какой-то мутной и мрачной.

    Разочаровывает и информационная насыщенность обратной стороны упаковки. Там имеется лишь небольшая фотография платы, список характеристик и поддерживаемых технологий выполнен в виде схематических рисунков, а двум из них – Asus EPU и Precision Tweaker 2 – посвящено по одной фразе на семи языках. Кстати, о наличии эксклюзивной технологии Asus EPU (Energy Processing Unit), позволяющей менять количество активных фаз в схеме питания процессора в зависимости от нагрузки и тем самым экономить энергию, сообщается и на лицевой стороне коробки.

    По ходу написания этого обзора понадобилось обратиться к статье годичной давности о материнской плате Asus P5N-E SLI , основанной на чипсете NVIDIA nForce 650i SLI. И оказалось, что у неё коробка была оформлена точно таким же образом. За прошедший год почти не изменился и список аксессуаров, которые включены в комплект. К материнской плате Asus P5N-D прилагаются:

    • шлейфы IDE и FDD с логотипами Asus;
    • четыре Serial ATA кабеля;
    • разветвитель для подключения питания к SATA-устройствам;
    • планка с двумя портами USB2.0;
    • Asus Q-Connector Kit – комплект переходников для удобного подключения отдельных проводов к коннекторам USB, IEEE1394 и передней панели;
    • соединительный мостик SLI;
    • заглушка для задней панели (I/O Shield).

    Хочу обратить ваше внимание, что одна пара SATA-кабелей имеет Г-образную форму разъёма, а вторая обычную, прямую. Пользователь сам может выбрать, какой тип кабеля ему удобнее применить. Такое же трогательное внимание к незначительным, но полезным нюансам мы уже видели при изучении материнской платы Gigabyte GA-EP35-DS4 .

    У материнской платы Asus P5N-D есть и ещё одна особенность такого рода. Читая описание технологии Asus Q-Shield, я никак не мог понять, о каких "пальчиках" идёт речь и в чём её сущность. А нужно было всего лишь внимательнее посмотреть на сопроводительную иллюстрацию.

    Любой, кто хоть раз участвовал в сборке системного блока, всё сразу поймёт. Заглушка для разъёмов задней панели (I/O Shield) с обратной стороны имеет несколько "пальчиков" по терминологии Asus, я бы назвал их лепестками, но не в том суть. С их помощью обеспечивается электрический контакт с корпусом разъёмов и тем самым экранируется электромагнитное излучение. Однако лепестки непослушны, так и норовят попасть внутрь разъёмов. С Asus Q-Shield это исключено. Теперь с обратной стороны заглушки имеется пористый материал, покрытый токопроводящим слоем.

    Нет нужды выпрямлять и правильно направлять многочисленные лепестки, сборка упрощается, достаточно просто установить заглушку на место. Токопроводящий слой обеспечит электрический контакт, а пористый материал плотный прижим, вот и всё. Просто и удобно.

    И, наконец, последняя "вкусность" комплектации. Северный мост материнской платы Asus P5N-D накрыт невысоким, но очень широким пассивным радиатором.

    Объясняется такая нестандартная форма очень просто, помимо собственно северного моста радиатор одновременно накрывает и "восточный" – дополнительную микросхему NVIDIA nForce 200, которая реализует поддержку PCI Express 2.0. Это всё замечательно, но чипсеты NVIDIA и без того "славятся" высоким тепловыделением, а тут под тот же радиатор добавляется не менее, а может и более горячий чип-коммутатор. Каким бы радиатор ни был большим, его площади недостаточно, нужно предусмотреть дополнительный обдув.

    В недавнем обзоре материнской платы Intel DX48BT2 я хвалил Intel за редкий, но очень полезный аксессуар – пластиковую рамку для крепления дополнительного вентилятора на радиаторе северного моста чипсета. В Asus пошли дальше, вместе с рамкой поставляется вентилятор 70x70x10 мм, что очень даже похвально, ведь такие вентиляторы можно найти далеко не в каждом магазине.

    Система крепления крайне проста – нужно просто защёлкнуть лапки рамки на радиаторе и подключить вентилятор к ближайшему разъёму.

    Несмотря на то, что Asus оптимистично рекомендует устанавливать дополнительный вентилятор только при использовании жидкостного или пассивного охлаждения процессора, я советую поставить его в любом случае. Даже при работе в штатном режиме радиатор раскаляется настолько сильно, что приносит болевые ощущения при тактильном контакте. А ведь при разгоне потребуется поднимать напряжения, и тепловыделение ещё больше возрастёт.

    К сожалению, без дёгтя во всём этом обилии мёда обойтись не удалось. По данным мониторинга материнской платы вентилятор вращается со скоростью ~ 3800 об/мин. и это слишком шумно. Система регулировки скорости вращения Asus Q-Fan позволяет выбрать в BIOS три значения: Performance, Optimal или Silent. При установке значения Performance скорость вращения снижается примерно до 3400 об/мин. и это всё ещё слишком громко, как и 3000 об/мин. в режиме Optimal. В режиме Silent скорость падает до 2500 об/мин. и только теперь стихает шум от воздушного потока, зато становится слышно гудение двигателя вентилятора.

    Рассказ о комплектации материнской платы Asus P5N-D был бы неполным без упоминания о том, что к ней прилагается руководство, краткие инструкции по сборке на нескольких языках, включая русский, наклейка на системный блок и два компакт-диска с драйверами (Windows и Linux), утилитами Asus и дополнительным программным обеспечением.

    В списке дополнительного ПО числится Norton Internet Security 2007, Intervideo DVD Copy 5 Trial, Corel Snapfire Plus SE 1.2, а так же DirectX 9.0c и Adobe Acrobat Reader для чтения руководств в электронном виде, которые тоже имеются на дисках.

    Дизайн и возможности

    При первом очном знакомстве материнская плата Asus P5N-D производит хорошее впечатление, не видно никаких явных недостатков в дизайне.

    Прежде всего, привлекает внимание гигантский радиатор северного моста, занимающий центральное место на плате, однако мы о нём уже говорили выше, поэтому посмотрим на верхнюю часть платы. Разъёмы питания расположены вполне приемлемо, четырёхфазная схема питания процессора выполнена с использованием современных элементов и выглядит достойно. Вызывает лёгкое недоумение лишь использование четырёх-, а не восьмиконтактного разъёма питания процессора ATX12V.

    Традиционно в нижней части платы элементов больше, но их размещение не вызывает отторжения. Материнская плата Asus P5N-D оснащена двумя слотами PCI Express x16, парой слотов PCI Express x1 и двумя PCI. Южный мост прикрыт небольшим радиатором.

    Разъём IDE для удобства расположен горизонтально, четыре порта Serial ATA размещены на линии слотов PCI, то есть не будут перекрываться даже при использовании двух видеокарт. Нашлось место и для дополнительного IEEE1394 контроллера VIA VT6308P. Вдоль нижнего края платы расположены коннекторы передней панели, разъёмы USB, IEEE1394, FDD и аудио.

    Задняя панель может похвастаться нечастым на сегодня полным набором разъёмов: PS/2 для клавиатуры и мышки, коаксиальным и оптическим S/PDIF, COM и LPT, IEEE1394, RJ45, четыре порта USB и шесть аудиоконнекторов (Realtek ALC883).

    В завершение внешнего осмотра платы можно лишь повторить, что её дизайн вполне приемлем, а список возможностей широк.

    Наверное, нет человека хоть мало-мальски интересующегося "железом", который бы не слышал о компании NVIDIA. Но еще совсем недавно ее знали только как одного из ведущих разработчиков графических процессоров. Экспансию на рынок наборов логики для материнских плат производитель начал только в конце 2001 года. Всего за несколько лет NVIDIA сумела занять лидирующие позиции, став крупнейшим поставщиком чипсетов для процессоров AMD. Линейка наборов микросхем nForce снискала заслуженную популярность среди поклонников названой платформы. Вполне логично было ожидать от компании скорого выпуска модификаций и для процессоров Intel. Но прошло довольно много времени, прежде чем компании смогли договориться. Договор о перекрестном лицензировании был подписан только к концу 2004 года. В это время NVIDIA уже представила миру технологию SLI и активно ее "раскручивала". Потому неудивительно, что первым чипсетом для платформы Intel от NVIDIA стал именно nForce4 SLI. Маркетологи компании решили не отказываться от широко известного брэнда nForce и, не мудрствуя лукаво, назвали новую логику - nForce4 SLI Intel Edition (кодовое имя – Crush19).

    Чипсет

    Функциональность nForce4 SLI Intel Edition (далее IE) и его брата-близнеца для платформы AMD абсолютно идентична. Между тем структура чипсета претерпела некоторые изменения.

    Два из них были неизбежны – в набор микросхем был интегрирован контроллер оперативной памяти, а процессорная шина AMD – Hyper Transport - была заменена на 400/533/800/1066 МГц Pentium 4 CPU Interface . Поскольку процессоры Athlon64/FX оснащены встроенным контроллером памяти, разработчикам NVIDIA удалось разместить nForce4 SLI в одном корпусе. При реализации nForce4 SLI IE им пришлось вернуться к классической двухмостовой схеме. В северный мост (SPP) были встроены контроллеры оперативной памяти и интерфейса PCI Express. Южный мост сформирован из устройств, управляющих 5 портами PCI, 10 USB, 4 накопителями с интерфейсом IDE и 4 с SATA II, 7.1-канальным звуком и гигабитной сетью с аппаратным брандмауэром ActiveArmor. Для связи между северным и южным мостами используется шина Hyper Transport.

    IE-модификация чипсета работает только с перспективной памятью DDR2 – еще один вестник скорой смерти DDR. По заверению NVIDIA, реализация поддержки обоих типов требует применения ряда компромиссных решений, в конечном счете, негативно сказывающихся на производительности. Контроллер модулей – двухканальный. Напомним, что NVIDIA является первооткрывателем технологии использования двух каналов DDR. Используются два независимых 64-bit юнита, способных работать в спаренном режиме как один 128-bit контроллер.

    Для каждого из четырех поддерживаемых чипсетом модулей DIMM, применяется выделенная шина управления и адресации, что дает возможность включения режима 1T address timing (Command Rate), позволяющего значительно снизить латентность памяти.

    Причина уменьшения времени задержки лежит на поверхности. В режиме 1T address timing адрес с командой подаются контроллером на шину и записываются в модуль за один такт. В случае использования 2Т, первая операция выполняется за один такт, вторая - за другой. Помимо этого, с активным 1T address timing новый контроллер NVIDIA использует вдвое меньшую, чем разработки Intel, длину прерывания (burst length), что позволяет более эффективно загружать шину. Еще одна оптимизация работы с памятью применная в новом контроллере – улучшенный блок упреждающего чтения DASP 3.0 (Dynamic Adaptive Speculative Preprocessor).

    Официально, чипсетом поддерживаются небуферизованные non-ECC DDR2-модули с рабочими частотами 200/266/333 МГц. Но тестирование (гиперссылка на раздел Разгон и тестирование) показало, что логика способна стабильно работать и с более быстрыми модулями. Технология QuickSync позволяет тактировать шины памяти и FSB как в синхронном, так и в асинхронном режиме, что дает широкий простор для деятельности оверклокерам.

    Вот, собственно, и все основные отличия чипсета nForce4 SLI IE от nForce4 SLI (AMD).

    По сравнению со своими основными конкурентами – чипсетами Intel 955Х и новым 975X, NVIDIA nForce4 SLI IE является более привлекательным.

    Характеристика

    NVIDIA nForce4 SLI Intel Edition

    Intel 955Х Express

    Intel 975Х Express

    Северный мост

    Поддерживаемые процессоры

    Pentium 4, Pentium 4 Extreme Edition, Pentium D, Pentium D Extreme Edition и Intel Celeron D

    Intel Pentium 4, Pentium 4 Extreme Edition, Pentium D и Pentium Extreme Edition

    Поддерживаемые разъемы

    Частота системной шины, МГц

    400/533/800/1066

    Контроллер оперативной памяти

    двухканальный контроллер DDR2-400/533/667 с поддержкой 4 модулей DIMM суммарным объемом до 64 GB

    двухканальный контроллер DDR2-533/667 с поддержкой 4 модулей DIMM суммарным объемом до 8 GB

    ECC

    Графический интерфейс

    PCI Express x16 или 2 PCI Express x8 (режим SLI)

    PCI Express x16 или 2 PCI Express x8

    Южный мост

    PCI Express, линий

    4 PCI Express (3 в режиме SLI)

    6 PCI Express x1

    PCI, линий

    Parallel ATA , каналов

    Serial ATA, портов

    4 х 3 Gbit/s, NCQ

    4 х 3 Gbit/s, NCQ

    Поддержка RAID

    0, 1, 0+1 (10) и 5

    0, 1, 0+1 (10) и 5 из SATA-дисков

    USB 2.0 , портов

    Звук

    Intel High Definition Audio (7.1) или AC"97 (7.1)

    Среди явных преимуществ детища калифорнийцев можно выделить отсутствие искусственного ограничения диапазона доступных частот системной шины, наличие второго канала Parallel ATA, уникальную возможность создавать перекрестные RAID-массивы из дисков с интерфейсом PATA и SATA и главный козырь – поддержку режима SLI. При этом не стоит забывать и о бо льшей приспособленности nForce4 SLI IE к разгону, что также немаловажно для компьютерных энтузиастов. Серьезное нарекание чипсет может получить только за поддержку старого звукового стандарта АС"97 вместо новомодного High Definition Audio.

    Что ж, давайте теперь посмотрим на реальное изделие на основе нового чипсета – материнскую плату ASUS P5ND2-SLI.

    Технические характеристики ASUS P5ND2-SLI

    Как это принято у тайваньской компании ASUS, логика представлена несколькими модификациями платы. Базовой моделью является P5ND2-SLI Deluxe. Более дешевая P5ND2-SLI получилась общеизвестным и широко распространенным способом упрощения – использована та же разводка печатной платы, но не распаян ряд контроллеров. Правда, благодаря довольно высокому уровню функциональности чипсета, простой P5ND2-SLI также не назовешь.

    Поддерживаемые процессоры

    Pentium 4, Pentium 4 Extreme Edition, Pentium D, Pentium D Extreme Edition и Intel Celeron D, Socket LGA 775

    Чипсет

    NVIDIA nForce4 SLI Intel Edition

    Слоты памяти

    4 DIMM-слота (два канала) для не буферизованных non-ECC DDR2-667/533/400 модулей, максимальным суммарным объемом до 16 GB.

    Слоты расширения

    2 х PCI Express x16 (х8), 2 x PCI Express x1, 3 x PCI

    Parallel ATA

    2 канала UltraDMA 133 реализованных на контроллере интегрированном в чипсет

    Serial ATA

    4 порта 3 Gbit/s (SATAII) реализованных на контроллере, интегрированном в чипсет.

    RAID 0, RAID 1, RAID 0+1, RAID 5

    Ethernet

    10/100/1000 Mbit/s на Intel 82540EM

    Интегрированный звук

    10 портов, (4 выведено на заднюю панель)

    IEEE 1394

    Системный мониторинг

    Отслеживание напряжения на компонентах, скорости вращения вентиляторов, температуры процессора (по встроенному термодатчику). Чип ITE IT8712F.

    Дополнительные возможности

    ASUS CrashFree BIOS2, AI Overclocking, AI NOS, MyLogo2

    Возможности разгона

    Точная настройка частоты FSB и оперативной памяти, таймингов, напряжения на компонентах.

    Phoenix Award BIOS, 4 Mbit flash EEPROM

    Форм-фактор

    ATX, 245 мм x 305 мм (12" х 9.6")

    Плата принадлежит к серии ASUS AI (Artificial Intelligence – искусственный интеллект) и имеет целый ряд возможностей. призванных сделать компьютер более "умным" и "человечным". Вообще, по нашим подсчетам, в настоящий момент ASUS является рекордсменом по количеству так называемых "фирменных" технологий, среди которых можно выделить следующие:

    • AI NOS (Non-delay Overclocking System) – система динамического оверклокинга определяющая степень загруженности процессора и автоматически разгоняющая систему при возрастании нагрузки. Величина разгона и "порог" срабатывания технологии определяются пользователем.
    • AI Overclocking – набор настроек для разгона процессора и памяти ориентированный на начинающих оверклокеров.
    • CPU LockFree – возможность изменения множителя процессора в сторону уменьшения, что дает, например, теоретическую возможность превратить Pentium 4 на ядре Prescott 2M в Pentium 4 Extreme Edition.
    • Q-Fan – автоматическая настройка скорости вращения крыльчатки процессорного кулера, в зависимости от показаний термодатчика.
    • AI Quiet – функция базирующаяся на технологии Intel SpeedStep и работающая совместно с Q-Fan. В моменты уменьшения нагрузки на процессор снижает частоту и напряжение, что позволяет снизить уровень тепловыделения, энергопотребления и шума системы.
    • CrashFree BIOS2 – функция автоматического восстановления поврежденного микрокода BIOS, с помощью диска входящего в комплект.
    • Multi-Language BIOS – опция с "прозрачным" названием и практически бесполезная для нашего региона ввиду отсутствия русского языка.

    На этом список для данной платы заканчивается. Если бы мы рассматривали ее Deluxe-модификацию, его можно было бы продолжать и дальше.

    Упаковка и комплектация

    Плата поставляется в симпатично оформленной коробке стандартных размеров. В комплект поставки входят следующие вещи:

    • два 80-жильных IDE-кабеля и один для FDD;
    • два SATA-кабеля;
    • два переходника со штекера питания Molex на два SATA;
    • SLI-мостик с фиксирующим кронштейном;
    • заглушка для I/O панели на заднюю стенку корпуса;
    • CD с драйверами и программным обеспечением;
    • руководство по эксплуатации, и памятка по сборке.

    Для упрощенной модификации Hi-End платы набор весьма неплохой. Излишеств не наблюдается, но практически все необходимое присутствует. Хотя, учитывая отсутствие на задней панели COM-порта, все же хотелось бы видеть в комплекте соответствующий кронштейн.

    Дизайн и компоновка

    Материнская плата P5ND2-SLI выполнена на текстолите шоколадного цвета.

    При первом взгляде на дизайн, сразу обращаешь внимание на отсутствие каких-либо вентиляторов, используемых для охлаждения компонентов (Fanless Design), что нетипично для продуктов на основе чипсета nForce4 SLI. Для отвода тепла от северного моста (SPP) используется выкрашенный в красный цвет алюминиевый радиатор довольно сложной формы и необычайно больших размеров.

    Южный мост (MCP) оснащен теплосъемником поменьше. Примечательно, что в качестве теплопроводящего интерфейса в обоих случаях используется термопаста, по качеству напоминающая популярную КПТ-8.

    Силовые транзисторы, стабилизирующие напряжение двух наиболее загруженных каналов питания процессора, также охлаждаются радиатором, что помогает сделать выходные характеристики конвертера более гладкими.

    Пространство около процессорного разъема достаточно свободно для установки кулеров любой формы и размеров, близких к стандартным. Но при инсталляции нетривиального решения –Thermaltake Big Typhoon, возникла проблема: прижимная пластина устройства "упирается" в высокий конденсатор, что не позволяет создать достаточное усилие в одной из четырех точек приложения прижимной силы.

    В общем-то, для проведения тестирования подошел и такой вариант, но все же неприятность легко устранима. Об этом позаботились инженеры Thermaltake, положив в комплект альтернативную сборную пластину иной формы. Что ж, браво специалистам Thermaltake и никаких претензий по этому вопросу к разработчикам ASUS. В который раз повторюсь, что совместимость продукции должны продумывать скорее производители нестандартных кулеров, чем дизайнеры материнских плат.

    Но за конструкторами ASUS есть другой грешок. Взглянув на радиаторы северного моста и силовых транзисторов, легко заметить, что их ребра развернуты по ходу воздуха, выходящего из гипотетического процессорного кулера. Так что система охлаждения компонентов на самом деле псевдо-пассивная. Действительно, большой чипсетный радиатор в отсутствие обдува, даже в штатных режимах работы платы, довольно быстро раскаляется до такой степени, что до него и дотронуться было страшно, не говоря о том, чтобы подержать палец (применялся открытый стенд). Поскольку вентилятор все того же Big Typhoon расположен довольно высоко над материнской платой, от тайфуна, создаваемого 120 мм крыльчаткой, до радиатора северного моста доходил лишь легкий знойный ветерок. А ведь чипсет nForce4 SLI ориентирован на компьютерных энтузиастов, которые могут запросто установить на процессор систему водяного охлаждения, и вовсе лишив обдува элементы платы. В очередной раз отметим, что современной логике NVIDIA больше подходят активные кулеры. Но все же, отметим, что в ходе тестирования никаких нестабильностей в работе платы по причине повышенного нагрева замечено не было.

    Слоты PCI Express x16 разделены не одним, как это часто бывает, а двумя разъемами PCI Express x1.

    ASUS указывает, что сделано это было неслучайно, а для улучшения температурного режима работы связки из двух видеоадаптеров. Действительно, увеличившееся расстояния между ускорителями должно улучшить отвод тепла от радиатора устройства, расположенного в верхнем слоте. Для переключения между режимами работы графических разъемов используется привычный двухсторонний кусочек текстолита с дорожками – SLI-терминатор.

    Питание на процессор подается с восьмиконтактного разъема EATX12V, полностью совместимого со старыми четырехконтактными ATX12V.

    Слоты памяти вертикально расположены в правой части платы. Разъем питания и колодка FDD также находятся в положенных местах.

    Примечательно, что первая колодка одного из поддерживаемых чипсетом каналов IDE распаяна в нижней части платы, чтобы быть ближе к корзине с жесткими дисками, а другая смещена вверх, к оптическим приводам, – решение нетривиальное и полезное.

    Как было сказано выше, продукт, попавший на тестирование, является наиболее простой модификацией, потому на текстолите можно заметить много мест с разведенными дорожками, но не распаянными дискретными чипами. В частности, более дорогая модель в дополнение к четырем портам SATA II, поддерживаемым двумя независимыми контроллерами, интегрированными в южным мост чипсета, имеет еще два разъема, подключенных к распространенному чипу Sil3132 производства Silicon Image. Один разъем (External SATA port) выводится на заднюю панель, другой - располагается возле первого слота PCEe x16. Еще одно место для такого же чипа предусмотрено возле четырех основных портов, но ASUS пока не выпускает модели с третьим контроллером.

    Помимо этого на текстолите можно увидеть дорожки, разведенные под нераспаянный чип Texas Instruments TSB43AB22A, обеспечивающий поддержку двух портов IEEE 1394.

    Продвинутые сетевые возможности чипсета, физически реализованы на контроллере Intel RC82540 использующем шину PCIe х1.

    На Deluxe-версию платы устанавливается еще один сетевой чип – Marvell 88E1111.

    Встроенный звук базируется на широко распространенном сегодня 8-канальном (7.1) AC"97-кодеке Realtek ALC850.

    На заднюю панель материнской платы ASUS P5ND2-SLI выведены следующие порты и разъемы:

    • два гнезда PS/2 для подключения мыши и клавиатуры;
    • четыре USB 2.0;
    • сетевой RJ-45;
    • один параллельный (LPT);
    • восемь входов-выходов звуковой карты (mini-jack).
    • коаксиальный выход S/PDIF.
    Конечно, нельзя не посетовать на отсутствие на задней панели COM-порта. В Deluxe-модели его место занимает внешний разъем SATA, а на нашем экземпляре это место и вовсе пустует. Но ведь сегодня огромная часть Internet-пользователей получает доступ к сети через dial-up, и даже "продвинутые" модели модемов все еще используют последовательный интерфейс. Потому наличие хотя бы одного COM-пора на задней панели все еще является насущной необходимостью. Хотя не все так плохо: на плате все же есть колодка для подключения недостающего COM, вот только соответствующий брекет придется приобретать отдельно.

    BIOS и программное обеспечение

    Базовая система ввода-вывода материнской платы ASUS P5ND2-SLI основана на Phoenix Award BIOS и записана в 4 Mb flash-микросхему. Меню BIOS setup имеет привычный для плат ASUS вид.

    Не обращая внимания на скучные пункты конфигурации устройств, присутствующие в полном объеме, сразу переходим на закладку Advanced. Все основные опции, необходимые для разгона системы, сосредоточены в пункте JumperFree Configuration.

    Первым делом оверклокеру предоставляется выбор одного из шести способов осуществления разгона. Профили Standard и Auto так и остались для меня загадкой. При их активации все опции раздела просто блокировались. Выбор Safe Mode накладывает некоторые ограничения на действия пользователя. В опции AI Overclock доступен выбор увеличения частоты системной шины на 5, 10, 15 и 20 % или соотношения клокинга FSB и оперативной памяти из набора 960/800, 1280/800, 1000/667, 1333/667, 1200/800 МГц.

    Набор в профиле AI NOS несколько проще – величина овердрайва может составлять 3, 5, 8 и 10 %.

    Но все же, учитывая величину тепловыделения современных процессоров Intel, данный режим может оказаться более предпочтительным, так как производит разгон только по необходимости и позволяет полноценно функционировать технологии Intel SpeedStep. К тому же программисты ASUS реализовали настройку чувствительности системы, позволяющую пользователю выбрать одну из трех условных степеней загруженности процессора – Sensitive, Standard и Heavy Load, по достижении которой активируется NOS.

    Наконец, для опытных оверклокеров доступен профиль Manual, после активации которого становятся доступными подпункты Frequency Control, Spread Spectrum Control, Voltage Control. Не трудно догадаться, что в первом сосредоточены возможности управления основными частотами. Настройка скорости FSB осуществляется с особой точностью. Шаг привычен – 1 МГц, но поскольку он относится к регулировке частоты процессорной шины QPB (Quad Pumped Bus) для вычисления которой используется множитель 4, реальное приращение клокинга тактового генератора составляет 0.25 МГц. Доступный диапазон настройки - 790-1600 (197.5-400) МГц.

    Для определения скорости оперативной памяти используется огромный набор делителей, фактически позволяющий настраивать ее частоту с шагом 1-10 МГц независимо от FSB в пределах от 400 до 1200 (DDR) МГц.

    Такая точность управления шинами позволяет терпеливому оверклокеру выжать из своей системы все, вплоть до последнего стабильного мегагерца.

    Клокинг шины PCI Express регулируется в пределах от 100 до 150 МГц с шагом 1 МГц. Впрочем, в данном случае эта опция практически бесполезна, так как в отличие от чипсетов Intel, nForce4 SLI IE остается стабильным даже при значительном "перекосе" частот различных блоков и не требует увеличения клогинга PCI синхронно с FSB.

    Несмотря на то, что настройки подпункта Spread Spectrum Control сами по себе не представляют никакой пользы для оверклокера, в рассматриваемое меню они были включены неслучайно. Дело в том, что зачастую активированный режим подавления радиопомех, создаваемых различными шинами, становится препятствием для серьезного разгона.

    В подпункте Voltage Control сосредоточен богатый набор средств для регулировки напряжений на компонентах. Все значения, выходящие, по мнению инженеров ASUS, за рамки безопасных, выделяются цветом.

    Вольтаж на модулях оперативной памяти можно увеличить в пределах от 0.05 до 0.5 В с шагом 0.05 В.

    Северный и южный мосты можно "подогреть" на 0.1-0.2 В.

    Доступные значения вольтажа FSB составляют 1.25, 1.3, 1.35, 1.4 В.

    Диапазон регулировки напряжения питания процессора: 0.9375-1.7000 В с шагом 0.0125, чего вполне достаточно даже для экстремального разгона. Но использование этой настройки приводит к неработоспособности технологии снижения тепловыделения процессора Enhanced Intel SpeedStep (EIST).

    Следующая опция позволяет задать приращение вольтажа питания CPU на 0.1 В относительно номинального, при сохранении функции EIST.

    В принципе, этого должно хватить, при умеренном оверклокинге.

    Вернувшись на закладку Advanced, заглянем в любопытный пункт CPU Configuration. Здесь, в случае необходимости, можно активировать функцию CPU Lockfree, изменить множитель частоты процессора, определить множитель и напряжение при срабатывании встроенной в ядро Prescott 2M защиты от перегрева Thermal Monitoring2, активировать EIST, C1E, а также аппаратную защиту от вирусов – Execute Disable Bit.

    И, наконец, в разделе Memory Timing Configuration пользователю открывается достаточно широкий набор задержек:

    • CAS# Latency (Tcl): 1-6;
    • RAS# to CAS# delay (Trcd): 1-7;
    • Row Precharge Time (Trp): 1-7;
    • Min RAS# active Time (Tras): 5-31.

    Особо отметим возможность выбора нового, для платформы Intel, режима адресации памяти (address mode) 1Т.

    Как видите, BIOS материнской платы ASUS P5ND2-SLI обладает достаточно богатым набором настроек для оверклокинга. Можно даже сказать, что видеть такое обилие опций на продукте под платформу Intel, по крайней мере, непривычно.

    Но для управления этими возможностями, заходить в меню конфигурации BIOS вовсе не обязательно. Все основные опции продублированы в программе ASUS AI Booster, поставляемой вместе с платой.

    Оболочка запускается под ОС Windows, имеет довольно стильный дизайн и позволяет контролировать напряжения на всех основных компонентах, скорость вращения вентиляторов, а также показания термодатчиков процессора и материнской платы. Доступно также изменение опций AI NOS, AI Overclocking, частот FSB и памяти, напряжений.

    Характерной чертой программы является то, что все произведенные пользователем настройки сохраняются в микросхеме BIOS. Такой подход имеет как плюсы, так и минусы. С одной стороны, конфигурировать BIOS гораздо удобнее и приятнее в графической среде Windows. С другой, начинающий пользователь, расслабившийся из-за легкости и наглядности процесса разгона, введя чересчур оптимистичные значения частот, может сделать систему незагружаемой. Правда, и в этом случае ничего страшного не произойдет. Поскольку технология Watch Dog Timer (по версии ASUS – CPU Parameter Recall) реализована достаточно неплохо, пользователю придется всего лишь выждать около 10 секунд, после чего все настройки, касающиеся оверклокинга, будут сброшены. Напоследок отметим, что программа AI Booster ведет себя абсолютно стабильно при разгоне системы, отлично справляясь с этой функцией.

    Для тех обладателей платы, которые по каким-либо причинам не желают заниматься оверклокингом, но хотят при этом иметь доступ к средствам системного мониторинга из-под Windows, ASUS предлагает утилиту PC Probe. Программа состоит из двух модулей. Первый позволяет настроить пороговые значения параметров, за которыми производится наблюдение и при достижении которых срабатывает сигнализация. Второй представляет собой ряд блоков, отображающих текущие значения напряжений, температур и скоростей.

    Прямоугольники с показаниями датчиков можно располагать в произвольном порядке: в линию, в столбик, пирамидой и т.д.

    Для обновления версии BIOS в комплекте присутствует утилита ASUS Update, способная автоматически осуществлять поиск наиболее свежей версии на сайте производителя, и осуществлять прошивку.

    Ну и напоследок упомянем наличие, на радость эстетам, утилиты MyLogo, которая поможет установить любую картинку в качестве заставки, отображаемой во время прохождения компьютером POST.

    Разгон и тестирование

    Тестирование проводилось на стенде следующей конфигурации:

    • процессор: Intel Pentium 4 670 (Prescott 2M, N0), 3800 МГц (19 x 200);
    • оперативная память: 2 х 512 MB, Kingmax KLCC28F-A8HD5-HGES DDR2-667 (SPD 5-5-5-15 333 МГц);
    • видеокарты: 2х PALIT GeForce 6600 GT PCI-E (500/1000 МГц, 8/3 pipelines);
    • жесткие диски: Seagate ST3200822AS 200 GB SATA 7200 об/мин и Seagate ST3120827AS 120 GB SATA 7200 об/мин;
    • блок питания: FSP 550 Вт (FSP550-60PLN);
    • кулер: Thermaltake Big Typhoon 1300 об/мин;
    • операционная система: Windows XP Professional SP2 (ENG).

    Итак, в составе стенда применялся топовый процессор Intel на ядре Prescott 2M новой ревизии N0.

    Данный CPU использует высокий множитель (19) и потому предъявляет к материнской плате довольно "мягкие" требования при разгоне. В частности, к ее способности работать при высоких частотах FSB. Для того чтобы достичь максимальной (исходя из результатов разгона полученных на других платах) частоты нашего экземпляра, ядра Prescott 2M (4294 МГц), понадобилось бы лишь увеличить клокинг тактового генератора со стандартных 200 до 226 МГц. Но выполнить эту нехитрую операцию оказалось непросто. Плата повела себя довольно странно: при скорости QPB равной 902 (225,5) МГц процессор работал абсолютно стабильно и проходил весь набор тестов. Но уже при 903 (225,75) МГц система просто не стартовала.

    Понижение частоты памяти, увеличение задержек, повышение напряжений на компонентах и даже "пляски с бубном" вроде ускорения шины PCI Express и отключения функций энергосбережения, гипотетически способных препятствовать разгону, так и не помогли преодолеть барьер. Прошивка наиболее свежей, на момент тестирования, версии BIOS (0501) не изменила ситуации. Конечно, оставалось только предположить, что плата не способна стабильно работать на частотах тактового генератора более чем 225,5 МГц. Что ж, проверить данное предположение не трудно. Понижаем множитель процессора до 14, а частоту памяти удерживаем ниже номинальной. В результате клокинг FSB удалось поднять до 241 МГц, но при дальнейшем увеличении плата стала вести себя несколько нестабильно. Увеличив напряжение на FSB (CPU Termination Voltage) до 1.4 В, частоту удалось увеличить до 263.7 МГц.

    Еще немного, и плате удалось бы достичь заветных 266 МГц. Заветных потому, что возможность установить клокинг QPB равный 1066 МГц (266 х 4) позволяет легко превратить практически любой Pentium 4 на ядре Prescott 2M в Pentium 4 Extreme Edition. В частности, для того, чтобы получить топовый Pentium 4 Extreme Edition 3.73 МГц (14 х 266), наш экземпляр даже не пришлось бы разгонять. Тем не менее, мы видим, что плата способна работать при скорости FSB большей, чем ставшие барьером 225.5 МГц. В принципе, на этом можно было бы и закончить, решив, что 4284 (225,5 х 19) МГц - предел данного экземпляра процессора, если бы перед автором не стояла задача проверить стабильность платы при разгоне из-под Windows с помощью фирменной программы ASUS AI Booster. Здесь мне довелось увидеть совсем другие результаты: тестовому Pentium 4 670 удалось достичь 4502 (237 х 19) МГц при напряжении, повышенном на 0.1 В.

    Жаль, но добиться при этом стабильности не удалось. Процессор нормально "проходил" SuperPi, помог автору установить новый личный рекорд в этом тесте, рассчитав число Пи с точностью 1М и 4М за 29 и 149 секунд соответственно, но "споткнулся" на 3DMark 2006. Как уже было сказано выше, программа AI Booster после подтверждения пользователем измененных настроек сохраняет их в BIOS. Потому, учитывая тот факт, что плата не стартовала при превышении частоты шины свыше 225.5 МГц, для меня не стало неожиданностью, что после нескольких часов стабильной работы процессора при 4483 (236 х 19) МГц, перезагрузка приводила к зависанию системы при прохождении POST. Все это выглядит довольно странно. Очевидно, что в данном случае мы имеем дело с частной проблемой реализации разгона в BIOS, проявившейся в работе с конкретной конфигурацией. Тем не менее, плата позволила значительно улучшить максимальный результат разгона нашего процессора. Ранее процессору не удавалось преодолеть барьер в 4300 МГц. Жаль, только что плата не позволяет загружаться с данным показателем.

    Весьма полезной может оказаться система динамического оверклокинга (NOS). Во время тестов функция работала вполне стабильно, без каких-либо нареканий. Существенным недостатком является только низкий процент максимального разгона. Ведь 10% прироста скорости FSB недостаточно для достижения частотного предела даже топового процессора с максимальным множителем 19, не говоря уже о младших моделях.

    Достаточно важной особенностью контроллера памяти чипсета nForce4 SLI IE является возможность работать с задержкой адресации в один такт, а также наличие большого количества делителей, позволяющих тактировать рабочую частоту практически независимо от FSB. В составе стенда применялась оперативная память Kingmax KLCC28F, в SPD которой можно найти следующую информацию.

    При напряжении питания, повышенном до 2.1 В, модули стабильно работали при любой частоте в диапазоне от 200 (DDR2-400) до 400 (DDR2-800) МГц, независимо от FSB. Так что остается только констатировать: новый чипсет NVIDIA действительно способен независимо тактировать различные шины, в отличие от решений Intel, имеющих всего несколько делителей скорости памяти и зачастую требующих повышения клокинга PCI Express синхронно с FSB. Самые низкие задержки, при которых модули Kingmax KLCC28F, используемые в составе стенда, смогли работать при штатной частоте 333 (DDR2-667) МГц, составили 4-4-4-12 1T. При тех же таймингах память стабильно функционировала и при 400 (DDR2-800) МГц. Эта особенность дает нам возможность сравнить прирост производительности от повышения рабочей частоты модулей без увеличения задержек. Таким образом, для тестирования у нас получилось три режима работы системы, не считая вариаций с наличием второй видеокарты (SLI).

    Частота процессора, МГц

    Частота FSB/Quad Pumped Bus, МГц

    Частота оперативной памяти (DDR2), МГц

    Напряжение питания процессора, В

    Напряжение питания FSB, В

    Напряжение питания оперативной памяти, В

    Тайминги оперативной памяти (Tcl-Trcd-Trp-Tras, CR)

    Прямыми конкурентами чипсета nForce4 SLI Intel Edition являются топовые решения от Intel – 955X и 975X. Поскольку серийные продукты на базе новоиспеченного i975X пока еще слишком слабо распространены, и могут иметь проблемы со скоростью из-за "сырости" BIOS, сравнивать производительность решения NVIDIA мы будем с чипсетом i955X, представленным платой Intel D955XBK.

    Первый полусинтетический пакет тестов не дает сколь ни будь ясное представление о расстановке сил. Разбежка в скорости вписывается в погрешность измерений, за исключением лишь графической составляющей, где логика NVIDIA заметно быстрее.

    Остальные тесты лишь подтверждают результаты, полученные в PCMark05. Довольно интересно, что производительность системы практически не изменилась при повышении частоты модулей с 667 до 800 (DDR) МГц. Трудно сказать, чем это вызвано, руководствуясь лишь общими данными об архитектуре чипсета и контроллера памяти в частности. Остается лишь констатировать факт – частота модулей DIMM свыше 667 МГц, при описанной конфигурации системы практически бесполезна для увеличения производительности.

    Выводы

    Появление столь сильного игрока как NVIDIA на рынке чипсетов для платформы Intel – событие, безусловно, знаковое. Конечно, говорить о захвате логикой nForce4 SLI Intel Edition значимых позиций по количеству продаж не приходится. Все-таки набор микросхем ориентирован скорее на компьютерных энтузиастов, чем на обычных пользователей. Но NVIDIA уже сделала новый шаг в экспансии на новые просторы, анонсировав 17 января Intel-версию наиболее удачного чипсета для платформы AMD – nForce4 Ultra. При этом возможности наборов логики калифорнийцев для разгона системы не могут быть не оценены оверклокерами. Потому, сегодня, когда цены на приблизительно аналогичные модели процессоров обеих производителей близки как никогда, противостояние компаний может еще больше усилиться.

    Возвращаясь к чипсету nForce4 SLI, отметим, что по общей производительности логика как минимум не проигрывает топовым решениям Intel, держа при этом открытым главный козырь – реально работающую технологию SLI.

    Что касается рассмотренной материнской платы ASUS P5ND2-SLI, то здесь мы видим очередной добротный и качественный продукт известного тайваньского производителя. Несмотря на то, что речь идет о самой простой модификации, плата обладает функциональностью, достаточной для большинства среднестатистических пользователей, укомплектована внушительным набором фирменных технологий и программного обеспечения и, при этом, демонстрирует весьма неплохие способности к разгону. К недостаткам продукта можно отнести некоторые просчеты с охлаждением.

    Платы ASUS P5ND2-SLI и MSI 945P Neo, DDR2-память Kingmax и видеокарты Palit GeForce 6600 PCI-E были предоставлены компанией Ронгбук