Geforce 8800 gts сравнение. Видеокарты. Улучшение качества изображения

06.05.2020 Обзоры 

За более чем год, прошедший с момента выхода видеокарт на чипах NVIDIA линейки GeForce 8800, на рынке графических ускорителей сложилась крайне невыгодная для конечного покупателя ситуация. Фактически, у оверклокера, способного выложить за топовые видеокарты кругленькую сумму денег, попросту не было альтернативы. Конкурент от ATI(AMD) появился позже и, в конечном итоге, так и не смог составить достойную конкуренцию GeForce 8800 GTX, а в последствии и Ultra версии NVIDIA GeForce 8800. Поэтому маркетологи NVIDIA без особого труда смекнули, что при отсутствии конкуренции снижать стоимость топовых видеокарт вовсе не обязательно. В результате чего на протяжении всего этого периода цены на GeForce 8800 GTX и Ultra держались на одном очень высоком уровне, и позволить себе такие видеокарты могли лишь не многие.

Однако, верхний ценовой сегмент никогда не был определяющим и приоритетным для производителей графических чипов и видеокарт. Да, лидерство в этом классе безусловно престижно для любой компании, но с экономической точки зрения наиболее выгодным является средний ценовой диапазон. Тем не менее, как показали недавние тесты претендующих на верховенство в среднем классе AMD Radeon HD 3850 и 3870, производительность таких видеокарт неудовлетворительная для современных игр и в принципе неприемлемая для их качественных режимов. NVIDIA GeForce 8800 GT быстрее этой пары, но также недотягивает до комфортности в DirectX 10 играх. Что следом за ним, если есть возможность доплатить? До вчерашнего дня фактически ничего и не было, так как между GT и GTX буквально пропасть в ценовом выражении и всё.

Но технический прогресс не стоит на месте – появление нового чипа NVIDIA G92, выпускаемого по 65-нм технологии, позволило компании не только привлечь оверклокеров вполне удачной видеокартой GeForce 8800 GT, но и вчера, 11 декабря в 17 часов по московскому времени, анонсировать новинку – GeForce 8800 GTS 512 Мб . Несмотря на вполне незамысловатое название видеокарты, новый графический ускоритель имеет ряд существенных отличий от обычной версии GeForce 8800 GTS. В сегодняшнем материале мы с вами познакомимся с одной из первых видеокарт GeForce 8800 GTS 512 Мб, появляющихся на российском рынке, проверим её температурный режим и оверклокерский потенциал, и, конечно же, изучим производительность новинки.

реклама

1. Технические характеристики видеокарт, участвующих в тестировании

Технические характеристики новинки представлены вашему вниманию в нижеследующей таблице в сравнении с видеокартами NVIDIA семейства GeForce 8800:

Наименование технических
характеристик
NVIDIA GeForce
8800 GT 8800 GTS 8800 GTS
512 Мб
8800
GTX / Ultra
Графический процессор G92 (TSMC) G80 (TSMC) G92 (TSMC) G80 (TSMC)
Техпроцесс, нм 65 (low-k) 90 (low-k) 65 (low-k) 90 (low-k)
Площадь ядра, кв.мм 330 484 330 484
Число транзисторов, млн. 754 681 754 681
Частота графического процессора, МГц 600
(1512 shader)
513
(1188 shader)
650
(1625 shader)
575 / 612
(1350 / 1500
shader)
Эффективная частота работы
видеопамяти, МГц
1800 1584 1940 1800 / 2160
Объем памяти, Мб 256 / 512 320 / 640 512 768
Тип поддерживаемой памяти GDDR3
Разрядность шины обмена с памятью, бит 256
(4 x 64)
320 256
(4 x 64)
384
Интерфейс PCI-Express
x16 (v2.0)
PCI-Express
x16 (v1.x)
PCI-Express
x16 (v2.0)
PCI-Express
x16 (v1.x)
Число унифицированных шейдерных
процессоров, шт.
112 96 128
Число текстурных блоков, шт. 56 (28) 24 64 (32) 32
Число блоков растеризации (ROP’s), шт. 16 20 16 24
Поддержка версии Pixel Shaders / Vertex
Shaders
4.0 / 4.0
Полоса пропускания видеопамяти, Гб/сек ~57.6 ~61.9 ~62.1 ~86.4 / ~103.7

закраски, Гпикс./сек
~9.6 ~10.3 ~10.4 ~13.8 / ~14.7
Теоретическая максимальная скорость
выборки текстур, Гтекс./сек
~33.6 ~24.0 ~41.6 ~36.8 / ~39.2
Пиковая потребляемая мощность в
3D-режиме работы, Ватт
~106 ~180
Требования к мощности блока питания,
Ватт
~400 ~400 ~400 ~450 / ~550
Размеры видеокарты референсного
дизайна, мм (Д х В х Т)
220 х 100 х 15 228 х 100 х 39 220 х 100 х 32 270 х 100 х 38
Выходы 2 х DVI-I
(Dual-Link),
TV-Out, HDTV-
Out, HDCP
2 х DVI-I
(Dual-Link),
TV-Out,
HDTV-Out
2 х DVI-I
(Dual-Link),
TV-Out, HDTV-
Out, HDCP
2 х DVI-I
(Dual-Link),
TV-Out,
HDTV-Out
Дополнительно поддержка SLI
Рекомендованная стоимость, долларов США 199 / 249 349 ~ 399 299~349 499~599 / 699

2. Обзор BFG GeForce 8800 GTS 512 Мб OC (BFGR88512GTSE)

Новейшая видеокарта от хорошо известной оверклокерам компании поставляется в очень компактной коробке, оформленной в тёмных тонах.

Обновление: мы решили дополнить первоначальный обзор дополнительными теоретическими сведениями, сравнительными таблицами, а также результатами тестов американской лаборатории THG, где участвовала и "младшая" карта GeForce 8800 GTS. В обновлённой статье вы также найдёте тесты качества.

GeForce 8800 GTX - на голову выше конкурентов.

Вы наверняка слышали о DirectX 10 и чудесах, которые новый API обещает по сравнению с DX9. В Интернете можно найти скриншоты игр, которые всё ещё находятся в разработке. Но до сего момента видеокарт с поддержкой DX10 на рынке не было. И nVidia исправила этот недостаток первой. Поприветствуем выход видеокарт DirectX 10 в виде nVidia GeForce 8800 GTX и 8800 GTS!

Единая унифицированная архитектура сможет больше выжать из блоков шейдеров, поскольку их теперь можно использовать эффективнее, чем при фиксированной раскладке. Новую эру в компьютерной графике открывают GeForce 8800 GTX со 128 унифицированными блоками шейдеров и GeForce 8800 GTS с 96 такими блоками. Наконец-то прошли дни пиксельных конвейеров. Но давайте внимательнее посмотрим на новые карты.

На подложке показаны 80 графических ядер. Новый графический процессор обещает дать в два раза более высокую производительность, чем GeForce 7900 GTX (G71). 681 миллион транзисторов приводит к огромной площади кристалла, но когда мы спросили об этом, то CEO nVidia Джен-Хсун Хуан (Jen-Hsun Huang) ответил: "Если бы мои инженеры сказали, что могут удвоить производительность, удвоив площадь кристалла, я бы даже не сомневался!"

Как показывает опыт, удвоение площади отнюдь не удваивает производительность, но nVidia, похоже, нашла правильный баланс между технологическими продвижениями и реализацией кристалла на кремнии.

GeForce 8800 GTX и 8800 GTS полностью соответствуют стандарту DX10 и Shader Model 4.0, различным стандартам хранения и передачи данных, поддерживают геометрические шейдеры и потоковый вывод (Stream Out). Как же всё это реализовала nVidia?

Начнём с того, что nVidia отошла от фиксированного дизайна, который последние 20 лет использует индустрия, в пользу унифицированного шейдерного ядра.


Раньше мы демонстрировали схожие слайды, иллюстрирующие тенденцию увеличения мощности пиксельных шейдеров. nVidia прекрасно знает об этой тенденции и движется в сторону балансировки вычислительных потребностей, реализуя унифицированные шейдеры, через которые проходят потоки данных. Это даёт максимальную эффективность и производительность.

nVidia утверждает: "Команда разработчиков GeForce 8800 прекрасно понимала, что high-end 3D-игры DirectX 10 потребуют большой аппаратной мощности для расчёта шейдеров. Хотя DirectX 10 оговаривает унифицированный набор инструкций, стандарт не требует унифицированного дизайна шейдеров GPU. Но инженеры GeForce 8800 верили, что именно унифицированная шейдерная архитектура GPU позволит эффективно распределить нагрузку программ-шейдеров DirectX 10, улучшая архитектурную эффективность GPU и правильно распределяя доступную мощность".

GeForce 8800 GTX | 128 потоковых процессоров SIMD



Процессорное ядро работает на частоте 575 МГц у GeForce 8800 GTX и на 500 МГц - у GeForce 8800 GTS. Если остальная часть ядра работает на 575 МГц (или 500 МГц), то ядро шейдеров использует собственный тактовый генератор. У GeForce 8800 GTX оно работает на 1350 ГГц, а у 8800 GTS - на 1200 ГГц.

Каждый шейдерный элемент ядра называется потоковым процессором (Streaming Processor). У GeForce 8800 GTX используется 16 блоков по восемь таких элементов. В результате мы и получаем 128 потоковых процессоров. Подобно дизайну ATi R580 и R580+, где присутствуют блоки пиксельных шейдеров, nVidia планирует в будущем как добавлять, так и убирать блоки. Собственно, это мы и наблюдаем с 96 потоковыми процессорами в GeForce 8800 GTS.



Нажмите на картинку для увеличения.

GeForce 8800 GTX | сравнительная таблица спецификаций

nVidia раньше не могла одновременно выполнять полноэкранное сглаживание с HDR-освещением, но это уже история. Каждый блок растровых операций (ROP) поддерживает смешение кадрового буфера. Таким образом, со сглаживанием мультисэмплинга могут использоваться цели рендеринга как FP16, так и FP32. Под D3D10 ускорения обработки цветов и Z в блоках растровых операций могут использоваться до восьми множественных целей рендеринга, а также новые технологии сжатия.

GeForce 8800 GTX может заполнять 64 текстуры за такт, а при частоте 575 МГц мы получаем 36,8 млрд. текстур за секунду (GeForce 8800 GTS = 32 млрд./с). GeForce 8800 GTX обладает 24 блоками растровых операций (ROP) и при работе карты на частоте 575 МГц пиковая пиксельная скорость заполнения составляет 13,8 гигапикселя/с. Версия GeForce 880GTS обладает 20 ROP и даёт пиковую скорость заполнения 10 гигапикселей/с на частоте 500 МГц.

Спецификации nVidia GeForce
8800GTX 8800GTS 7950GX2 7900GTX 7800GTX 512 7800GTX
Техпроцесс (нм) 90 90 90 90 110 110
Ядро G80 G80 G71 G71 G70 G70
Число GPU 1 1 2 1 1 1
Число транзисторов на ядро (млн.) 681 681 278 278 302 302
Частота вершинных блоков (МГц) 1350 1200 500 700 550 470
Частота ядра (МГц) 575 500 500 650 550 430
Частота памяти (МГц) 900 600 600 800 850 600
Эффективная частота памяти (МГц) 1800 1200 1200 1600 1700 1200
Число вершинных блоков 128 96 16 8 8 8
Число пиксельных блоков 128 96 48 24 24 24
Число ROP 24 20 32 16 16 16
Ширина шины памяти (бит) 384 320 256 256 256 256
Объём памяти на GPU (Мбайт) 768 640 512 512 512 256
Пропускная способность памяти на GPU (Гбайт/с) 86,4 48 38,4 51,2 54,4 38,4
Число вершин/с (млн.) 10 800 7200 2000 1400 1100 940
Пиксельная пропускная способность (число ROP x частоту, в млрд./с) 13,8 10 16 10,4 8,8 6,88
Текстурная пропускная способность (число пикс. конвейеров x частоту, в млрд./с) 36,8 32 24 15,6 13,2 10,32
RAMDAC (МГц) 400 400 400 400 400 400
Шина PCI Express PCI Express PCI Express PCI Express PCI Express PCI Express

Обратите внимание на ширину шины памяти. Если взглянуть на схему, приведённую на предыдущей странице, у GPU GeForce 8800 GTX используются шесть разделов памяти. Каждый из них оснащён 64-битным интерфейсом к памяти, что даёт в сумме ширину 384 бита. 768 Мбайт памяти GDDR3 подключёны к подсистеме памяти, которая построена на высокоскоростном кросс-коммутаторе, как у GPU GeForce 7x. Этот кросс-коммутатор поддерживает память DDR1, DDR2, DDR3, GDDR3 и GDDR4.

GeForce 8800 GTX использует память GDDR3 с частотой по умолчанию 900 МГц (версия GTS работает на 800 МГц). С шириной 384 бита (48 байт) и частотой 900 МГц (1800 МГц эффективная частота DDR) пропускная способность составляет целых 86,4 Гбайт/с. А 768 Мбайт памяти позволяют хранить намного более сложные модели и текстуры, с более высоким разрешением и качеством.

GeForce 8800 GTX | nVidia отправляет ATi в нокаут


Нажмите на картинку для увеличения.

У нас есть хорошие и плохие новости. Хорошие - быстрее быстрого, они очень тихие и в них столько интересных технических штучек, для которых даже ещё нет софта. Плохая новость - их нет в продаже. Ну да, с новым "железом" всегда что-то не так. Sparkle продаёт такие карты по 635 евро. К подобным ценам на топовое "железо" мы уже начинаем привыкать.

Плата в длину составляет 27 сантиметров, поэтому установить её вы сможете далеко не в каждый корпус. Если в вашем компьютере жёсткие диски расположены прямо за слотами PCIe, то, скорее всего, установка GeForce 8800 GTX будет непростым делом. Конечно, диски всегда можно передвинуть в 5-дюймовый отсек через переходник, но согласитесь, в самой проблеме приятного мало.


Нажмите на картинку для увеличения.

Над технической реализацией не стоит смеяться. это лучший кусок "железа", который вы можете купить в подарок своему ПК на Новый год. Почему GeForce 8800 GTX вызвала столько внимания к себе среди интернет-общественности? Элементарно - дело в рекордных показателях производительности. Так, в Half-Life 2: Episode 1 количество кадров в секунду на GeForce 8800 GTX в разрешении 1600x1200 на целых 60 процентов выше, чем у топовых семейства Radeon X1000 (1900 XTX и X1950 XTX).

Oblivion на всех уровнях идёт запредельно плавно. Если точнее, то с включённым HDR-рендерингом в Oblivion скорость составляет не менее 30 fps. В игре Titan Quest не получается увидеть менее 55 кадров в секунду. Иногда задумываешься, не повис ли бенчмарк, или может с уровнями что-то произошло. Включение полноэкранного сглаживания и анизотропной фильтрации вообще никак не сказывается на GeForce 8800.

Это самая быстрая видеокарта среди всех моделей, выпущенных в 2006 году. Только Radeon X1950 XTX в парном режиме CrossFire кое-где догоняет 8800 GTX. Так что если вы спрашивали, на какой же карте Gothic 3, Dark Messiah и Oblivion не тормозят, то вот он ответ - перед вами GeForce 8800 GTX.

GeForce 8800 GTX | Два гнезда питания

Питание к поступает аж через два гнезда сверху платы. Оба необходимы - если вынуть кабель из левого, то 3D-производительность здорово снизится. Хотите, чтобы соседи сошли с ума? Тогда выньте правый - безумному писку, что начнёт раздаваться из платы, позавидует сигнализация вашего автомобиля. Сама плата при этом вообще не включится. Отметим, что nVidia рекомендует использовать с GeForce 8800 GTX блок питания мощностью не менее 450 ватт, и чтобы на линии 12 вольт могло быть 30 ампер.


На GeForce 8800 GTX подключены должны быть оба гнезда питания. Нажмите на картинку для увеличения.

Два гнезда питания объясняются просто. Согласно спецификациям PCI Express, на один слот PCIe может приходиться не более 75 Ватт энергии. Наш тестовый только в режиме 2D потребляет порядка 180 Ватт. Это на целых 40 Ватт больше, чем у Radeon X1900 XTX или X1950 XTX. Ну, а в режиме 3D плата "кушает" порядка 309 Ватт. Те же Radeon X1900/1950 XTX в этом случае потребляют от 285 до 315 Ватт. На какие нужды GeForce 8800 пускает столько энергии при работе в простом Windows, нам непонятно.

Ещё два разъёма зарезервированы под режим SLI. Согласно документации nVidia, для SLI требуется всего один штекер. Второй пока не используется. Теоретически, имея два разъёма, можно связать в многоплатную систему более двух . Появление второго разъёма можно увязать и с прогрессирующей популярностью аппаратного расчета физики. Может быть, через него будет подключаться ещё одна видеокарта, чтобы считать именно физические функции в движке игры. А может быть, речь идёт о Quad SLI на 4 платах, или о чём-то вроде того.


Для SLI теперь зарезервирован дополнительный разъём. Но с текущей версией драйвера воспользоваться можно лишь одним. Нажмите на картинку для увеличения.

GeForce 8800 GTX | Тихая система охлаждения

GeForce 8800 оснащена очень тихим 80-миллиметровым кулером-турбиной. Как и у Radeon X1950 XTX, он расположен в самом конце платы, чтобы прогонять прохладный воздух через всю поверхность GeForce 8800 и затем наружу. В конце платы установлена специальная решётка, которая выпускает горячий воздух не только наружу, через отверстие, занимающее второй слот, но и вниз, прямо в корпус. В общем, система несложная, но есть ряд спорных моментов.


Тёплый воздух выбрасывается через отверстие второго слота, но часть его попадает обратно в корпус через решётку на боковине GeForce 8800 GTX. Нажмите на картинку для увеличения.

Если в вашем компьютере PCIe-слоты находятся близко, и в SLI две платы встанут так, что зазор между ними будет не слишком велик, то температура в этом месте будет очень приличная. Нижняя карта будет дополнительно подогреваться верхней, через ту самую боковую решётку на системе охлаждения. Ну, а что случится, если установить три карты, лучше даже не думать. Получится отличный бытовой электронагреватель. В морозы будете работать около открытого окна.

Когда плата установлена в одиночку, система охлаждения впечатляет и отрабатывает на все сто. Как и у плат GeForce 7900 GTX, так и у она работает тихо. За весь шестичасовой тестовый прогон, при постоянной высокой нагрузке, плату не было слышно ни разу. Даже если полностью нагрузить плату работой, кулер на средних оборотах будет справляться с отводом тепла. Если вы поднесёте ухо к компьютеру сзади, то услышите лишь незначительный шум, своего рода тихое шуршание.


80-миллиметровый кулер работает тихо и никогда не включается на полную мощность. Система охлаждения платы занимает два слота. Нажмите на картинку для увеличения.

Специальный драйвер ForceWare 96.94, который nVidia приготовила для GeForce 8800 GTX, не выводит данные температурного мониторинга. До выхода этой версии вы могли выбрать между классическим и новым интерфейсом, но релиз 96.94 для прессы содержит только новую версию панели настроек . Если вы попытаетесь открыть настройки частот и температуры, драйвер отправит вас на сайт nVidia, чтобы вы могли скачать утилиту Ntune. Именно в ней и настраиваются эти функции. Скачиваем 30-мегабайтный архив и устанавливаем его. При первом запуске получаем полное зависание компьютера и Windows.

Если вы после установки Ntune выбираете регулировку частот и температуры в панели настроек, открывается специальная информационная страничка, где указаны настройки материнской платы. Никаких настроек , то есть информацию о частоте и температуре, вы найти не сможете. Поэтому мы проводили измерения температуры классическим способом - при помощи инфракрасного термометра. При полной загрузке измерения показали температуру 71 градус Цельсия, при работе в 2D-режиме карта удерживалась в рамках от 52 до 54 градусов.

Остаётся надеяться, что nVidia выпустит стандартную версию ForceWare для GeForce 8800. Классический интерфейс настройки иногда удобнее, к тому же, показывается информация о температуре, а при помощи coolbits можно регулировать частоты. Новый драйвер в паре с Ntune занимает порядка 100 мегабайт и сегментирован на немалое количество вкладок и окон. Работать с ним не всегда удобно.


В чипе GeForce 8800 GTX целых 681 миллион транзисторов, он производится по технологии 90 нанометров на фабрике TSMC. Нажмите на картинку для увеличения.

В чипе G80 GeForce 8800 GTX 681 миллион транзисторов. Это вдвое больше, чем в ядре Conroe процессоров Intel Core 2 Duo или в чипе GeForce 7. GPU видеокарты работает на частоте 575 МГц. Интерфейс памяти 384-битный и обслуживает 768 мегабайт. В качестве памяти nVidia использовала высокоскоростную GDDR3, которая работает на частоте 900 МГц.

Для сравнения: память GeForce 7900 GTX работает на частоте 800 МГц, а GeForce 7950 GT на 700 МГц. В видеокартах Radeon X1950 XTX используется память GDDR4 с частотой 1000 МГц. У карты GeForce 8800 GTS частота ядра составляет 500 МГц, объём памяти 640 Мбайт с частотой 800 МГц.

Результаты тестов показывают, что полноэкранное сглаживание и анизотропная фильтрация, наконец, никак при включении не снижают производительность. В ресурсоёмких играх, например, в Oblivion, раньше приходилось за этим следить, а теперь вы можете включать всё на максимум. Производительность предыдущих nVidia такова, что эти игры плавно шли только в разрешениях до 1024x768, при этом HDR-рендеринг с пиксельными шейдерами третьей версии отнимал огромное количество ресурсов. Видеокарты настолько мощны, что включение 4xAA и 8xAF без проблем позволяет играть в разрешениях до 1600x1200. Чип G80 поддерживает максимальные настройки сглаживания 16x и анизотропную фильтрацию 16x.


GeForce 8800 GTX поддерживает 16x сглаживание и анизотропную фильтрацию.

В сравнении с одиночными ATi у GeForce 8800 GTX нет конкурентов. Новинка nVidia теперь может вытянуть HDR-рендеринг с использованием третьих шейдеров и сглаживанием. HDR-рендеринг позволяет получить экстремальные отражения и блики, имитирует эффект ослепления, когда вы выходите из тёмного помещения на яркий свет. К сожалению, многие старые игры - Half Life Episode 1, Neef For Speed Most Wanted, Spellforce 2, Dark Messiah и другие - используют только вторые шейдеры для HDR-эффектов. Новые игры вроде Gothic 3 или Neverwinter Nights 2 используют предыдущий способ Bloom, как это было в Black & White 2. И хотя Neverwinter Nights 2 можно настроить для поддержки HDR-рендеринга, разработчик опасается этих функций, чтобы с нормальным FPS играть могли и те, у кого установлено обычное "железо". Правильно это реализовано в Oblivion, где есть и Bloom, и выдающиеся эффекты HDR-рендеринга через третьи шейдеры.

Поддерживает и четвёртые шейдеры (Shader Model 4.0), а самым важным нововведением является изменённая архитектура конвейера рендеринга. Она теперь не делится на пиксельные и вершинные шейдеры. Новое шейдерное ядро может обрабатывать все данные - вершинные, пиксельные, геометрические и даже физические. Это не навредило производительности - Oblivion работает почти вдвое быстрее, чем на оптимизированном под пиксельные шейдеры Radeon X1900 XTX или X1950 XTX.

Что поддерживает видеокарта в плане DirectX 10, пока невозможно протестировать. Windows Vista, Direct X 10 и игры под него ещё не существуют. Однако на бумаге всё выглядит более чем пристойно: геометрические шейдеры поддерживают карты смещения (Displacement Mapping), что позволит выводить ещё более реалистичные вещи, например, обсчитывать стереоскопические эффекты, объекты в форме желобов и гофрированные поверхности. Потоковый вывод (Stream Output) позволит получить ещё более качественные шейдерные эффекты для частиц и физики. Технология квантовых эффектов (Quantum Effect) хорошо справляется с просчётом эффектов дыма, тумана, огня и взрывов, и позволит снять их калькуляцию с центрального процессора. Всё это вместе даст значительно больше шейдерных и физических эффектов, которые можно будет увидеть в будущих играх. Как всё это будет реализовано на практике, в каких играх и в каком виде, покажет будущее.

GeForce 8800 GTX | Платы в тесте

Видеокарты на nVidia
и чип Кодовое название Память HDR-R Верш./пикс. шейдеры Частота GPU Частота памяти
nVidia GeForce 8800 GTX G80 768 Мбайт GDDR3 Да 4.0 575 МГц 1800 МГц
Asus + Gigabyte GeForce 7900 GTX SLI G71 512 Мбайт GDDR3 Да 3.0/3.0 650 МГц 1600 МГц
Gigabyte GeForce 7900 GTX G71 512 Мбайт GDDR3 Да 3.0/3.0 650 МГц
nVidia GeForce 7950 GT G71 512 Мбайт GDDR3 Да 3.0/3.0 550 МГц 1400 МГц
Asus GeForce 7900 GT Top G71 256 Мбайт GDDR3 Да 3.0/3.0 520 МГц 1440 МГц
nVidia GeForce 7900 GS G71 256 Мбайт GDDR3 Да 3.0/3.0 450 МГц 1320 МГц
Asus GeForce 7800 GTX EX G70 256 Мбайт GDDR3 Да 3.0/3.0 430 МГц 1200 МГц
Gigabyte GeForce 7800 GT G70 256 Мбайт GDDR3 Да 3.0/3.0 400 МГц 1000 МГц
Asus GeForce 7600 GT G73 256 Мбайт GDDR3 Да 3.0/3.0 560 МГц 1400 МГц
nVidia GeForce 6800 GT NV45 256 Мбайт GDDR3 Да 3.0/3.0 350 МГц 1000 МГц
Gainward GeForce 7800 GS+ GSa AGP G71 512 Мбайт GDDR3 Да 3.0/3.0 450 МГц 1250 МГц

В следующей таблице представлены ATi, принимавшие участие в нашем тестировании.

Видеокарты на ATi
Видеокарта и чип Кодовое название Память HDR-R Верш./пикс. шейдеры Частота GPU Частота памяти
Club 3D + Club 3D Radeon X1950 XTX CF R580+ 512 Мбайт GDDR4 Да 3.0/3.0 648 МГц 1998 МГц
Club 3D Radeon X1950 XTX R580+ 512 Мбайт GDDR4 Да 3.0/3.0 648 МГц 1998 МГц
HIS + HIS Radeon X1900 XTX CF R580 512 Мбайт GDDR3 Да 3.0/3.0 621 МГц 1440 МГц
Gigabyte Radeon X1900 XTX R580 512 Мбайт GDDR3 Да 3.0/3.0 648 МГц 1548 МГц
Power Color Radeon X1900 XT R580 512 Мбайт GDDR3 Да 3.0/3.0 621 МГц 1440 МГц
ATI Radeon X1900 XT R580 256 Мбайт GDDR3 Да 3.0/3.0 621 МГц 1440 МГц
Sapphire Radeon X1900 GT R580 256 Мбайт GDDR3 Да 3.0/3.0 574 МГц 1188 МГц
HIS Radeon X1650 Pro Turbo RV535 256 Мбайт GDDR3 Да 3.0/3.0 621 МГц 1386 МГц
Gecube Radeon X1300 XT RV530 256 Мбайт GDDR3 Да 3.0/3.0 560 МГц 1386 МГц

GeForce 8800 GTX | Тестовая конфигурация

Для тестирования мы использовали три эталонных стенда. Все они были основаны на предельно идентичных компонентах - двуядерном процессоре AMD Athlon 64 FX-60 с частотой 2,61 ГГц, комплектовались 2 гигабайтами ОЗУ Mushkin MB HP 3200 2-3-2, двумя жёсткими дисками Hitachi по 120 Гбайт в конфигурации RAID 0. Отличие заключалось в использованных материнских платах - для тестов одиночных и плат nVidia в режиме SLI мы использовали материнскую плату Asus A8N32-SLI Deluxe. Чтобы тестировать видеокарты в режиме CrossFire (это обозначено аббревиатурой CF ниже на графиках), мы использовали такой же компьютер с эталонной материнской платой ATi на чипсете RD580. Наконец, AGP-видеокарты тестировались на компьютере в той же конфигурации, но на материнской плате ASUS AV8 Deluxe. Данные по конфигурации сведены в таблицу.

Для всех видеокарт nVidia (включая SLI) и одиночных карт Ati
Процессор
Частота шины 200 МГц
Материнская плата Asus A8N32-SLI Deluxe
Чипсет nVidia nForce4
Память
Жёсткий диск Hitachi 2 x 120 Гбайт SATA, кэш 8 Мбайт
DVD Gigabyte GO-D1600C
LAN-контроллер Marvell
Звуковой контроллер Realtek AC97
Блок питания Silverstone SST-ST56ZF 560 Вт
Для тестов видеокарт ATi в режиме CrossFire
Процессор Двуядерный AMD Athlon 64 FX-60 2.61 ГГц
Частота шины 200 МГц
Материнская плата Эталонная ATi
Чипсет ATI RD580
Память Mushkin 2x1024 MB HP 3200 2-3-2
LAN-контроллер Marvell
Звуковой контроллер AC97
Для тестов AGP-видеокарт
Процессор Двуядерный AMD Athlon 64 FX-60 2.61 ГГц
Частота шины 200 МГц
Материнская плата Asus AV8 Deluxe
Чипсет VIA K8T800 Pro
Память Mushkin 2x1024 MB HP 3200 2-3-2
LAN-контроллер Marvell
Звуковой контроллер Realtek AC97

На компьютерах для тестов одиночных видеокарт и плат nVidia в режиме SLI мы использовали Windows XP Professional с SP1a. Платы CrossFire и AGP-видеокарты тестировались на системах с установленной Windows XP Professional SP2. Версии драйверов и ПО сведены в следующую таблицу.

Драйверы и конфигурация
Видеокарты ATi ATI Catalyst 6.6, X1900 XTX, X1950 + Crossfire, X1650 + Crossfire, X1300 XT + Crossfire, Crossfire X1900, Crossfire X1600 XT ATI Catalyst 6.7 (entspricht Catalyst 6.8), Crossfire X1600 Pro, Crossfire X1300 Pro, Crossfire X1300 ATI Catalyst 6.8
Видеокарты nVidia nVidia Forceware 91.31, 7900 GS, nVidia Forceware 91.47, 7950 GT nVidia Forceware 91.47 (Special), 8800 GTX nVidia Forceware 96.94 (Special)
Операционная система Одиночные карты и SLI: Windows XP Pro SP1a, ATI Crossfire и AGP-видеокарты Windows XP Pro SP2
Версия DirectX 9.0c
Драйвер чипсета nVidia Nforce4 6.86, AGP VIA Hyperion Pro V509A

GeForce 8800 GTX | Результаты тестов

Эталонную плату мы в редакцию THG получили прямо из nVidia. Для тестирования нам предоставили специальный драйвер ForceWare 96.94, подготовленный эксклюзивно для прессы. - это карта с поддержкой DirectX 10 и Shader Model 4.0. Производительность в приложениях для DirectX 9 и Pixelshader 2 или Pixelshader 3 ошеломляет.

Включение сглаживания и анизотропной фильтрации почти не снижает производительность. В Half-Life 2 Episode 1 видеокарту GeForce 8800 GTX затормозить невозможно. В разрешении 1600x1200 чип на 60 процентов быстрее, чем Radeon X1950 XTX, в Oblivion производительность вдвое выше, чем у Radeon X1900 XTX или X1950 XTX. В игре Prey видеокарта в разрешении 1600x1200 на целых 55 процентов быстрее, чем Radeon X1950 XTX. В Titan Quest количество кадров в секунду не меняется, какое разрешение вы бы ни устанавливали, и составляет 55 FPS.

В тестах Half-Life 2: Episode 1 с HDR-рендерингом результаты платы впечатляют, но в низких разрешениях проигрывает Radeon X1950 XTX и платам в режиме CrossFire, находясь примерно на одном уровне с SLI-решениями на GeForce 7900 GTX. Отметим, что в низком разрешении лимитирующим фактором является не видеокарта. Чем выше мы задираем настройки, тем интереснее результат.

С включением сглаживания и анизотропной фильтрации картина начинает меняться. Все платы при этом немного теряют в производительности, но GeForce 8800 GTX падает при этом очень незначительно - всего на 10 fps в среднем, в то время как сдвоенная ATi Radeon X1950 XTX в режиме CrossFire теряет целых 20 fps.

Как только мы перешагиваем за разрешение 1280x1024 с включёнными сглаживанием и анизотропной фильтрацией, одиночная плата GeForce 8800 GTX выходит в несомненные лидеры. Показатели превышают таковые у Radeon X1950 XTX почти на 35 fps. Это существенная разница.

Дальше - больше. В 1600x1200 со сглаживанием и анизотропной фильтрацией отрыв от всех остальных плат становится кошмарным. В два раза от GeForce 7900 GTX SLI и чуть меньше от CrossFire Radeon X1950 XTX. Вот это дааа!

Наконец посмотрим на динамику снижения FPS с ростом разрешения и качества картинки. Мы видим, что у GeForce 8800 GTX снижение производительности незначительное - от голых 1024x768 до сглаженных и отфильтрованных методом анизотропии 1600x1200 разница составляет всего чуть больше 20 fps. Прежде топовые решения ATi и nVidia уходят далеко назад.

Игра Hard Truck: Apocalypse требовательна и к видеокарте, и к центральному процессору. Этим объясняются фактически одинаковые показатели в 1024x768, когда используется простая трилинейная фильтрация и выключено полноэкранное сглаживание.

Как только вы переходите на 4xAA и анизотропную фильтрацию 8x результаты начинают разниться. "Младшие" карты существенно теряют производительность, а как будто не замечает улучшения качества картинки.

В 1280x960 разница ещё более увеличивается, но GeForce 8800 GTX демонстрирует прежние показатели. Явно видно, что Athlon 64 FX-60 не способна поставить эту видеокарту на колени.

В 1600x1200 у всех одиночных плат показатели начинают стремиться к неиграбельным. Но GeForce 8800 GTX как показывала 51 fps, так и показывает.

Рассмотрим снижение производительности с ростом настроек. CrossFire Radeon X1950 XTX и GeForce 7900 GTX держатся рядом с , а карты старого поколения уже давно стоят на коленях и молят о пощаде.

В Oblivion, игре, которая нагружает видеокарту до предела, картина изначально удручающа для всех плат, кроме Radeon X1950 XTX в режиме CrossFire и . Мы собрали статистику и по работе видеокарт на открытых локациях, и при рендеринге закрытых помещений. Видно, что на свежем воздухе GeForce 8800 GTX стоит рядом или незначительно отстаёт от сдвоенной Radeon X1950 XTX.






Но когда разрешение доходит до 1600x1200, наша GeForce 8800 GTX уходит далеко вперёд. Особенно разрыв виден на закрытых уровнях.


Посмотрите на снижение производительности с ростом разрешения и качества. Картина не нуждается в комментариях. В закрытых локациях скорость непоколебима.


В игре Prey видеокарта находится между одноплатными решениями ATi Radeon X1950 XTX и этими же платами в режиме CrossFire. И чем выше разрешение, тем лучше выглядит GeForce 8800 GTX.




Сравнивать GeForce 8800 GTX с одноплатными решениями ATi и nVidia бесполезно. Разрыв в высоких разрешениях колоссален, да и в 1024x768 со сглаживанием он впечатляет.

В игре Rise of Nations: Rise of Legends видеокарта является единственным лидером. Если высчитывать разрыв между CrossFire Radeon X1950 XTX и GeForce 8800 GTX в процентах, то отрыв будет очень и очень велик. Если считать в fps, то разница не столь заметна, но всё же существенна.




Обратите внимание, как снижается скорость с ростом разрешения. При всех настройках GeForce 8800 GTX является лидером не только по сравнению с одиночными платами, но и с решениями SLI/CrossFire.

В игре Titan Quest карты nVidia показывают себя с лучшей стороны. При этом у от 1024x768 до 1600x1200 со сглаживанием и анизотропной фильтрацией fps не меняется.




Картину происходящего хорошо иллюстрирует следующий график. Производительность GeForce 8800 GTX находится на одном и том же уровне, вне зависимости от настроек.

В 3DMark06 карта отлично показывает себя и со вторыми, и с третьими шейдерами. Обратите внимание, насколько незначительно снижается производительность при включении анизотропии и сглаживания.


Рост разрешения тоже не пугает. Карта стоит на одном уровне с решениями SLI и CrossFire, значительно опережая всех предыдущих лидеров в одиночном забеге.


Чтобы вы лучше могли себе представить производительность в играх, мы перекомпоновали графики. Здесь нет сравнения, только чистый результат одной видеокарты. Стоит обратить внимание на то, что от разрешения к разрешению производительность GeForce 8800 GTX не меняется. Во всех играх ограничивающим фактором является недостаточно быстрый процессор AMD Athlon 64 FX-60. В будущем, с выходом гораздо более быстрых чипов, карта покажет себя ещё лучше в тех же самых играх. Думаем, и Core 2 Quad последнего поколения не способен заставить GeForce 8800 GTX достичь своего лимита.




Итак, покончив с результатами тестирования, давайте попытаемся составить рейтинг эффективности видеокарт. Для этого мы соберём воедино результаты всех игровых тестов и сопоставим их с ценой решения. За основу возьмём рекомендованные цены, то есть без наценок конкретных магазинов. Конечно, поначалу будут очень дорогими, и многие магазины заложат в цену избыточную прибыль. Но затем цены снизятся, и наверняка довольно скоро вы сможете приобрести GeForce 8800 GTX за более разумные деньги.

Как мы видим, по производительности GeForce 8800 GTX обходит практически все решения, включая сдвоенные CrossFire и SLI. В абсолютных показателях GeForce 8800 GTX очень быстра. Но как насчёт цены?

Цена у соответствующая - производитель просит за плату 635 евро. Это много, но ведь за две платы Radeon X1900 XTX в режиме CrossFire вам придётся заплатить больше - 700 евро. А за две Radeon X1950 XTX или SLI GeForce 7900 GTX целых 750 евро. При том, что в некоторых тестах одиночная GeForce 8800 GTX обходит эти решения, да и в корпусе занимает меньше места по ширине, есть о чём подумать.

Наконец разделим fps на деньги. Мы видим, что у этот показатель лучше, чем у SLI и CrossFire. Конечно, стоимость каждого fps будет выше, чем у GeForce 7800 GTX EX, и, конечно, заметно выше, чем у Radeon X1300 XT. Но и производительность платы соответствующая. Очень эффективное решение в ключе соотношения цены и производительности.

Мы решили дополнить наш обзор результатами тестов американской лаборатории THG, где также участвовала карта GeForce 8800 GTS. Обратите внимание, что из-за различий в тестовой конфигурации не следует напрямую сравнивать результаты, приведённые выше, с результатами американской лаборатории.


Карта GeForce 8800GTX длиннее, чем Radeon X1950XTX и большинство других карт на рынке. 8800GTS несколько короче.

Как и другие тесты графических видеокарт в 2006 году, мы проводили тестирование на платформе AMD Athlon FX-60. Также мы приведём результаты конфигураций с несколькими GPU. Кроме того, оценим, как ведут себя новые видеокарты, когда производительность упирается в CPU (низкое разрешение и качество картинки).

Системное аппаратное обеспечение
Процессоры AMD Athlon 64 FX-60, 2,6 ГГц, 1,0 ГГц HTT, кэш L2 1 Мбайт
Платформа nVidia: Asus AN832-SLI Premium, nVidia nForce4 SLI, BIOS 1205
Память Corsair CMX1024-4400Pro, 2x 1024 Мбайт DDR400 (CL3,0-4-4-8)
Жёсткий диск Western Digital Raptor, WD1500ADFD, 150 Гбайт, 10 000 об/мин, кэш 16 Мбайт, SATA150
Сеть Встроенная nForce4 Gigabit Ethernet
Видеокарты ATi Radeon X1950XTX 512 Мбайт GDDR4, 650 МГц ядро, 1000 МГц память (2,00 ГГц DDR)
Карты nVidia:
nVidia GeForce 8800GTX 768 Мбайт GDDR3, 575 МГц ядро, 1,350 ГГц потоковые процессоры, 900 МГц память (1,80 ГГц DDR)
XFX GeForce 8800GTS 640 Мбайт GDDR3, 500 МГц ядро, 1,200 ГГц потоковые процессоры, 800 МГц память (1,60 ГГц DDR)
nVidia GeForce 7900GTX 512 Мбайт GDDR3, 675 МГц ядро, 820 МГц память (1,64 ГГц DDR)
Блок питания PC Power & Cooling Turbo-Cool 1000 Вт
Кулер CPU Zalman CNPS9700 LED
Системное ПО и драйверы
ОС Microsoft Windows XP Professional 5.10.2600, Service Pack 2
Версия DirectX 9.0c (4.09.0000.0904)
Графические драйверы ATi - Catalyst 6.10 WHQL
nVidia - ForceWare 96.94 Beta

Во время первого прогона 3DMark мы проводили тесты на всех разрешениях, но с выключенными полноэкранным сглаживанием и анизотропной фильтрацией. Во втором прогоне мы включили опции улучшения картинки 4xAA и 8xAF.

nVidia в 3DMark05 явно находится на первом месте. GeForce 8800 GTX даёт такой же результат в разрешении 2048x1536, что ATi Radeon X1950 XTX в разрешении по умолчанию 1024x768. Впечатляет.

В Doom 3 обычно доминируют карты nVidia, поскольку их дизайн хорошо подходит для этой игры. Но ATi не так давно смогла "взять" эту игру с новыми картами.

Здесь мы впервые сталкиваемся с ограничениями вычислительной мощности CPU, поскольку при низком разрешении результат составляет где-то 126 кадров в секунду. Карта ATi способна дать более высокое число кадров в секунду на данной системной конфигурации. Причина кроется в драйверах. Дело в том, что ATi выпускает драйверы, которые меньше нагружают CPU. В результате CPU находится в более выгодных условиях и может дать больше производительности для графической подсистемы.

В целом же, победителем становятся новые карты 8800. Если посмотреть на результаты при всех разрешениях, новые карты DX10 обходят Radeon X1950 XTX, начиная от 1280x1024 и выше.

GeForce 8800 GTX и GTS | F.E.A.R.

В F.E.A.R. обычно лидируют карты nVidia. Но, опять же, здесь заметна меньшая нагрузка на CPU у драйверов ATi. Конечно, с более скоростной платформой результаты будут иными, но если ваш компьютер не является передовым, то данный тест наглядно показывает, как карты G80 будут на нём работать. Но если не считать теста в разрешении 1024x768, G80 просто убивает Radeon X1950 XTX. GTX - это монстр. И не важно, какую нагрузку мы даём на GeForce 8800 GTX, карта всегда обеспечивает более 40 кадров в секунду.


Нажмите на картинку для увеличения.

Второй скриншот (ниже) взят на 8800 GTX с теми же настройками.



Нажмите на картинку для увеличения.

Картинка nVidia по качеству намного превосходит скриншот ATi. Похоже, в этом отношении nVidia вновь вышла в лидеры. Перед нами ещё одно преимущество, которым обладают карты nVidia на чипе G80.


Перед вами таблица новых возможностей улучшения качества на картах G80.

Кроме новых видеокарт DX10, nVidia также показала несколько функций, которые будут доступны на картах G80. И первая из них - патентованная технология улучшения качества картинки под названием Coverage Sampled Antialiasing (CSAA).

Новая версия полноэкранного сглаживания использует область из 16 субсэмплов. По информации nVidia, в результате можно сжать "избыточную информацию о цветах и глубине в область памяти и пропускную способность четырёх или восьми мультисэмплов". Новый уровень качества работает более эффективно, снижая объём данных на сэмпл. Если CSAA не заработает с какой-либо игрой, то драйвер вернётся к традиционным методам сглаживания.


Нажмите на картинку для увеличения.

Перед тем, как мы закончим этот обзор, позвольте поговорить ещё о двух аспектах видеокарт, которые уже давно разрабатываются и со временем станут более важными. Первый аспект - воспроизведение видео. Во время правления GeForce 7 по качеству воспроизведения видео лидировали карты ATi Radeon X1900. Но ситуация изменилась с появлением унифицированных шейдеров с выделенным ядром Pure Video.

Благодаря умным алгоритмам и 128 вычислительным блокам, GeForce 8800 GTX смогла получить 128 из 130 баллов в HQV. В ближайшем будущем мы планируем выпустить более подробную статью, касающуюся качества картинки, так что следите за новостями на нашем сайте.

Наконец, очень сильной стороной G80 является то, что nVidia называет CUDA. Многие годы учёные и энтузиасты ищут способы, чтобы выжать больше производительности из мощных параллельных процессоров. Кластер Beowulf, конечно, не всем по карману. Поэтому обычные смертные предлагают разные способы, как можно использовать для вычислений видеокарту.

Проблема здесь следующая: графический процессор хорош для параллельных вычислений, но вот с ветвлениями он справляется плохо. Здесь как раз хорошо подходит CPU. Кроме того, если вы хотите использовать видеокарту, то следует программировать шейдеры, как это делают игровые разработчики. nVidia вновь решила выйти вперёд, представив архитектуру Compute Unified Device Architecture или CUDA.


Так может работать CUDA для симуляции жидкости.

nVidia выпустила компилятор C+, получающиеся программы которого могут масштабироваться под вычислительные мощности GPU (например, 96 потоковых процессоров в 8800 GTS или 128 в 8800 GTX). Теперь программисты получили возможность создавать программы, которые масштабируются по ресурсам как CPU, так и GPU. CUDA наверняка понравится разным программам распределённых вычислений. Впрочем, CUDA может использоваться не только для просчёта блоков, но и для симуляции других эффектов: объёмной жидкости, одежды и волос. Через CUDA на GPU можно потенциально перенести расчёты физики и даже других игровых аспектов.


Разработчикам будет представлен полный набор SDK.

GeForce 8800 GTX и GTS | Заключение

Те, кто сейчас перейдёт с GeForce 6 на , получат почти трёхкратное увеличение производительности. Неважно, когда выйдут игры для DirectX 10, не так важно, что нам дадут четвёртые шейдеры - уже сегодня GeForce 8800 GTX это самый быстрый чип. Такие игры, как Oblivion, Gothic 3 или Dark Messiah, будто ждали выхода чипа G80 и видеокарт . Играть без тормозов стало опять возможным. У GeForce 8800 GTX достаточно мощности для всех самых современных игр.

Система охлаждения работает тихо, 80-миллиметровый кулер на эталонной карте было не услышать. Даже при полной нагрузке скорость вращения кулера невысока. Интересно, чем на это ответит компания ATi. В любом случае, nVidia проделала чертовски хорошую работу и выпустила действительно мощную "железку".

Недостатки : длина платы 27 сантиметров, она занимает место двух слотов PCI Express. Блок питания должен быть, как минимум, на 450 ватт (12 В, 30 А). Для GeForce 8800 GTS минимумом станет БП на 400 ватт с 30 амперами по шине 12 вольт.

Следуя давним традициям, карты nVidia уже доступны в онлайновых магазинах. На международном рынке рекомендованная цена GeForce 8800GTX составляет $599, а GeForce 8800GTS - $449. Да и игры под DX10 должны вскоре появиться. Но что не менее важно, вы получите более качественную картинку уже в существующих играх.


Вот так может выглядеть супермодель, выведенная с помощью DX10. Нажмите на картинку для увеличения.

GeForce 8800 GTX и GTS | Мнение редактора

Лично я впечатлён реализацией DX10/D3D10 от nVidia. Просмотр Crysis в реальном времени и многочисленных демонстраций впечатляет. Реализация CUDA позволяет превратить видеокарту в нечто большее, чем просто устройство рендеринга кадров. Теперь программы смогут использовать не только ресурсы CPU, но и всю параллельную мощь универсального шейдерного ядра GPU. Не терпится посмотреть на подобные решения в реальности.

Но G80 оставляет желать лучшего. Чего же? Конечно, новых игр. Господа разработчики, будьте так добры, поскорее выпустите игры DX10.

GeForce 8800 GTX | Фотогалерея

Снова 128 более сильных калифорнийских стрелков, но с урезанными копьями (512MB и 256bit)

Часть 1: Теория и архитектура

В прошлом материале, посвященном выходу нового решения среднего уровня Nvidia Geforce 8800 GT, основанного на чипе G92, мы упоминали о том, что в этом решении применен чип, в котором разблокированы не все исполнительные блоки ALU и TMU, часть из них дожидается своего часа, чтобы быть включенной в видеокарте другого ценового уровня. И вот этот момент настал, Nvidia анонсировала обновленный вариант Geforce 8800 GTS, оставивший такое же название, что и младшее решение на основе G80. Отличить его проще всего по объему установленной видеопамяти, он равен 512 мегабайтам, в отличие от предыдущих 320 Мбайт и 640 Мбайт вариантов. Так эту модель и назвали — Geforce 8800 GTS 512MB.

Новый вариант Geforce 8800 GTS основан на чипе G92, уже применённом ранее в Geforce 8800 GT, видеокарте так называемого верхнего среднего ценового уровня, поэтому основные возможности и характеристики мы уже знаем. В отличие от двух моделей Geforce 8800 GT с рекомендуемой ценой от $200 до $250 (что с реальными ценами на данный момент плохо соотносится, кстати), новое решение имеет рекомендованную производителем цену в $349-399. Особенностями применяемого видеочипа является поддержка лишь 256-битной шины памяти, но большее количество разблокированных универсальных исполнительных блоков. Давайте познакомимся с новым нижним high-end решением от компании Nvidia поближе…

Перед прочтением данного материала мы рекомендуем внимательно ознакомиться с базовыми теоретическими материалами DX Current, DX Next и Longhorn, описывающими различные аспекты современных аппаратных ускорителей графики и архитектурные особенности продукции Nvidia и AMD.

Эти материалы достаточно точно спрогнозировали текущую ситуацию с архитектурами видеочипов, оправдались многие предположения о будущих решениях. Подробную информацию об унифицированной архитектуре Nvidia G8x/G9x на примере предыдущих чипов можно найти в следующих статьях:

Как мы упоминали в предыдущем материале, чип G92 включает в себя все преимущества G8x: унифицированную шейдерную архитектуру, полную поддержку DirectX 10, качественные методы анизотропной фильтрации и алгоритм антиалиасинга CSAA с количеством сэмплов до шестнадцати включительно. Некоторые блоки чипа немного отличаются от тех, что были в G80, но основным изменением по сравнению с G80 стала технология производства 65 нм, которая позволила снизить себестоимость продукции. Рассмотрим характеристики GPU и новых видеорешений на его основе:

Графический ускоритель Geforce 8800 GTS 512MB

  • Кодовое имя чипа G92
  • Технология 65 нм
  • 754 миллиона транзисторов (больше, чем у G80)
  • Унифицированная архитектура с массивом общих процессоров для потоковой обработки вершин и пикселей, а также других видов данных
  • Аппаратная поддержка DirectX 10, в том числе шейдерной модели — Shader Model 4.0, генерации геометрии и записи промежуточных данных из шейдеров (stream output)
  • 256-бит шина памяти, четыре независимых контроллера шириной по 64 бита
  • Частота ядра 650 МГц (Geforce 8800 GTS 512MB)
  • ALU работают на более чем удвоенной частоте (1.625 ГГц для Geforce 8800 GTS 512MB)
  • 128 скалярных ALU с плавающей точкой (целочисленные и плавающие форматы, поддержка FP 32-бит точности в рамках стандарта IEEE 754, MAD+MUL без потери тактов)
  • 64 блока текстурной адресации с поддержкой FP16 и FP32 компонент в текстурах
  • 64 блока билинейной фильтрации (как и в G84 и G86, нет бесплатной трилинейной фильтрации и более эффективной анизотропной фильтрации)
  • Возможность динамических ветвлений в пиксельных и вершинных шейдерах
  • 4 широких блока ROP (16 пикселей) с поддержкой режимов антиалиасинга до 16 сэмплов на пиксель, в том числе при FP16 или FP32 формате буфера кадра. Каждый блок состоит из массива гибко конфигурируемых ALU и отвечает за генерацию и сравнение Z, MSAA, блендинг. Пиковая производительность всей подсистемы до 64 MSAA отсчетов (+ 64 Z) за такт, в режиме без цвета (Z only) — 128 отсчета за такт
  • Запись результатов до 8 буферов кадра одновременно (MRT)
  • Все интерфейсы (два RAMDAC, два Dual DVI, HDMI, HDTV) интегрированы на чип (в отличие от вынесенных на внешний дополнительный чип NVIO у Geforce 8800)

Спецификации референсной карты Geforce 8800 GTS 512MB

  • Частота ядра 650 МГц
  • Частота универсальных процессоров 1625 МГц
  • Количество универсальных процессоров 128
  • Количество текстурных блоков — 64, блоков блендинга — 16
  • Эффективная частота памяти 1.94 ГГц (2*970 МГц)
  • Тип памяти GDDR3
  • Объем памяти 512 мегабайт
  • Пропускная способность памяти 64.0 гигабайта в сек.
  • Теоретическая максимальная скорость закраски 10.4 гигапикселя в сек.
  • Теоретическая скорость выборки текстур до 41.6 гигатекселя в сек.
  • Два DVI-I Dual Link разъема, поддерживается вывод в разрешениях до 2560х1600
  • SLI разъем
  • Шина PCI Express 2.0
  • TV-Out, HDTV-Out, поддержка HDCP
  • Рекомендуемая цена $349-399

Как видно по характеристикам, новая версия Geforce 8800 GTS 512MB довольно сильно отличается от старых. Возросло количество исполнительных блоков: ALU и TMU, значительно выросла и частота GPU, включая частоту шейдерных блоков. Несмотря на урезанную шину памяти (256-бит против 320-бит у старых вариантов), пропускная способность памяти осталась прежней, так как её рабочую частоту подняли на соответствующее значение. В результате, новый GTS обладает значительно усиленной мощью по выполнению шейдеров, а также возросшей скоростью текстурных выборок. В то же время, филлрейт и ПСП остались такими же.

Из-за изменившейся разрядности шины памяти, объём последней теперь не может быть равен 320 Мбайт или 640 Мбайт, только 256 Мбайт, 512 Мбайт или 1 Гбайт. Первое значение слишком мало, его будет явно недостаточно для карты такого класса, а последнее — слишком велико, незначительный прирост производительности вряд ли будет оправдывать возросшую цену таких вариантов (которые вполне могут появиться в дальнейшем). Поэтому в Nvidia был выбран средний вариант с комплектацией карт объёмом в 512 Мбайт. Что, как показало наше недавнее исследование , является золотой серединой для всех современных игр, которые весьма требовательны к объёму видеопамяти и используют до 500-600 мегабайт. Не устаём повторять, что это не значит, что все ресурсы игр должны обязательно находиться только в локальной памяти видеокарты, менеджмент ресурсов может отдаваться в управление API, особенно в Direct3D 10 с виртуализацией видеопамяти.

Архитектура

Как было написано в предыдущем материале по Geforce 8800 GT, можно сказать, что G92 является предыдущим флагманом G80, переведенным на новый техпроцесс, но с некоторыми изменениями. Новый чип имеет 8 больших шейдерных блоков и 64 текстурных блока, а также четыре широких ROP. Несмотря на все изменения к лучшему, число транзисторов в чипе кажется слишком большим, вероятно, увеличенная сложность чипа объясняется включением в его состав ранее отдельного чипа NVIO, а также видеопроцессора нового поколения. Кроме того, на количество транзисторов повлияли усложненные блоки TMU, и есть вероятность увеличения кэшей для обеспечения большей эффективности 256-битной шины памяти.

Архитектурных изменений в чипе G92 совсем немного, обо всех мы рассказывали в предыдущем материале, и не будем делать это ещё раз. Всё сказанное в обзорах предыдущих решений остаётся в силе, приведём лишь основную диаграмму чипа G92, теперь уже со всеми 128 универсальными процессорами:

Из всех изменений в чипе, по сравнению с G80 — только уменьшенное количество блоков ROP и некоторые изменения в TMU, о которых написано в нашем предыдущем материале. Ещё раз остановимся на том, что 64 текстурных блока у Geforce 8800 GTS 512MB в реальных применениях в большинстве случаев НЕ будут сильнее 32 блоков в Geforce 8800 GTX. При включенной трилинейной и/или анизотропной фильтрации их производительность будет примерно одинакова, так как они имеют одинаковое количество блоков фильтрации текстурных данных. Конечно же, там, где применяются неотфильтрованные выборки, производительность решений на G92 будет выше.

PureVideo HD

Одним из ожидаемых изменений в G92 стал встроенный видеопроцессор второго поколения, известный по G84 и G86, получивший расширенную поддержку PureVideo HD. Этот вариант видеопроцессора почти полностью разгружает CPU при декодировании всех типов видеоданных, в том числе «тяжелых» форматов H.264 и VC-1. В G92 используется новая модель программируемого PureVideo HD видеопроцессора, включающая так называемый BSP движок. Новый процессор поддерживает декодирование H.264, VC-1 и MPEG-2 форматов с разрешением до 1920x1080 и битрейтом до 30-40 Мбит/с, выполняя работу по декодированию CABAC и CAVLC данных аппаратно, что позволяет воспроизводить все существующие HD-DVD и Blu-ray диски даже на средних по мощности одноядерных ПК. Декодирование VC-1 не такое эффективное, как H.264, но оно всё же поддерживается новым процессором. Подробнее о видеопроцессоре второго поколения можно прочитать в наших обзорах G84/G86 и G92, ссылки на которые приведены в начале статьи.

PCI Express 2.0

Из настоящих нововведений в G92 можно выделить поддержку шины PCI Express 2.0. Вторая версия PCI Express увеличивает стандартную пропускную способность в два раза, с 2.5 Гбит/с до 5 Гбит/с, в результате, по разъему x16 можно передавать данные на скорости до 8 ГБ/с в каждом направлении, в отличие от 4 ГБ/с для версии 1.x. При этом очень важно, что PCI Express 2.0 совместим с PCI Express 1.1, и старые видеокарты будут работать в новых системных платах, и новые видеокарты с поддержкой второй версии останутся работоспособными в платах без его поддержки. При условии достаточности внешнего питания и без увеличения пропускной способности интерфейса, естественно.

Реальное влияние большей пропускной способности шины PCI Express на производительность в своих материалах оценил основной конкурент компании Nvidia. По их данным, видеокарта среднего уровня с 256 мегабайтами локальной памяти ускоряется при переходе от PCI Express 1.0 к 2.0 в таких современных играх, как Company of Heroes, Call of Juarez, Lost Planet и World In Conflict примерно на 10%, показатели изменяются от 5% до 25% для разных игр и условий тестирования. Естественно, речь в высоких разрешениях, когда буфер кадра и сопутствующие буферы занимают большую часть локальной видеопамяти, а некоторые ресурсы хранятся в системной.

Для обеспечения обратной совместимости с существующими PCI Express 1.0 и 1.1 решениями, спецификация 2.0 поддерживает как 2.5 Гбит/с, так и 5 Гбит/с скорости передачи. Обратная совместимость PCI Express 2.0 позволяет использовать прошлые решения с 2.5 Гбит/с в 5.0 Гбит/с слотах, которые будут работать на меньшей скорости, а устройство, разработанное по спецификациям версии 2.0, может поддерживать и 2.5 Гбит/с и 5 Гбит/с скорости. В теории с совместимостью всё хорошо, а вот на практике с некоторыми сочетаниями системных плат и карт расширения возможно возникновение проблем.

Поддержка внешних интерфейсов

Тут всё как и у Geforce 8800 GT, никаких отличий нет. Имеющийся на платах Geforce 8800 дополнительный чип NVIO, поддерживающий вынесенные за пределы основного внешние интерфейсы (два 400 МГц RAMDAC, два Dual Link DVI (или LVDS), HDTV-Out), в данном случае был включен в состав самого чипа, поддержка всех указанных интерфейсов встроена в сам G92.

На видеокартах Geforce 8800 GTS 512MB обычно устанавливают два Dual Link DVI выхода с поддержкой HDCP. Что касается HDMI, поддержка этого разъема реализована, она может быть выполнена производителями на картах специального дизайна. Хотя наличие разъема HDMI на видеокарте совершенно необязательно, его с успехом заменит переходник с DVI на HDMI, который прилагается в комплекте большинства современных видеокарт.

В нашем прошлом материале мы взглянули на то, что происходит в нижнем ценовом диапазоне, в котором не так давно появились новинки от AMD — серии Radeon HD 3400 и HD 3600. Сегодня мы несколько поднимем наш взор в иерархии карт и поговорим о старших моделях. Героем нашего обзора на этот раз станет GeForce 8800 GTS 512 МБ .

Что же собой представляет GeForce 8800 GTS 512 МБ? Название, прямо скажем, не дает однозначного ответа. С одной стороны, это каким-то образом напоминает прошлые топовые решения на чипе G80. С другой стороны, объем памяти — 512 МБ, т. е. меньше, чем у соответствующих предшественников. В результате, выходит, что индекс GTS вкупе с числом 512 просто-напросто вводит в заблуждение потенциального покупателя. А ведь на самом деле речь идет, если не о самом быстром, то, в любом случае, одном из самых быстрых графических решений, представленных на данный момент компанией NVIDIA. И основана данная карта вовсе не на уходящем в прошлое G80, а на куда более прогрессивном G92, на котором, кстати, базировалась GeForce 8800 GT. Чтобы внести еще большую ясность в описание сущности GeForce 8800 GTS 512 МБ, перейдем непосредственно к характеристикам.

Сравнительные характеристики GeForce 8800 GTS 512 МБ

Модель Radeon HD 3870 GeForce 8800 GT GeForce 8800 GTS 640 МБ GeForce 8800 GTS 512 МБ GeForce 8800 GTX
Кодовое название ядра RV670 G92 G80 G92 G80
Тех. процесс, нм 65 65 90 65 90
Количество потоковых процессоров 320 112 96 128 128
Количество текстурных блоков 16 56 24 64 32
Количество блоков блендинга 16 16 20 16 24
Частота ядра, МГц 775 600 513 650 575
Частота шейдерного блока, МГц 775 1500 1180 1625 1350
Эффективная частота видеопамяти, МГц 2250 1800 1600 1940 1800
Объем видеопамяти, МБ 512 256 / 512 / 1024 320 / 640 512 768
Разрядность шины обмена данных, Бит 256 256 320 256 384
Тип видеопамяти GDDR3 / GDDR4 GDDR3 GDDR3 GDDR3 GDDR3
Интерфейс PCI-Express 2.0 PCI-Express 2.0 PCI-Express PCI-Express 2.0 PCI-Express

Взглянем на приведенную выше таблицу. На основе этих данных мы можем сделать вывод, что перед нами вполне оформленное и крепкое решение, способное наравне тягаться с текущими топами калифорнийской компании. По сути, мы имеем полноценный чип G92 с поднятыми частотами и очень быструю GDDR3 память, работающую почти на 2 ГГц. Кстати, о том, что в изначальном варианте G92 должен был иметь именно 128 потоковых процессоров и 64 текстурных блока мы говорили еще в обзоре GeForce 8800 GT. Как видите, для модели с индексом GT не просто так был выделен несколько урезанный чип. Данный ход позволил несколько разграничить сегмент производительных видеокарт и создать в нем еще более совершенный продукт. Тем более, что именно сейчас производство G92 уже прекрасно налажено и число чипов, способных работать на частотах более 600 МГц довольно велико. Впрочем, даже в первых ревизиях G92 довольно легко покорял 700 МГц. Сами понимаете, что теперь этот рубеж не является пределом. В этом мы еще успеем убедиться по ходу материала.

Итак, перед нами продукт компании XFX — видеокарта GeForce 8800 GTS 512 МБ. Именно данная модель и станет сегодня объектом нашего пристального изучения.

Наконец, перед нами сама плата. Основой для продукта XFX служит референс-дизайн, поэтому все, что будет сказано относительно данного продукта, можно отнести и к большинству решений других компаний. Ведь не для кого ни секрет, что на сегодняшний день подавляющее число производителей базируют дизайн своей продукции именно на том, что предлагает NVIDIA.

В отношении GeForce 8800 GTS 512 МБ нельзя не заметить, что печатная плата позаимствована у GeForce 8800 GT. Она значительно упрощена относительно видеокарт на G80, однако полностью отвечает требованиям новой архитектуры. В результате, можно сделать вывод, что выпуск GeForce 8800 GTS 512 МБ вряд ли был чем-то осложнен. Мы имеем ту же PCB и почти тот же чип, что и у предшественницы с индексом GT.

Что касается размеров рассматриваемой видеокарты, то в этом плане она полностью соответствует GeForce 8800 GTS 640 МБ. В чем вы можете убедиться сами на основе приведенного фото.

NVIDIA сочла нужным внести изменения в системе охлаждения. Она претерпела серьезные изменения и теперь напоминает своим видом все-таки кулер классической GeForce 8800 GTS 640 МБ, нежели GeForce 8800 GT.

Конструктив кулера достаточно прост. Он состоит из алюминиевого оребрения, продувом которой занимается соответствующая турбина. Пластины радиатора пронизывают медные тепловые трубки диаметром 6 мм каждая. Контакт с чипом осуществляется посредством медной подошвы. Тепло снимается с основания и переносится на радиатор, где и впоследствии рассеивается.

Наш экземпляр GeForce 8800 GTS был оснащен чипом G92 ревизии А2, выпущенным на Тайване. Память набрана 8-ю чипами производства Qimonda со временем выборки 1.0 нс.

Наконец, мы вставили видеокарту в слот PCI-E. Плата без проблем определилась и позволила установить драйвера. Не возникло трудностей и в отношении вспомогательного софта. GPU-Z вполне корректно выводил всю необходимую информацию.

Частота GPU составляет 678 МГц, памяти — 1970 МГц, шейдерного домена — 1700 МГц. В результате, мы вновь видим, что XFX не изменяет себе в привычке, поднимать частоты выше заводских. Правда, на этот раз прибавка невелика. Но обычно в ассортименте компании достаточно много карт одной серии, различающихся частотами. Некоторые из них, наверняка, имеют большие показатели.

Riva Tuner также нас не подвел и вывел всю информацию на мониторинге.

После этого мы решили проверить, насколько хорошо справляется со своей задачей штатный кулер. У GeForce 8800 GT с этим были серьезные проблемы. Система охлаждения имела довольно сомнительный запас эффективности. Этого, конечно, хватало для того, чтобы использовать плату в номинале, но для большего требовалась замена кулера.

Однако у GeForce 8800 GTS с этим все в порядке. После продолжительной нагрузки температура поднялась лишь до 61 °C. Это отличный результат для столь производительного решения. Впрочем, в каждой бочке меда есть своя ложка дегтя. Не обошлось и здесь без этого. К сожалению, система охлаждения жутко шумит. Причем, шум становится довольно неприятным уже при 55 °C, что нас даже удивило. Ведь чип почти не нагрелся. С какой стати турбина начинает интенсивно работать?

Тут нам на помощь пришел Riva Tuner. Данная утилита полезна не только тем, что позволяет разгонять и настраивать работу видеокарты, но и имеет функции управления оборотами кулера, если, конечно, плата сама имеет поддержку этой опции.

Мы решили выставить обороты на 48 % — это абсолютно тихая работа карты, когда вы можете полностью забыть о её шуме.

Однако подобные корректировки привели к увеличению температуры. На этот раз она составила 75 °C. Конечно, температура немного высоковата, но, на наш взгляд, это стоит того, чтобы избавиться от воя турбины.

Впрочем, на этом мы не остановились. Мы решили проверить, как поведет себя видеокарта при установке какой-либо альтернативной системы охлаждения.

Выбор пал на Thermaltake DuOrb — эффективную и стильную систему охлаждения, которая в свое время неплохо справилась с охлаждением GeForce 8800 GTX.

Температура упала на 1 °C относительно штатного кулера, работающего на автоматических оборотах (в нагрузке обороты автоматически увеличивались до 78 %). Что же, конечно, разница в эффективности ничтожна мала. Однако уровень шума также стал существенно меньше. Правда, бесшумным Thermaltake DuOrb тоже не назовешь.

В итоге, новый штатный кулер от NVIDIA оставляет лишь благоприятные впечатления. Он очень эффективен и, кроме того, позволяет выставлять любой уровень оборотов, что подойдет любителям тишины. Тем более, что даже в этом случае он хотя и хуже, но справляется с поставленной задачей.

Наконец, упомянем о разгонном потенциале. Он, кстати, как оказалось, одинаков, что для штатного кулера, что для DuOrb. Ядро удалось разогнать до 805 МГц, шейдерный домен до 1944 МГц, а память до 2200 МГц. Не может не радовать, что топовое решение, которое изначально обладает высокими частотами, имеет еще солидный запас, причем это касается как чипа, так и памяти.

Итак, мы рассмотрели видеокарту GeForce 8800 GTS 512 МБ производства XFX. Мы могли бы на этом моменте плавно перейти к тестовой части, однако мы решили рассказать об еще одном интересном решении, на этот раз из стана ATI, производства PowerColor.

Основная особенность данной видеокарты — память DDR3. Напомню вам, что большинство компаний выпускают Radeon HD 3870 с DDR4. Таким же типом памяти был оснащен и референс-вариант. Однако компания PowerColor достаточно часто избирает нестандартные пути и наделяет свою продукцию отличными от остальных особенностями.

Впрочем, другой тип памяти — не единственное отличие платы PowerColor от сторонних решений. Дело в том, что компания также решила оснастить видеокарту не стандартной турбиной, кстати, довольной эффективной, а еще более производительным продуктом от ZeroTherm — кулером GX810.

PCB упрощено. По большей части это коснулось системы питания. В этой области должно присутствовать четыре керамических конденсатора. Причем на большинстве плат они расположены подряд, вплотную друг к другу. На плате от PowerColor их осталось три штуки — два из них располагаются там, где и должны, и еще один вынесен к верхней части.

Несколько сглаживает впечатление от таких особенностей присутствие алюминиевого радиатора на цепях питания. Во время нагрузки они способны серьезно нагреваться, так что охлаждение будет не лишним.

Чипы памяти закрыты медной пластиной. На первый взгляд, это может порадовать, ведь это элемент, способный снизить температуру при нагреве памяти. Однако в действительно все обстоит не совсем так. Во-первых, пластину на данном экземпляре карты снять не удалось. По всей видимости, она крепко держится на термоклее. Возможно, если приложить усилия, то радиатор можно удалить, но мы усердствовать не стали. Поэтому о том, какая память установлена на карту, мы так и не узнали.

Второе, за что нельзя похвалить PowerColor, — это то, что кулер имеет конструкцию, способную направлять воздух на PCB, тем самым, снижая её температуру. Однако пластина этому обдуву частично препятствует. Нельзя сказать, что она совсем мешает. Но любые радиаторы на памяти были бы гораздо лучше вариантом. Или, по крайне мере, не стоит использовать термоинтерфейс, после которого пластину не возможно снять.

Не обошлось без проблем и самим кулером. Да, конечно, ZeroTherm GX810 — хороший кулер. Его эффективность находится на отличном уровне. Этому во многом способствует полностью медная чаша в качестве радиатора с длинной медной трубкой, пронизывающие все пластины. Но вот проблема в том, что на плате распаян 2-ух пинный коннектор. В результате кулер всегда работает в одном режиме, а именно — максимальном. С самого момента включения компьютера вентилятор кулера работает на предельных оборотах, создавая очень серьезный шум. С этим еще можно было бы смириться, относись это исключительно к 3D, все-таки мы были знакомы с более шумными Radeon X1800 и X1900, но вот когда кулер так шумит в 2D… Это не может не вызывать раздражения.

Радует лишь, что проблема эта решаемая. Ведь вы можете использовать регулятор оборотов. Мы, например, так и сделали. На минимальных оборотах кулер бесшумный, только вот эффективность сразу серьезно падает. Есть и другой вариант — сменить охлаждение. Его мы тоже пробовали. Для этого мы взяли все тот же Thermaltake DuOrb и обнаружили, что установка не возможна.

С одной стороны, монтажные отверстия подходят, только вот крупные конденсаторы на PCB препятствуют крепежу. В результате, осмотр платы мы завершаем на довольно негативной ноте. Перейдем к тому, как ведет себя видеокарта, когда установлена в компьютер.

Частота ядра составляет 775 МГц, что соответствует референсу. А вот частота памяти гораздо ниже традиционной значения — лишь 1800 МГц. Однако тут не стоит особо удивляться. Мы имеем дело с DDR3. Так что это вполне адекватный показатель. Кроме того, имейте ввиду, что DDR4 имеет значительно большие задержки. Таким образом, конечная производительность будет примерно на одном уровне. Разница будет проявляться лишь в приложениях, требовательных к пропускной способности.

Кстати, я обратил бы ваше внимание на то, что плата имеет БИОС 10.065. Это достаточно старая прошивка и в ней, наверняка, присутствует ошибка PLL VCO. В результате, вы не сможете разогнать вашу карту выше 862 МГц. Однако исправить это довольно просто. Для этого достаточно обновить БИОС.

Riva Tuner без проблем вывел всю необходимую информацию о частотах и температуре.

Температуре в нагрузке составила 55 °C, т. е. карта почти не нагрелась. Возникает лишь вопрос: если есть такой запас по эффективности, зачем использовать исключительно максимальные обороты для кулера?

Теперь о разгоне. В общем-то, не секрет, что частотный запас RV670 довольно мал, однако у нашего экземпляра она оказался ужасно мал. Нам удалось поднять частоту лишь на 8 МГц, т. е. до 783 МГц. Память показала более выдающиеся результаты — 2160 МГц. Отсюда можно сделать вывод, что на карте, скорее всего, используется память со временем выборки 1.0 нс.

Исследование производительности видеокарт

Список участников тестирования вы можете увидеть ниже:

  • GeForce 8800 GTS 512 МБ (650/1625/1940);
  • GeForce 8800 GTS 640 МБ (513/1180/1600);
  • Radeon HD 3870 DDR3 512 МБ (775/1800);
  • Radeon HD 3850 512 МБ (670/1650).

Тестовый стенд

Для выяснения уровня производительности видеокарт, рассмотренных выше, нами была собрана тестовая система нижеследующей конфигурации:

  • Процессор — Core 2 Duo E6550 (333?7, L2=4096 КБ) @ (456?7 = 3192 МГц);
  • Система охлаждения — Xigmatek HDT-S1283;
  • Термоинтерфейс — Arctic Cooling MX-2;
  • Оперативная память — Corsair TWIN2в6400С4-2048;
  • Материнская плата — Asus P5B Deluxe (Bios 1206);
  • Блок питания — Silverstone DA850 (850 Вт);
  • Жесткий диск — Serial-ATA Western Digital 500 ГБ, 7200 rpm;
  • Операционная система — Windows XP Service Pack 2;
  • Видеодрайвер — Forceware 169.21 для видеокарт NVIDIA, Catalyst 8.3 для плат AMD;
  • Монитор — Benq FP91GP.

Используемые драйверы

Драйвер ATI Catalyst был сконфигурирован следующим образом:

  • Catalyst A.I.: Standart;
  • MipMap Detail Level: High Quality;
  • Wait for vertical refresh: Always off;
  • Adaptive antialiasing: Off;
  • Temporal antialiasing: Off;

Драйвер ForceWare, в свою очередь, использовался при следующих настройках:

  • Texture Filtering: High quality;
  • Anisotropic sample optimization: Off;
  • Trilinear optimization: Off;
  • Threaded optimization: On;
  • Gamma correct antialiasing: On;
  • Transparency antialiasing: Off;
  • Vertical sync: Force off;
  • Остальные настройки: по умолчанию.

Используемые тестовые пакеты:

  • Doom, Build 1.1 — тестирование в утилите BenchemAll. Для теста на одном из уровней игры нами было записано демо;
  • Prey, Build 1.3 — тестирование через HOC Benchmark, демо HWzone. Boost Graphics выключен . Качество изображения Highest . Двукратный прогон демо;
  • F.E.A.R., Build 1.0.8 — тестирование через встроенный бенчмарк. Soft Shadows выключено ;
  • Need For Speed Carbon, Build 1.4 — максимальные настройки качества. Motion Blur отключен . Тестирование проходило посредством Fraps;
  • TimeShift, build 1.2 — детализация форсировалась в двух вариантах: High Detail и Very High Detail. Тестирование проходило посредством Fraps;
  • Unreal Tournament 3, build 1.2 — максимальные настройки качества. Прогон демо на уровне VCTF?Suspense;
  • World In Conflict, build 1.007 — использовалось два варианта настроек: Medium и High. Во втором случае отключались фильтры качества (анизотропная фильтрация и сглаживание). Тестирование проходило с помощью встроенного бенчмарка;
  • Crysis, build 1.2 — тестирование в режимах Medium и High. Тестирование проходило посредством Fraps.

* После названия игры указан build, т. е. версия игры. Мы стараемся добиться максимальной объективности теста, поэтому используем игры только с последними патчами.

Результаты тестирования

Производители уже давно практикуют выпуск удешевленных решений на базе графических процессоров верхнего ценового сегмента. Благодаря подобному подходу существенно увеличивается вариация готовых решений, снижается их стоимость, а большинство пользователей зачастую отдают предпочтение продуктам с наиболее выгодным соотношением «цена/быстродействие».
Подобным образом компания NVIDIA поступила и с новейшим чипом G80, первым в мире графическим процессором, являющимся носителем унифицированной архитектуры и обладающим поддержкой нового API от Microsoft – DirectX 10.
Одновременно с флагманской видеокартой GeForce 8800 GTX вышла и более дешевая версия, именуемая GeForce 8800 GTS. От старшей сестры её отличает урезанное количество пиксельных процессоров (96 против 128), видеопамяти (640 МБ вместо 768 МБ у GTX). Следствием уменьшения количества чипов памяти стало уменьшение разрядности ее интерфейса до 320 бит (у GTX - 384 бит). С более детальными характеристиками рассматриваемого графического адаптера можно ознакомиться, изучив таблицу:

В нашу Тестовую лабораторию попала видеокарта ASUS EN8800GTS, которую мы сегодня и рассмотрим. Данный производитель является одним из крупнейших и наиболее успешных партнеров NVIDIA, и традиционно не скупится на оформление упаковки и комплектацию. Как говорится, «хорошей видеокарты должно быть много». Новинка поставляется в коробке внушительных размеров:


На лицевой ее стороне красуется персонаж из игры Ghost Recon: Advanced Warfighter. Одним изображением дело не ограничивается, - сама игра, как Вы уже догадались, идет в комплекте. На обратной стороне упаковки приведены краткие характеристики продукта:


В ASUS посчитали это количество информации недостаточным, сделав из коробки некое подобие книги:


Справедливости ради отметим, что этот метод практикуется уже довольно давно и, отнюдь, не только ASUS. Но, как говориться, всё хорошо в меру. Максимальная информативность обернулась практическим неудобством. Небольшое дуновение ветра - и верхняя часть обложки открывается. При транспортировке героя сегодняшнего обзора нам пришлось ухищряться и подгибать удерживающий язычок так, что бы он оправдывал своё предназначение. К сожалению, подогнув его, легко повредить упаковку. Ну и напоследок добавим, что размеры коробки неоправданно велики, что вызывает некоторые неудобства.

Видеоадаптер: комплектация и близкий осмотр

Что же, перейдем непосредственно к комплектации и самой видеокарте. Адаптер упакован в антистатический пакет и пенопластовую емкость, что исключает как электрическое, так и механическое повреждение платы. В коробке находятся диски, переходники «DVI -> D-Sub», шнуры VIVO и дополнительного питания, а так же футляр для дисков.


Из дисков, входящих в комплект, примечательна игра GTI racing и бенчмарк 3DMark06 Advanced Edition! Первый раз в комплекте серийной и причем массовой видеокарты замечен 3DMark06! Без сомнения, этот факт придется по вкусу пользователям, активно занимающимся бенчмаркингом.


Что же, переходим непосредственно к видеокарте. Она выполнена на базе печатной платы эталонного дизайна с применением референсной системы охлаждения, и от других подобных продуктов её отличает лишь наклейка с логотипом производителя, на которой сохраняется тематика Ghost Recon.


Обратная сторона печатной платы также ничем не примечательна – на ней распаяно множество smd-компонентов и регуляторы стабилизаторов напряжений, только и всего:


В отличие от GeForce 8800 GTX, для GTS требуется лишь один разъем дополнительного питания:


Помимо этого, она короче старшей сестры, что наверняка придется по вкусу обладателям небольших корпусов. В плане охлаждения отличий нет, и ASUS EN8800GTS, как и GF 8800 GTX, использует кулер с большим вентилятором турбинного типа. Радиатор выполнен из медного основания и алюминиевого кожуха. Теплопередача от основания к ребрам осуществляется отчасти по тепловым трубкам, что увеличивает общую эффективность конструкции. Горячий воздух выбрасывается за пределы системного блока, однако часть его, увы, остается внутри ПК благодаря некоторым отверстиям в кожухе системы охлаждения.


Впрочем, проблема сильного нагреве легко решается. Например, весьма неплохо улучшает температурный режим платы обдув тихоходным 120-миллиметровым вентилятором.
Помимо графического процессора, кулер охлаждает чипы памяти и элементы подсистемы питания, а так же ЦАП видеосигнала (чип NVIO).


Последний был вынесен за пределы основного процессора по причине высоких частот последнего, что вызывало наводки и, как следствие, помехи в работе.
К сожалению, это обстоятельство вызовет трудности при смене кулера, поэтому инженеры NVIDIA просто не имели права сделать его некачественным. Посмотрим на видеокарту в «голом» виде.


На PCB распаяны чип G80 ревизии A2, 640 МБ видеопамяти, набранной десятью чипами производства Samsung. Время выборки памяти составляет 1,2 нс, что немного выше, чем у GeForce 8800 GTX.


Обратите внимание, на плате есть два посадочных места под чипы. Будь они распаяны на PCB, суммарный объем памяти составил бы 768 МБ, а ее разрядность - 384 бит. Увы, разработчик видеокарты посчитал подобный шаг лишним. Такая схема применяется только в профессиональных видеокартах серии Quadro.
Напоследок отметим, что у карты только один разъем SLI, в отличие от GF 8800 GTX, у которой их два.

Тестирование, анализ результатов

Испытания видеокарты ASUS EN8800GTS проходили на тестовом стенде следующей конфигурации:
  • процессор - AMD Athlon 64 3200+@2400МГц (Venice);
  • материнская плата - ASUS A8N-SLI Deluxe, чипсет NVIDIA nForce 4 SLI;
  • оперативная память - 2х512Мб DDR400@240МГц, тайминги 3.0-4-4-9-1T.
Тестирование проводилось в операционной системе Windows XP SP2, установлен драйвер чипсета версии 6.86.
Утилита RivaTuner подтвердила соответствие характеристик видеокарты заявленным:


Частоты видеопроцессора составляют 510/1190 МГц, памяти - 1600 МГц. Максимальный нагрев, достигнутый после многократного прогона теста Canyon Flight из пакета 3DMark06, составил 76 °С при скорости вращения вентилятора штатной системы охлаждения, равной 1360 об/мин:


Для сравнения скажу, что в тех же условиях попавшая под руку GeForce 6800 Ultra AGP нагревалась до 85 °C при максимальной скорости вентилятора, а после длительной работы вообще зависала.

Производительность нового видеоадаптера проверялась с помощью популярных синтетических бенчмарков и некоторых игровых приложений.

Тестирование приложениями разработки Futuremark выявило следующее:


Конечно, на системе с более мощным центральным процессором, например, представителем архитектуры Intel Core 2 Duo, результат был бы лучше. В нашем случае морально устаревший Athlon 64 (пусть даже и разогнанный) не позволяет полностью раскрыть потенциал топовых видеокарт современности.

Перейдем к тестированию в реальных игровых приложениях.


В Need for Speed Carbon отчетливо видна разница между соперниками, и GeForce 7900 GTX отстает от карт поколения 8800 более чем ощутимо.


Поскольку для комфортной игры в Half Life 2 требуется не только мощная видеокарта, но и быстрый процессор, отчетливая разница в производительности наблюдается только в максимальных разрешениях с активированными анизотропной фильтрацией и полноэкранным сглаживанием.


В F.E.A.R. наблюдается примерно такая же картина, как и в HL2.


В тяжелых режимах игры Doom 3 рассматриваемая карта проявила себя очень неплохо, но сполна оценить отставание GeForce 8800 GTS от старшей сестры не позволяет все тот же слабый центральный процессор.


Поскольку Pray сделан на движке Quake 4, который в свою очередь является развитием Doom3, результаты производительности видеокарт в данных играх схожи.
Прогрессивность новой унифицированной шейдерной архитектуры и некоторое "урезание" возможностей относительно старшей сестры поставили GeForce 8800 GTS между самым быстрым графическим адаптером от NVIDIA на сегодня и флагманом семитысячной линейки. Впрочем, вряд ли калифорнийцы поступили бы иначе, - новинка такого класса должна быть мощнее предшественников. Радует, что GeForce 8800 GTS по скоростным возможностям находится гораздо ближе к GeForce 8800 GTХ, нежели к 7900 GTX. Оптимизм вселяет и поддержка самых новых графических технологий, которая должна оставить владельцам подобных адаптеров неплохой запас производительности на ближайшее (и, надеемся, более отдаленное) будущее.

Вердикт

После исследования карты у нас остались исключительно хорошие впечатления, которые намного улучшил фактор стоимости продукта. Так, в момент появления на рынке и некоторое время спустя ASUS EN8800GTS по данным price.ru стоила порядка 16000 руб, - ее цена была явно завышена. Теперь же карта длительный период продается примерно за 11500 руб, что не превышает стоимости аналогичных продуктов от конкурентов. Однако, учитывая комплектацию, детище ASUS, несомненно, находится в выигрышном положении.

Плюсы :

  • поддержка DirectX 10;
  • усиленная структура чипа (унифицированная архитектура);
  • отменный уровень производительности;
  • богатая комплектация;
  • именитый бренд;
  • цена находится на уровне продуктов от менее авторитетных конкурентов
Минусы :
  • не всегда удобная большая коробка
Благодарим Российское представительство компании ASUS за предоставленную на тестирование видеокарту.

Отзывы, пожелания и замечания по данному материалу принимаются в форума сайт .