GeForce 8800GT 512MB. Обзор и тестирование новинки от NVIDIA

Выход видеокарт серии GeForce 8800 закрепил за компанией NVIDIA место лидера на рынке 3D-графики. В ценовой категории до 200 у. е. так же прочно обосновались видеокарты серии GeForce 8600. Но по сравнению со старшими моделями они довольно сильно урезаны по вычислительным блокам.

Пытаясь как-то заполнить пустующую нишу между 200 и 400 у. е., NVIDIA выпустила версию видеокарты GeForce 8800GTS с 320 Mb на борту.

Но сочетание мощного чипа и низкого объема памяти не самое удачное.

Пользователи были фактически лишены выбора в этом ценовом сегменте.

И пока долгое время AMD/ATI не могли ответить конкуренту, ситуация эта не менялась.

Но время не стоит на месте, технологии совершенствуются, и приближается новый виток борьбы графических гигантов.

И на этот раз борьба за кошельки пользователей разворачивается не среди High-End решений, а в Middle-End секторе. Пока AMD только анонсирует свои новые Radeon 3ххх серии, мы уже можем проверить, насколько удался ответ калифорнийской компании.

Объектом сегодняшнего обзора станет видеокарта GeForce 8800GT 512MB. Эта модель наконец-то добралась до просторов Украины, и мы можем, наконец-то, поделиться с вами, уважаемые читатели, своими впечатлениями об этой новинке.

Видеокарта выполнена на новом чипе с кодовым названием G92. Не смотря на новый индекс, архитектура его не претерпела серьезных изменений по сравнению с G80. Главной особенностью является то, что новый чип выполнен по новому 65 нм техпроцессу.

Количество универсальных вычислительных процессоров составляет 112. Довольно большое количество, даже больше чем у GeForce 8800GTS и лишь немного меньше чем у GeForce 8800GTX.

Схема G92, которую Nvidia указывает в официальных документах, приведена ниже.

Как видим, строение ядра почти полностью повторяет своего предшественника. Ядро состоит из семи вычислительных блоков (у G80 их было 8). Каждый вычислительный блок включает 8 TMU и 16 ALU. Вместе получается 112 универсальных процессоров и 56 текстурных блоков.

Традиционно ALU работают на повышенной частоте.

Текстурные модули немного изменены, они повторяют архитектуру G84 (GeForce 8600GT), а не G80. У предшественника TMU включал 4 модуля выборки текстур и 8 билинейной фильтрации. Текстурный блок G92 имеет уже 8 блоков адресации, но такое же количество блоков фильтрации.

Подобное строение должно давать преимущество в быстродействии новому чипу, но при активации фильтрации его производительность не превысит таковую у G80. Количество широких блоков ROP уменьшилось с шести (у G80) до четырех, в состав которых входит по четыре модуля. Кроме стандартного режима сглаживания поддерживается CSAA.

Как видим, новый чип почти ни в чем не уступает G80. Кроме того, уже появилась информация, что новое ядро также состоит из 8 вычислительных блоков, просто в G92 один отключен.

Вероятно, скоро мы увидим еще более мощные модели со 128 универсальными потоковыми процессорами. Единственным существенным минусом является шина доступа к памяти 256 бит, что меньше чем у High-End решений на старом чипе.

Скажется ли это на производительности, мы увидим ниже. В новом графическом ядре появился встроенный видеопроцессор второго поколения с поддержкой PureVideo HD. Этот процессор имеет улучшенные алгоритмы обработки HD форматов H.264, VC-1 и MPEG-2, что значительно разгружает процессор.

Поддерживается декодирование видео с разрешением до 1920×1080 и битрейтом до 30-40 Мбит/с. Новый более тонкий техпроцесс позволил выполнить блок вывода изображения непосредственно в самом графическом чипе. Это избавило от внешнего чипа NVIO, который выполнял данные функции на картах GeForce 8800GTS и 8800GTX из-за большого размера кристалла G80. На картах GeForce 8800GT устанавливаются два Dual Link DVI выхода с поддержкой HDCP.

Поддержка HDMI тоже имеется, но разъема не предусмотрено, однако подключать внешние устройства можно и через переходник DVI/HDMI. В отличие от видеокарт Radeon, у GeForce нет встроенного аудиодекодера и по HDMI передается только видео.

Одной из главных особенностей новой видеокарты является поддержка шины PCI Express 2.0. Скорость передачи данных по этому стандарту увеличена до 5 Гбит/с, в два раза больше чем 2,5 Гбит/с у старой версии PCI Express. Видеокарты поддерживающие PCI Express 2.0 обратно совместимы с PCI Express 1.0 и 1.1. Однако, как уже показывает практика, все же возможны проблемы с совместимостью на некоторых материнских платах.

Характеристики референсной карты GeForce 8800GT 512Mb: Объектом сегодняшнего тестирования будет видеокарта известной компании Leadtek.

Карта поставляется в яркой глянцевой коробке.

В углу гордо красуется диаграмма, демонстрирующая преимущество в 10-35 % по сравнению с видеокартами Radeon на базе RV670. Отличный рекламный ход, но проверить правдивость этих утверждений пока еще нет возможности.

В комплекте с видеокартой имеются: Плата является полной копией референсных образцов, отличаясь только наклейкой на системе охлаждения.

Система охлаждения у видеокарт GeForce 8800GT, в отличие от предшественников, довольно компактная и не занимает соседний слот.

А вот так выглядит видеокарта со снятым кулером: Система охлаждения выполнена в виде турбины. К сожалению, разобрать саму турбину не удалось, поскольку верхний кожух кроме защелок еще и приклеен к основанию.

Тепло отводится от графического чипа через медную вставку. С обратной стороны к этой пластине припаяны три небольшие тепловые трубки, которые уже контактируют с ребристым радиатором.

Но радиатор этот очень мал и диаметр вентилятора, его обдувающего, невелик. При этом, как видно по фото, на основание радиатора нанесен толстый слой темопасты.

Обратите внимание, что при снятии радиатора, термопаста осталась как на чипе, так и на основании радиатора.

Следовательно, прямого контакта с радиатором нет! Толстый слой пасты может ухудшить отдачу тепла.

Возможно, ситуацию можно исправить посильнее затянув крепежные винты, но, судя по раздавленным термопрокладкам памяти, прижим и так максимальный. Да еще и термопаста нанесена на большую площадь, так что даже защитная рамка вокруг чипа (которая предохраняет от скола) оказалась вся измазана ей. Эффективность такой системы вызывает сомнения, учитывая приличное энергопотреблении чипа.

Само же основание кулера выполнено в виде массивной алюминиевой пластины, которая одновременно выступает радиатором для памяти и элементов питающей цепи.

Контакт с ними осуществляется через термопрокладки, выполненные из тканеподобного материала, пропитанного термопастой. На карте установлен чип G92 ревизии А2: Чипы памяти от компании Qimonda со временем доступа 1 нс. Так что есть небольшой запас для разгона, ведь чипы рассчитаны на рабочую частоту 2 ГГц. Недавно вышедшая версия RivaTuner 2.06 отлично работает с данной видеокартой.

Разгон карты и ее мониторинг осуществлялся через эту утилиту. В данной версии есть возможность регулировать скорость вращения вентилятора системы охлаждения.

По умолчанию его фиксированная скорость составляет лишь 30 %. В данном режиме кулер работает довольно тихо и почти бесшумно. Средняя температура чипа при работе в 2D находилась на уровне 60°С. При запуске 3D приложений моментально подскакивала до 80°С. Но как оказалось это не предел.

После хорошего прогрева «волосатым кубом» программы ATITool, температура поднялась до 90°С. Данная отметка при всех тестах так и не была превышена. Однако это и так довольно высокая цифра, учитывая, что получена она в открытом корпусе.

В закрытом системном блоке данная карта могла бы прогреться еще больше.

Как видим, штатный кулер не очень хорошо справляется с охлаждением данной видеокарты.

Понизить температуру можно подняв обороты вентилятора.

До 50% шум вентилятора относительно невысок, а вот выше становится ощутим.

На максимальных же оборотах его вой просто невыносим и сравним лишь с воем турбины у Radeon HD 2900XT на максимуме. RivaTuner позволяет поднимать частоты графического ядра и его шейдерного домена раздельно.

Ядро без проблем поднялось до частоты 700 МГц. Память поднималась и до 2050 МГц, и выше, но ввиду нестабильной работы пришлось остановиться на круглой цифре в 2 ГГц. Данные частоты явно не максимальные, которых можно достичь при разгоне, но при больших значениях надо позаботиться о лучшем охлаждении.

На данных частотах карта работала стабильно и выдержала несколько прогонов 3DMark и получасовой тест «волосатым кубом».

При этом максимальная температура поднялась на 3°С при стандартных оборотах вентилятора.

Постепенно мы переходим к главной части сегодняшнего обзора, а именно к тестированию. Но перед тем как к нему приступить, стоит несколько слов сказать о конкуренте, в качестве которого выбран GeForce 8800GTS 640Mb компании Leadtek.

Данная видеокарта так же выполнена по референсному дизайну и имеет стандартные частоты.

В сравнении с GeForce 8800GT эта карта выглядит монстром со своим двухслотовым кулером, хотя сама плата такого же размера.

Характеристики GeForce 8800GTS 640Mb: Данная видеокарта стоит примерно на $80 дороже, но как видим, по своим характеристикам она даже немного уступает GeForce 8800GT, поскольку у нее меньшее число вычислительных блоков и более низкие частоты.

Но зато пропускная способность памяти выше, благодаря более «широкой» шине памяти.

Да и лишние 128 Мб видеопамяти в современных играх тоже пригодятся. Кто же окажется быстрее?

Тестовый стенд: Изначально планировалось использовать одинаковые драйвера для обеих видеокарт.

Но последние (на момент тестирования) официальные драйвера ForceWare 163.71 и 163.75 не работали с новой видеокартой. Для нее на сайте NVIDIA доступна бета-версия ForceWare 169.02. Существуют и более новые модификации этой 169 версии, но у них присутствуют проблемы в некоторых играх, поэтому они не использовались.

Но и драйвера 169.02 тоже оказались со странностями, не захотели устанавливаться на GeForce 8800GTS, но при этом отлично работали с GeForce 8600GTS.

К сожалению, из-за ограниченного времени, в течение которого карты были у нас в лаборатории, тесты проводились только на штатных частотах. Разогнанный GeForce 8800GT был протестирован только в 3DMark 2006.

В игровых тестах видеокарта фигурирует лишь с родными частотами.

В данном тесте отображены четыре результата. Кроме стандартных результатов двух видеоадаптеров приведен результат полученный при разгоне GeForce 8800GT.

А так же был проведен тест данной видеокарты на родных частотах (600/1800 МГц), но на стандартной частоте процессора Core 2 Duo E4400 2 ГГц, а не на 3,25 ГГц. Это нам позволит сравнить результат, полученный при разгоне данного процессора, и выяснить, насколько мощный процессор необходим для данной видеокарты.

Напомню, что все остальные тесты проводились при частоте 3,25 ГГц. Новичок обгоняет GeForce 8800GTS почти на 24%. Разрыв довольно большой, а при разгоне он увеличивается до 33%. Что же касается процессорозависимости, то, как вы можете оценить по графику, при повышении частоты центрального процессора на 63% результат в данном тесте увеличивается на 32%. Так что, младшие модели процессоров Core 2 Duo просто не в состоянии загрузить данную видеокарту. F. E.A. R. Первым игровым тестом выступает уже довольно старенькая, но все еще популярная игра F. E.A. R. Тестирование проводилось с помощью встроенного бенчмарка.

Поскольку сегодня мы рассматриваем мощные видеокарты, да и учитывая возраст игры, тесты проводились при установке всех графических параметров на максимальном значении. Анизотропная фильтрация на максимуме, полноэкранное сглаживание в значении АА4х, включены soft shadows.

Средний fps отображен на графике. Для обоих соперников данная игра не представляет никакой сложности, результаты очень высокие.

Но опять в лидерах GeForce 8800GT с отрывом в 12%. Ее результат в разрешении 1280×960 стремится к круглой цифре 100 кадров, а ведь еще пару лет назад High-End карты с трудом справлялись с этой игрой на максимальных графических настройках.

S. T.A. L.K. E.R. Следующая игра — творение отечественных программистов. Нашумевший S. T.A. L.K. E.R., вышедший в этом году, поднял планку качества графики в современных играх на новый уровень.

Тестирование проводилось на первой игровой локации, в лагере сталкеров. Поскольку здесь нет перестрелок, то можно примерно повторить порядок действий при каждом тесте, сведя вероятность погрешности к минимуму.

Все настройки графики установлены на максимум при полном динамическом освещении, правда в таком режиме сглаживание не работает.

Тест проводился только в высоких разрешениях. Результаты получены с помощью программы Fraps.

В сравнении с предыдущей игрой результаты упали, но все равно средний fps находится на высоком комфортном уровне. Все так же на первом месте GeForce 8800GT с преимуществом в 12-14%. Рассматриваемые видеоадаптеры одни из лидеров среди карт поддерживающих DirectX 10, поэтому основной интерес вызывает их противостояние в играх, его поддерживающих.

В связи с этим, основная часть игровых тестов проведена в абсолютно новых играх, большинство из которых вышли этой осенью. Первой DX10 игрой будет еще один отечественный продукт.

Игра PT Boats пока еще не выпущена, но игрокам уже доступна ее демоверсия, которая и использовалась в качестве теста. Тестирование проводилось в двух разрешениях – 1280×1024 и 1600×1200.

Демо запускалось при максимальных настройках, без сглаживания и при активации оного.

Но поскольку использование антиалиасинга приводило к существенному падению производительности, использовался лишь режим AA2x.

Без сглаживания видеокарты показали высокие результаты.

Новичок снова обогнал GeForce 8800GTS на 11-14%. Но вот при активации сглаживания ситуация немного другая.

Во первых, происходит очень большое падение производительности, более чем на 50%. А во вторых, внезапно GeForce 8800GT уступает противнику.

В разрешении 1280×1024 это всего лишь 1%, но в большем разрешении это уже 25%. Тут вероятно, несмотря на большую мощь графического чипа, узким местом видеокарты GeForce 8800GT становится шина 256 бит, что обуславливает отставание от GeForce 8800GTS. Однако в любом случае, в разрешении 1600×1200 при сглаживании обе карты показывают низкий неиграбельный fps. И это сводит на нет победу «старичка», ведь насладиться игрой в таком режиме на данной карте все равно нельзя.

Следующий тест – популярный вестерн.

Игра пережила реинкарнацию и переработку графического движка под возможности нового DirectX, что обеспечивает еще более красивую картинку.

Демоверсия игры выполнена в качестве бенчмарка, она же для тестов и использовалась.

Все тени на максимуме. Поскольку данная игра тяжелее предыдущей, то в тест добавлено уже более низкое разрешение 1024×768.

Сглаживание не включалось. Первое что бросается в глаза, то что GeForce 8800GTS со скрежетом может обеспечить приемлемую производительность только в разрешении 1024×768.

А вот его соперник снова на высоте, показывая стабильное преимущество в 15-20%. Но даже он не может обеспечить комфортной частоты кадров в высоких разрешениях. В целом производительность данных карт в этой игре расстраивает.

Актуальное игровое разрешение 1280×1024, стандартное для большинства современных мониторов, оказалось довольно тяжелой задачей для этих видеокарт. Средний fps в 23 или 26 кадров ведь не постоянен, возможны просадки и до 15 кадров.

Чтобы получить комфортную производительность придется уменьшать настройки, а значит терять часть тех визуальных эффектов, которые мы получаем в DirectX 10, ради которого карты эти и покупаются.

Популярная стратегия с отличной графикой и физикой.

Использование DirectX 10 добавляет в игру реалистичные световые эффекты и улучшенные спецэффекты. Все графические настройки в значении High, но сглаживание, которое автоматически задействуется, отключено.

Также повторно тесты проводились с активацией сглаживания. Поскольку его включение не сильно сказалось на производительности, использовался режим АА4х.

В этой игре только разрешение 1600×1200 оказалось тяжеловато для обоих соперников.

GeForce 8800GT показывает преимущество до 25% без сглаживания, при его активации разрыв уменьшается до 3-10%. И хоть эта карта и смогла обеспечить 28 кадров в максимальном разрешении, но при особо ярких взрывах с множеством осколков частота кадров падала до 12, как и у соперника. Падение производительности при включении сглаживания значительно меньше чем в игре PT Boats.

Ну вот, наконец-то, мы добрались и до самой нашумевшей игры этой осени.

Именно этой игре суждено стать основным мерилом производительности видеокарт на ближайший год. Ведь кроме потрясающей картинки игра предъявляет не менее шокирующие требования к компьютеру.

Для тестов использовался доступный в игре бенчмарк. Тест прогонялся 5 раз для точности результатов и уменьшения погрешности.

Все настройки на максимуме.

Кстати эти значения доступны только из-под операционной системы Vista. И, соответственно, именно при их включении мы можем насладиться всеми прелестями шейдеров версии 4.0 и прочими графическими изысками нового DirectX 10. Но как видно, насладиться игрой нам не удастся.

Лишь в разрешении 1024×768 GeForce 8800GT смогла обеспечить почти приемлемый фреймрейт. Но только почти, поскольку просадки до 17-18 кадров имеют место и здесь.

А для такой динамичной игры это просто неприемлемо.

Результаты GeForce 8800GTS еще более печальны. Но обратите внимание на разрыв между картами – 50%! Довольно большая цифра, и это при том, что в предыдущих тестах она была на уровне 10-20%. В чем же дело?

А вероятно все в специфической оптимизации драйверов ForceWare 169.02 под новую видеокарту. Например, при движении камеры вдоль берега заметно как отражения гор в воде отстают от их реального положения в пространстве.

Когда положение горы уже изменилось, часть ее отражения еще отображается на старом месте, а другая часть уже прорисовывается под новыми координатами.

В результате получается странная дерганная рваная картинка.

И эта «дерганность», если присмотреться, присуща всем отражениям в воде. Создается впечатление, что часть отражения не прорисовываются полностью или пропускаются некоторые кадры.

Этот вопрос уже поднялся на некоторых форумах, так что в данном случае мы, вероятно, имеет дело с небольшим жульничеством со стороны NVIDIA, которая желала любой ценой хоть немного ускорить свои новые карты в этой игре.

По итогам тестирования можно смело сказать, что GeForce 8800GT 512Mb лучший вариант за свои деньги. При цене в $300 (на данный момент) видеокарта значительно обгоняет более дорогую GeForce 8800GTS 640MB, показывая производительность не хуже топовых видеоадаптеров.

Но не все так радужно, как бы нам хотелось.

Как и в каждой новинке, здесь простых потребителей ожидает масса подводных камней. Ведь неспроста NVIDIA выпустила столь производительный продукт, но значительно дешевле конкурентов.

Новый техпроцесс избавил от внешнего чипа NVIO, да и шина 256 бит упростила разводку платы. Сама архитектура ядра G92 не сильно изменилась, сочетая в себе мощь G80 и удачные нововведения, появившиеся в G84. И в конце концов, простая система охлаждения позволила сэкономить на себестоимости конечного продукта.

Что же мы имеем в итоге?

Очень быструю видеокарту с демократичной ценой в виду более низкой себестоимости. Это отлично, но вот на новую систему охлаждения придется сразу раскошелиться, если в вашем корпусе слабая вентиляция.

Это, пожалуй, главный минус данной видеокарты.

С горячим нравом G92 родная маленькая турбина справляется с трудом. Хотя за время тестов не было ни одного зависания или сбоя по причине перегрева.

Ну а если вы планируете разгон GeForce 8800GT, то замена кулера обязательна. Также возможны некоторые трудности с обратной совместимостью PCI Express 2.0 на материнских платах, поддерживающих PCI Express первых версий, хотя явление это очень редкое и возможно решится с обновлением BIOS соответствующих моделей своими производителями.

Да и дефицит GeForce 8800GT на рынке немного огорчает.

Несмотря на некоторые мелкие недостатки, NVIDIA выпустила удачную модель. И на данный момент альтернатив данной карте при ее цене просто нет. Что ж, теперь дело за AMD. Сможет ли канадская компания достойно ответить на выпуск такой видеокарты?

Это мы попытаемся выяснить, как только новые видеокарты AMD будут доступны на нашем рынке. Смотря на результаты тестирования можно заметить, что насколько бы не совершенствовали графические гиганты свои видеоадаптеры, с некоторыми современными играми в DirectX 10 они справляются с трудом.

А ситуация с Crysis просто удручающа.

Чтобы увидеть прелести игры пользователям придется обзавестись SLI или CrossFire-системами на базе самых дорогих видеокарт, что по карману лишь немногим. Противоречивая ситуация сложилась — уже есть игры с отличной графикой нового поколения, но достойных аппаратных решений, которые могли бы это все «вытянуть», еще нет.

Комментарии запрещены.

Поиск