NVIDIA GeForce GTX 660 2048 MB 192-битной GDDR5 (993-1053/6000 МГц) PCI-E


Этот чип представляет Zotac GeForce GTX 660 2048 MB 192-битной GDDR5 (993-1053/6000 МГц) PCI-E.


Краткие характеристики:

  • GPU: GeForce GTX 660 (GK106)
  • Интерфейс: PCI Express x16
  • Частота работы GPU (ROPs): 993—1075 МГц (номинал — 980—1033 МГц)
  • Частота работы памяти (физическая (эффективная)): 1500 (6000) МГц (номинал — 1500 (6000) МГц)
  • Ширина шины обмена с памятью: 192 бит
  • Число вычислительных блоков в GPU/частота работы блоков: 5/993—1075 МГц (номинал — 7/980—1033 МГц)
  • Число операций (ALU) в блоке: 192
  • Суммарное число операций (ALU): 960
  • Число блоков текстурирования: 80 (BLF/TLF/ANIS)
  • Число блоков растеризации (ROP): 24
  • Размеры: 180×100×36 мм (последняя величина — максимальная толщина видеокарты)
  • Цвет текстолита: черный
  • Энергопотребление (пиковое в 3D/в режиме 2D/в режиме «сна»): 141/48/25 Вт
  • Выходные гнезда: 1×DVI (Dual-Link/HDMI), 1×DVI (Single-Link/VGA), 1×HDMI 1.4a, 1×DisplayPort 1.2
  • Поддержка многопроцессорной работы: SLI (Hardware)

      Карта имеет 2048 МБ памяти GDDR5 SDRAM, размещенной в 8 микросхемах (по 4 на каждой стороне PCB).

      Микросхемы памяти Samsung (GDDR5). Микросхемы рассчитаны на максимальную частоту работы в 1500 (6000) МГц.

      Средняя текущая цена (количество предложений) в московской рознице:
      GTX 660 — $200(12)


      В разделе по GTX 660 Ti мы уже обсуждали, как получить ускоритель со 192-битной шиной, но при этом оснащенный объемом памяти в 2 ГБ. Ведь такой объем обычно набирается 8 микросхемами по 2 Гбит каждая, и они суммарно образуют 256-битную шину (8×32 бит). Чтобы получить 192-битную, надо комплектовать карту не 8, а 6 микросхемами, однако тогда объем памяти получится 1,5 ГБ. Можно было бы пойти по тому же пути, что с GTX 550 Ti: поставить 4 микросхемы по 1 Гбит и 2 микросхемы по 2 Гбит каждая — тогда суммарно получили 1 ГБ и 192-битную шину. Благо контроллер памяти у чипов NVIDIA умеет работать с микросхемами разной емкости. Но тогда речь шла о суммарном объеме в 1 ГБ. А 2 ГБ с помощью 6 микросхем уже не набрать. Придется ставить 12 с разной емкостью. В данном случае производители пошли по иному пути: установили не 12 микросхем разной емкости, а 8 одной емкости в 2 Гбит. Но при этом два 64-битных контроллера из трех работают как обычно — каждый с двумя микросхемами по 32-битной шине, а третий работает с четырьмя микросхемами, используя у каждой 16-битную ширину тактового слова, если можно так выразиться (4×16 = 64 бит). Этот вариант с точки зрения себестоимости более предпочителен, потому что на карту монтируется меньше микросхем памяти (8, а не 12).

      Как мы видим, отличия между GTX 660 и GTX 660 Ti весьма существенные. Дело в том, что GTX 660 Ti выпускается на базе старшего GK104, имеющего четыре 64-битных контроллера памяти и расчитанного на 256-битную шину обмена с памятью. И когда пришла пора делать из него младшее решение, то пришлось искать варианты по урезанию шины (о чем выше уже говорилось). И был найден свой вариант, позволяющий при надобности увеличить объем памяти до 3 гигабайта. А у GTX 660 уже имеется своя PCB, которая предусматривает максимальный объем памяти в 2 гигабайта, а также можно получить 1,5 гигабайта при условии сохранения той же 192-битной шины памяти (просто не установить те самые 2 микросхемы памяти, которые используются не по полной ширине своих шин). Это может как-то удешевить выпуск такого рода GTX 660.

      Инженеры Zotac старались сохранить пропорции и размеры 660 Ti на новом продукте, и карта получилась компактной. Схема питания имеет 4 фазы.

      Видеокарта имеет стандартный для GTX 670/680 набор гнезд вывода: 2 DVI (один из которых Single-Link и совместим с выводом на VGA) и по одному DisplayPort и HDMI (второе гнездо DVI обладает возможностью через адаптер передавать сигнал на HDMI, поэтому суммарно можно подключить 2 приемника с HDMI). Напомним, что ускорители NVIDIA достаточно давно обладают собственными звуковыми кодеками, поэтому передача на HDMI-монитор будет полноценной, со звуком.

      Максимальные разрешения и частоты:

      • 240 Гц — максимальная частота обновления
      • 2048×1536@85 Гц — по аналоговому интерфейсу
      • 2560×1600@60 Гц — по цифровому интерфейсу (для DVI-гнезд с Dual-Link/HDMI)

      Что касается возможностей по ускорению декодирования видео — в 2007 году мы проводили такое исследование, с ним можно ознакомиться здесь.

      Карта требует дополнительного питания, причем двумя 6-контактными разъемами.

      Более подробно о GeForce GTX Series можно почитать в наших материалах: Теоретико-аналитические материалы и обзоры видеокарт на базе GPU NVIDIA

      На 20 августа 2013 года новые версии драйверов NVIDIA — 326.80 for Windows 7

      На форуме iXBT.com в разделе Видеосистема можно получить и более подробную информацию о том, с какими проблемами встречаются пользователи той или иной версии драйверов от NVIDIA.



      Благодарим компанию Zotac
      и лично Ивана Плотникова
      за предоставленную для тестирования видеокарту










Дополнительно

NVIDIA GeForce GTX 660 2048 MB 192-битной GDDR5 (993-1053/6000 МГц) PCI-E


NVIDIA GeForce GTX 660 2048 MB 192-битной GDDR5 (993-1053/6000 МГц) PCI-E

Этот чип представляет Zotac GeForce GTX 660 2048 MB 192-битной GDDR5 (993-1053/6000 МГц) PCI-E.


Краткие характеристики:

  • GPU: GeForce GTX 660 (GK106)
  • Интерфейс: PCI Express x16
  • Частота работы GPU (ROPs): 993—1075 МГц (номинал — 980—1033 МГц)
  • Частота работы памяти (физическая (эффективная)): 1500 (6000) МГц (номинал — 1500 (6000) МГц)
  • Ширина шины обмена с памятью: 192 бит
  • Число вычислительных блоков в GPU/частота работы блоков: 5/993—1075 МГц (номинал — 7/980—1033 МГц)
  • Число операций (ALU) в блоке: 192
  • Суммарное число операций (ALU): 960
  • Число блоков текстурирования: 80 (BLF/TLF/ANIS)
  • Число блоков растеризации (ROP): 24
  • Размеры: 180×100×36 мм (последняя величина — максимальная толщина видеокарты)
  • Цвет текстолита: черный
  • Энергопотребление (пиковое в 3D/в режиме 2D/в режиме «сна»): 141/48/25 Вт
  • Выходные гнезда: 1×DVI (Dual-Link/HDMI), 1×DVI (Single-Link/VGA), 1×HDMI 1.4a, 1×DisplayPort 1.2
  • Поддержка многопроцессорной работы: SLI (Hardware)

      Карта имеет 2048 МБ памяти GDDR5 SDRAM, размещенной в 8 микросхемах (по 4 на каждой стороне PCB).

      Микросхемы памяти Samsung (GDDR5). Микросхемы рассчитаны на максимальную частоту работы в 1500 (6000) МГц.

      Средняя текущая цена (количество предложений) в московской рознице:
      GTX 660 —


      В разделе по GTX 660 Ti мы уже обсуждали, как получить ускоритель со 192-битной шиной, но при этом оснащенный объемом памяти в 2 ГБ. Ведь такой объем обычно набирается 8 микросхемами по 2 Гбит каждая, и они суммарно образуют 256-битную шину (8×32 бит). Чтобы получить 192-битную, надо комплектовать карту не 8, а 6 микросхемами, однако тогда объем памяти получится 1,5 ГБ. Можно было бы пойти по тому же пути, что с GTX 550 Ti: поставить 4 микросхемы по 1 Гбит и 2 микросхемы по 2 Гбит каждая — тогда суммарно получили 1 ГБ и 192-битную шину. Благо контроллер памяти у чипов NVIDIA умеет работать с микросхемами разной емкости. Но тогда речь шла о суммарном объеме в 1 ГБ. А 2 ГБ с помощью 6 микросхем уже не набрать. Придется ставить 12 с разной емкостью. В данном случае производители пошли по иному пути: установили не 12 микросхем разной емкости, а 8 одной емкости в 2 Гбит. Но при этом два 64-битных контроллера из трех работают как обычно — каждый с двумя микросхемами по 32-битной шине, а третий работает с четырьмя микросхемами, используя у каждой 16-битную ширину тактового слова, если можно так выразиться (4×16 = 64 бит). Этот вариант с точки зрения себестоимости более предпочителен, потому что на карту монтируется меньше микросхем памяти (8, а не 12).

      Как мы видим, отличия между GTX 660 и GTX 660 Ti весьма существенные. Дело в том, что GTX 660 Ti выпускается на базе старшего GK104, имеющего четыре 64-битных контроллера памяти и расчитанного на 256-битную шину обмена с памятью. И когда пришла пора делать из него младшее решение, то пришлось искать варианты по урезанию шины (о чем выше уже говорилось). И был найден свой вариант, позволяющий при надобности увеличить объем памяти до 3 гигабайта. А у GTX 660 уже имеется своя PCB, которая предусматривает максимальный объем памяти в 2 гигабайта, а также можно получить 1,5 гигабайта при условии сохранения той же 192-битной шины памяти (просто не установить те самые 2 микросхемы памяти, которые используются не по полной ширине своих шин). Это может как-то удешевить выпуск такого рода GTX 660.

      Инженеры Zotac старались сохранить пропорции и размеры 660 Ti на новом продукте, и карта получилась компактной. Схема питания имеет 4 фазы.

      Видеокарта имеет стандартный для GTX 670/680 набор гнезд вывода: 2 DVI (один из которых Single-Link и совместим с выводом на VGA) и по одному DisplayPort и HDMI (второе гнездо DVI обладает возможностью через адаптер передавать сигнал на HDMI, поэтому суммарно можно подключить 2 приемника с HDMI). Напомним, что ускорители NVIDIA достаточно давно обладают собственными звуковыми кодеками, поэтому передача на HDMI-монитор будет полноценной, со звуком.

      Максимальные разрешения и частоты:

      • 240 Гц — максимальная частота обновления
      • 2048×1536@85 Гц — по аналоговому интерфейсу
      • 2560×1600@60 Гц — по цифровому интерфейсу (для DVI-гнезд с Dual-Link/HDMI)

      Что касается возможностей по ускорению декодирования видео — в 2007 году мы проводили такое исследование, с ним можно ознакомиться здесь.

      Карта требует дополнительного питания, причем двумя 6-контактными разъемами.

      Более подробно о GeForce GTX Series можно почитать в наших материалах: Теоретико-аналитические материалы и обзоры видеокарт на базе GPU NVIDIA

      На 20 августа 2013 года новые версии драйверов NVIDIA — 326.80 for Windows 7

      На форуме iXBT.com в разделе Видеосистема можно получить и более подробную информацию о том, с какими проблемами встречаются пользователи той или иной версии драйверов от NVIDIA.



      Благодарим компанию Zotac
      и лично Ивана Плотникова
      за предоставленную для тестирования видеокарту