Вылеты в играх на видеокартах Nvidia GeForce RTX 3080

СЕО NVIDIA Дженсен Хуанг показал первую троицу карт на графической архитектуре Ampere: GeForce RTX 3070, RTX 3080 и RTX 3090. Именно в таком порядке крутости, от самой простой до самой мощной.

Характеристики видеокарты NVIDIA Quadro RTX Mobile

Характеристики GPU:
Модель: NVIDIA Quadro RTX 3000 Mobile
Серия: Quadro RTX
Модель GPU: TU106
Архитектура: Turing
Техпроцесс: 12 nm
Ядер CUDA: 2304
Тензорных ядер: 240
Ядер RT: 30
Текстурных блоков (TMUs): 144
Базовая тактовая частота: 945 MHz
Тактовая частота с ускорением (Boost): 1380 MHz (+435 MHz)
Количество транзисторов: 10.8 миллиона
Характеристики памяти:
Объем памяти: 6 Gb
Тип памяти: GDDR6
Шина памяти: 256-bit
Быстродействие памяти: 14000 Мбит/с (14 Гбит/с)
Тактовая частота памяти: 1750 MHz
Пропускная способность: 448.0 Gbps
Скорость заполнения текстур: 198.7 GTexel/s
Тепловые характеристики:
Потребление энергии (TDP): 80 Вт
Дополнительные разъемы питания: Нет

Достаточно ли PCIe для максимально эффективного использования RTX 3090?

«На производительность системы влияет множество факторов, и их влияние зависит от приложения. Это влияние составляет лишь небольшой процент при переходе от PCIe 4.0 x16 к PCIe 3.0 x16, и на самом деле выбор процессора часто будет иметь большее влияние на производительность, чем использование любого поколения интерфейса PCI-Express. Мы с нетерпением ждем появления новых платформ, которые смогут в полной мере использовать возможности Gen4 для потенциального увеличения производительности. «

Представитель NVIDIA подтверждает эти заявления, что эффективное использование интерфейса PCI-Express 3.0 x16 с RTX 3090 повлияет на его производительность, хотя он приуменьшает важность, говоря, что мы потеряем лишь небольшой процент. производительности. и что гораздо важнее будет иметь мощный процессор, соответствующий мощности графики, чем этот.

В то время мы видели сравнение PCIe 3.0 и PCIe 4.0 в играх, в результате чего VRAM видеокарты имело большое значение в этом; игры становятся все более RAMCaché из-за невозможности найти достаточно места в графике Оперативная память, загружая больший объем текстурной информации в системную RAM.

Достаточно ли PCIe для максимально эффективного использования RTX 3090?

Однако, учитывая, что этот NVIDIA RTX 3090 включает в себя не менее 24 ГБ памяти GDDR6X с 384-битной шиной маловероятно, что какая-либо игра окажется в таком положении, что у нее недостаточно видеопамяти для хранения текстур и что ей нужно использовать RAMCaché, поэтому кажется, что, по крайней мере, как теория Похоже, представитель NVIDIA абсолютно прав в своих утверждениях.

Суть в том, что да, у вас будет узкое место если вы используете GeForce RTX 3090 с платформой PCI-Express 3.0 x16, но влияние будет довольно низким, особенно по сравнению с узким местом и потерей производительности, которые могут возникнуть при использовании процессор недостаточно мощный.

Чем RTX отличается от предыдущих моделей?

Архитектура. Новая модель выполнена на базе Ampere — архитектуры NVIDIA RTX второго поколения с улучшенными ядрами RT и тензорными ядрами, новыми потоковыми мультипроцессорами и высокоскоростной памятью G6X.

Дизайн. У новой модели необычная конструкция кулера с двумя осевыми вентиляторами и сквозным продувом — NVIDIA заявляет, что такая конструкция обеспечивает оптимальное охлаждение и меньше шумит.

Ускорение за счет DLSS третьего поколения. NVIDIA DLSS — это новая технология сглаживания с алгоритмами нейросетей глубокого обучения. DLSS повышает FPS и одновременно улучшает качество картинки в играх. Особенно эффективно новая технология показывает себя в трассировке лучей и высоком разрешении.

Технология NVIDIA Reflex. Она обеспечивает минимальную задержку рендеринга с видеокартами GeForce RTX 30 и игровыми мониторами NVIDIA G-SYNC.

Улучшенная производительность в работе с графикой за счет NVIDIA Studio. Нейросети глубокого обучения анализируют и ускоряют работу с графическим контентом, рендерингом сложных 3D-сцен, редактированием видео в 8K и стримингом в высоком качестве.

Технология NVIDIA Broadcast для стриминга. Устраняет падения FPS, улучшает качество аудио и видео, добавляет виртуальный фон и устраняет шумы микрофона.

Высокая производительность в VR.

Как работает EXP GDC?

EXP GDC — активный переходник (eGPU) со стандартного для настольных видеокарт разъема PCI-Express 16x на одну из вариаций miniPCI-Express. Он необходим для того, чтобы ноутбук мог использовать внешнюю полноразмерную видеокарту вместо или вместе с интегрированной в процессор. Поддерживается два способа работы:

Как работает EXP GDC?
  • вывод с дискретной внешней графики на экран лэптопа,
  • вывод с внешней карты на внешний монитор или мониторы (через выходы карты).

Не смотря на совместимость разъемов, просто перекинуть провода с видеокарты на мини-разъем не получится, требуется конвертация. Для этого и требуется питание, необходимость которого скрывает слово «активный». Система представляет собой конструктор: на ней есть базовые входы-выходы: порт для подключения кабеля к компьютеру, USB 2.0, гнезда питания для видеокарты и дока.

Как работает EXP GDC?

Для подключения ПК в продаже есть следующие варианты кабелей:

  • miniPCI-E 1x;
Как работает EXP GDC?
  • M.2 (SATA/miniPCIe);
  • ExpressCard;
  • NGFF;
  • переходник с ExpressCard на Thunderbolt 2.

Один из этих разъемов обязательно есть у ноутбука. В частности, miniPCI-E и M.2 используются для подключения Wi-Fi модуля ноутбука и для дополнительных жестких дисков. Многие лэптопы обладают дополнительным слотом для подключения устройств расширения (например, 4G-модема). Интерфейс ExpressCard, пришедший на смену давно устаревшему PCMCIA, представляет собой MiniPCI-E, из которого убраны линии подключения светодиодов и SIM-карты. С его помощью EXP GDC через соответствующий переходник можно подключить к разъему Thunderbolt.

Как работает EXP GDC?

Впрочем, у MacBook есть miniPCI-E или его вариант M.2 (а вот у миниатюрных настольных «маков»).

Причины возникновения проблемы

Точная причина возникновения данной проблемы пока что неизвестна. По некоторым заявлениям это связано с тем, что Samsung еще не до конца оптимизировала производство графических чипов, в связи с чем они получаются достаточно среднего качества. Другими словами, сбои могут происходить из-за того, что некоторые разогнанные видеокарты RTX 3080 включают в себя графические процессоры, которые просто не могут стабильно работать на столь высоких частотах. Их лучше использовать в более дешевых, не разогнанных моделях, которые соответствуют эталонным характеристикам, но из-за недостатка времени не было проведено подробное тестирование чипов.

В свою очередь, другие считают, что всему виной служат драйвера, и данная проблема решится с выходом новой версии драйверов. Но большинство сходится во мнении, что источником проблемы являются, используемые в видеокартах от сторонних вендоров, конденсаторы.

Причины возникновения проблемы

Дело в том, что NVIDIA оставила выбор конденсаторов за самими вендорами и никак их в этом не ограничивала. Базовая конструкция платы включает в себя шесть обязательных конденсаторов для фильтрации высоких частот на шинах напряжения (NVVDD и MSVDD). Здесь есть несколько вариантов установки конденсаторов с различными уровнями мощности:

  • POSCAP – производства Panasonic, проводящие полимерно-танталовые твердотельные конденсаторы
  • SP-CAP — производства Panasonic, проводящие полимерно-алюминиевые электролитические конденсаторы
  • MLCC — многослойные керамические конденсаторы, которые должны развертываться группами

По некоторым предположениям, если в видеокарте установлены одни лишь конденсаторы POSCAP или SP-CAP это может приводить к сбоям в ее работе, которые как раз-таки выражаются в частых вылетах из приложений.

Причины возникновения проблемы

В связи с этим все чаще стали появляться сообщения о том, что использование большого количества MLCC конденсаторов – это верный способ повышения стабильности работы видеокарты, но по заявлению самой NVIDIA, это также не является показателем лучшего качества продукта.

Большинство доступных на данный момент вариантов GeForce RTX 3080 используют конденсаторы MLCC в той или иной форме, и некоторые люди наблюдают сбои даже с этими картами. Похоже, что общая подача энергии для этих энергоемких графических процессоров Ampere гораздо сложнее, чем у предыдущих поколений, а конденсаторы — лишь одна часть этой системы.

На изображениях ниже вы можете увидеть, какую схему компоновки конденсаторов использует сама NVIDIA, а какую ее партнеры, в виде решений от MSI, ZOTAC и ASUS. Большие черные квадраты это POSCAP или SP-CAP, а блок, состоящий из белых точек это MLCC.

Причины возникновения проблемы
  • MSI Gaming X
  • ZOTAC Trinity
  • ASUS TUF Gaming OC
  • NVIDIA Founders’ Edition

NVIDIA в своих конфигурациях Founders Edition использует гибридное размещение конденсаторов: 4 SP-CAP и 2 блока MLCC по 10 отдельных конденсаторов в каждом. MSI использует один блок MLCC в центре и 5 конденсаторов SP-CAP. ZOTAC пошла самым дешевым путем, использовав шесть POSCAP (что скорее всего и послужило причиной вылетов в играх). Тем временем ASUS использует исключительно конденсаторы MLCC.

Причины возникновения проблемы

ТОП-лучших видеокарт Nvidia по цене/качеству на 2020-год

MSI GeForce GTX 1660 Ventus XS 6G OC

Серебристо-черная видеокарта родом из Америки, которая позволяет наслаждаться современными играми без оглядки на технические требования и характеристики.

Способна запустить все имеющиеся на данный момент игровые проекты, поддерживает одновременно четыре монитора, оснащена двумя вентиляторами, которые даже в глухом корпусе не раскаляются до красноты.

Вывод графики происходит в разрешении Ultra-HD, что в четыре раза превосходит привычный многим Full-HD.

За счет этого изображение получается четким и детализированным, плавным, без артефактов.

Производители озаботились повышенной контрастностью и большим объемом цветовой палитры, поэтому динамический диапазон HDR стал шире, чем у аналогичных моделей других производителей.

Основные характеристики:

  1. Объем видеопамяти — 6144 МБ.
  2. Тип видеопамяти — GDDR5.
  3. Частота ядра/памяти Nvidia GeForce — 1830 МГц/8000 МГц.
  4. Количество мониторов — 4.
ТОП-лучших видеокарт Nvidia по цене/качеству на 2020-год

Плюсывысокая производительность;плавность изображения;отсутствие артефактов;эффективное и тихое охлаждение даже под возможности для разгона.

ASUS TUF Gaming GeForce GTX 1650 OC 4 GB (TUF-GTX1650-O4GD6-P-GAMING)

Это высокопроизводительная и надежная модель, которая прекрасно функционирует в сочетании с устройствами линейки TUF. В основании у нее усилительная пластина из прочного материала, благодаря которой удастся избежать изгиба материнки.

Из дополнительного оснащения используются вентиляторы с пыленепроницаемым покрытием, что позволяет избежать процедуры регулярной чистки и неконтролируемого нагрева.

А с помощью фирменной утилиты пользователь сможет контролировать работу карты и полноценно использовать заложенный производителем потенциал.

Основные характеристики:

  1. Объем видеопамяти — 4096 МБ.
  2. Тип видеопамяти — GDDR6.
  3. Частота ядра/памяти Nvidia GeForce — 1410 МГц/12000 МГц.
  4. Поддерживаемые мониторы — 3.

Плюсыклассическое исполнение;не боится пыли;тянет три монитора за раз;совместима со многими обнаружено.

GIGABYTE GeForce GTX 1660 SUPER OC 6G (GV-N166SOC-6GD)

Угольно-черная видеокарта с двумя вентиляторами, за счет которых обеспечивается эффективное охлаждение. Тепловые трубки выполнены из композита, есть медная вставка, которая соприкасается с главным процессором и рассеивает тепло, образующееся под нагрузкой.

Поддерживает одновременно четыре монитора, работает от блока питания мощностью в 450 Вт.

При установке в корпусе занимает два слота. Показывает высокие результаты при обычной работе и при проведении тестов, но для майнинга не подходит.

Современные игровые проекты проигрывает в 60FPS при разрешении FULL HD.

Артефактов при воспроизведении не обнаружено, изображение плавное, с хорошей детализацией. Карта рассчитана на длительный срок эксплуатации и даже через год под нагрузкой не нагревается выше 70 градусов.

Основные характеристики:

  1. Объем видеопамяти — 6144 МБ.
  2. Тип видеопамяти — GDDR6.
  3. Частота ядра/памяти Nvidia GeForce — 1830 МГц/14000 МГц.
  4. Поддерживаемые мониторы — 4.

Плюсыдля четырех мониторов одновременно;эффективная система охлаждения;есть место для небольшого разгона;плавность переключении пассивного охлаждения на активное начинает шуметь, после затихает.

MSI GeForce GTX 1650 Gaming X 4G

ТОП-лучших видеокарт Nvidia по цене/качеству на 2020-год

Модель выпускается в рамках культовой серии Gaming, в дизайне используются угольно-черный цвет с добавлением серого.

Кулер с двумя вентиляторами, благодаря ему карта остается холодной при простое, а под нагрузкой нагрев незначительный. Шума при использовании всей мощности устройства не замечено.

В основании видеокарты есть печатная плата с максимально оптимизированным размещением соединений, что позволяет проводить обмен данными мгновенно.

Производитель добавил в комплектацию необходимое программное обеспечение, чтобы пользователь мог использовать все возможности устройства и настроить изображение, которое будет соответствовать техническим характеристикам его оборудования.

Присутствует место для небольшого разгона частот, позволяющее персонализировать параметры настройки.

Основные характеристики:

  1. Объем видеопамяти — 4096 МБ.
  2. Тип видеопамяти — GDDR5.
  3. Частота ядра/памяти Nvidia GeForce — 1860 МГц/8000 МГц.
  4. Поддерживаемые мониторы — 3.

Плюсыхороший баланс цены по отношению к мощности и нагреву;простая установка и настройка;тихая;потребляет мало мониторов с цифровым входом.

Так что же лучше: интегрированная или дискретная видеокарта?

Ответ зависит от того, какие задачи должен решать ваш ноутбук. Если вы планируете работать на нём с текстом и таблицами, сёрфить в сети, показывать презентации и раскладывать «Косынку» — вам с головой хватит интегрированной графики. Для всего остального нужна дискретная видеокарта.

Лучший вариант — переключаемое видео, которым оснащают большинство современных ноутбуков. В таком варианте с простыми задачами тихонько, без шума и пыли справляется интегрированный видеочип, а в сложные моменты ему на помощь приходит старший брат — дискретный видеоадаптер.

Существует ещё такой вариант, как внешние видеокарты для ноутбуков, но они до сих пор довольно дорогие и редкие, да и не слишком удобные.

Читайте также:  Samsung Galaxy Tab 5: планшет, которого нет. Или снова про Китай