видеопамять и оперативная память в чем разница

Чем отличаются поколения видеопамяти

видеопамять и оперативная память в чем разница. Смотреть фото видеопамять и оперативная память в чем разница. Смотреть картинку видеопамять и оперативная память в чем разница. Картинка про видеопамять и оперативная память в чем разница. Фото видеопамять и оперативная память в чем разница

видеопамять и оперативная память в чем разница. Смотреть фото видеопамять и оперативная память в чем разница. Смотреть картинку видеопамять и оперативная память в чем разница. Картинка про видеопамять и оперативная память в чем разница. Фото видеопамять и оперативная память в чем разница

Содержание

Содержание

Память, будь то оперативная память или видеопамять, является неотъемлемой частью современного компьютера. Сегодня вкратце узнаем, как все начиналось, как работает, почему диагностические программы показывают неверные частоты, в чем измеряется производительность памяти, как рассчитывается пропускная способность памяти и почему «МГц» для памяти — некорректное выражение.

До 2000-ых годов использовалась оперативная память стандарта SDR.

Потом ей на смену пришел новый стандарт памяти — DDR, который имел удвоенную пропускную способность памяти за счет передачи данных как по восходящим, так и по нисходящим фронтам тактового сигнала. Первоначально память такого типа, как и SDR, применялась в видеоплатах, но позднее появилась поддержка со стороны чипсетов.

DDR (Double Data Rate) расшифровывается как «удвоенная скорость передачи данных».

Таким образом, за один такт передается вдвое больше информации. Увеличилось количество передаваемой информации, реальная частота памяти осталась неизменной. Вместе с этим появилось такие понятия как эффективная частота, которая стала в два раза больше реальной.

видеопамять и оперативная память в чем разница. Смотреть фото видеопамять и оперативная память в чем разница. Смотреть картинку видеопамять и оперативная память в чем разница. Картинка про видеопамять и оперативная память в чем разница. Фото видеопамять и оперативная память в чем разница

Именно с приходом стандарта DDR появилась путаница с реальной и эффективной частотой работы памяти.

Реальная частота — частота шины модуля памяти. Эффективная частота — удвоенная частота шины модуля.

видеопамять и оперативная память в чем разница. Смотреть фото видеопамять и оперативная память в чем разница. Смотреть картинку видеопамять и оперативная память в чем разница. Картинка про видеопамять и оперативная память в чем разница. Фото видеопамять и оперативная память в чем разница

Как можно видеть, реальная частота памяти составляет 1900 МГц, в то время как эффективная в 2 раза больше — 3800 МГц, потому что за один такт теперь поступает вдвое больше данных.

Для того чтобы информация передавалась с удвоенной скоростью, она должна поступать из массива памяти вдвое быстрее. Реализовали это с помощью удвоения внутренней ширины модуля памяти. Благодаря чему за одну команду чтения мы стали получать сразу 2n единицы данных. Для стандарта DDR n = 1. Такая архитектура была названа n-prefetch (предвыборка). У памяти стандарта DDR, одной командой, при чтении, передается от ядра к буферу ввода-вывода две единицы данных.

видеопамять и оперативная память в чем разница. Смотреть фото видеопамять и оперативная память в чем разница. Смотреть картинку видеопамять и оперативная память в чем разница. Картинка про видеопамять и оперативная память в чем разница. Фото видеопамять и оперативная память в чем разница

Вместе с ростом производительности уменьшилось рабочее напряжение с 3.3V у SDR до 2.5V у DDR. Это позволило снизить энергопотребление и температуру, что дало возможность повысить рабочие частоты. На самом деле, потребление и, как следствие, нагрев, — это одна из самых больших проблем оперативной памяти того времени. При полном чтении всего модуля объемом 2 Гбайта память потребляет до 25 Ватт.

Оперативная память стандарта DDR2 пришла на смену стандарту DDR в 2003 году, правда, поддерживающие ее чипсеты появились годом позже. Основное отличие DDR2 от DDR заключается в увеличенной вдвое частоте работы внутренней шины, по которой данные поступают в буфер «ввод-вывод». Передача на внутреннюю шину теперь осуществляется по технологии (4n-Prefetch), одной командой из массива памяти к буферу поступает 4 единицы данных.

видеопамять и оперативная память в чем разница. Смотреть фото видеопамять и оперативная память в чем разница. Смотреть картинку видеопамять и оперативная память в чем разница. Картинка про видеопамять и оперативная память в чем разница. Фото видеопамять и оперативная память в чем разница

Таким способом удалось поднять пропускную способность в два раза, не увеличивая частоту работы чипов памяти. Это выгодно с точки зрения энергоэффективности, да и количество годных чипов, способных работать на меньшей частоте, всегда больше. Однако у данного способа увеличения производительности есть и минусы: при одинаковой частоте работы DDR2 и DDR временные задержки у DDR2 будут значительно выше, компенсировать которые можно только на более высоких частотах работы.

Рабочее напряжение понизилось почти на 30% до 1.8V.

На основе стандарта DDR для видеокарт в 2000 году был разработан новый стандарт памяти GDDR.

Технически GDDR и DDR похожи, только GDDR разработан для видеокарт и предназначен для передачи очень больших объемов данных.

GDDR (Graphics Double Data Rate) расшифровывается как двойная скорость передачи графических данных.

Несмотря на то, что они используются в разных устройствах, принципы работы и технологии для них очень похожи.

Главным отличием GDDR от DDR является более высокая пропускная способность, а также другие требования к рабочему напряжению.

Разработкой стандарта видеопамяти GDDR2 занималась компания NVIDIA. Впервые она была опробована на видеокарте GeForce FX 5800 Ultra.

видеопамять и оперативная память в чем разница. Смотреть фото видеопамять и оперативная память в чем разница. Смотреть картинку видеопамять и оперативная память в чем разница. Картинка про видеопамять и оперативная память в чем разница. Фото видеопамять и оперативная память в чем разница

GDDR2 это что-то среднее между DDR и DDR2. Память GDDR2 работает при напряжении 2.5V, как и DDR, однако обладает более высокими частотами, что вызывает достаточно сильный нагрев. Это и стало настоящей проблемой GDDR2. Долго данный стандарт на рынке не задержался.

Буквально чуть позже компания ATI представила GDDR3, в которой использовались все наработки DDR2. В GDDR3, как и DDR2, реализована технология 4n-Prefetch при операции записи данных. Память работала при напряжении 2V, что позволило решить проблему перегрева, и обладала примерно на 50% большей пропускной способностью, чем GDDR2. Несмотря на то, что разработкой стандарта занималась ATI, впервые его применила NVIDIA на обновленной видеокарте GeForce FX 5700 Ultra. Это дало возможность уменьшить общее энергопотребление видеокарты примерно на 15% по сравнению с GeForce FX 5700 Ultra с использованием памяти GDDR2.

Современные типы видеопамяти

На сегодняшний день наиболее распространенными типами видеопамяти являются GDDR5 и GDDR6, однако до сих пор в бюджетных решениях можно встретить память типа GDDR3-GDDR4 и даже DDR3.

GDDR3

GDDR4

Стандарт GDDR5 появился в 2008 году и пришел на смену стандарту GDDR4, который просуществовал совсем недолго, так и не получив широкое распространение вследствие не лучшего соотношения цена/производительность.

GDDR5 спроектирована с использованием наработок памяти DDR3, в ней используется 8-битовый Prefetch. Учитывая архитектурные особенности (используются две тактовые частоты CK и WCK), эффективная частота теперь в четыре раза выше реальной, а не в два, как было раньше. Таким способом удалось повысить эффективную частоту до 8 ГГц, а вместе с ней и пропускную способность в два раза. Рабочее напряжение составило 1.5V.

GDDR5X — улучшенная версия GDDR5, которая обеспечивает на 50% большую скорость передачи данных. Это было достигнуто за счет использования более высокой предварительной выборки. В отличие от GDDR5, GDDR5X использует архитектуру 16n Prefetch.

GDDR5X способна функционировать на эффективной частоте до 11 ГГц. Данная память использовалась только для топовых решений NVIDIA 10 серии GTX1080 и GTX1080Ti.

видеопамять и оперативная память в чем разница. Смотреть фото видеопамять и оперативная память в чем разница. Смотреть картинку видеопамять и оперативная память в чем разница. Картинка про видеопамять и оперативная память в чем разница. Фото видеопамять и оперативная память в чем разница

Память стандарт GDDR6 появился в 2018 году. GDDR6, как и GDDR5X, имеет архитектуру 16n Prefetch, но она разделена на два канала. Хотя это не улучшает скорость передачи данных по сравнению GDDR5X, оно позволяет обеспечить большую универсальность.

Сейчас данная память активно используется обоими производителями видеокарт в новой линейке NVIDIA серий GeForce 20 и 16 (кроме некоторых решений: GTX 1660 и GTX 1650, так как в них используется память GDDR5). При покупке нужно внимательно изучить характеристики видеокарты, потому как разница в производительности от типа памяти в данном случаи достигает от 5 до 15%. В то время как разница в цене совершенно несущественна.

GDDR5

GDDR6

Также тип памяти GDDR6 активно используется компанией AMD в видеокартах RX 5000 серии.

На начальном этапе GDDR6 способна функционировать с эффективной частотой 14 ГГц. Это позволяет удвоить пропускную способность относительно GDDR5. В дальнейшем эффективная частота будет увеличена, как это происходило с другими типами памяти.

Источник

12 мифов о видеокартах, про которые пора забыть

видеопамять и оперативная память в чем разница. Смотреть фото видеопамять и оперативная память в чем разница. Смотреть картинку видеопамять и оперативная память в чем разница. Картинка про видеопамять и оперативная память в чем разница. Фото видеопамять и оперативная память в чем разница

В предыдущих статьях мы поговорили про мифы о процессорах, оперативной памяти и материнских платах, теперь же перейдем к видеокартам, которые уже давно стали обязательной частью любого компьютера.

Первый миф. Чем больше видеопамяти — тем быстрее видеокарта

видеопамять и оперативная память в чем разница. Смотреть фото видеопамять и оперативная память в чем разница. Смотреть картинку видеопамять и оперативная память в чем разница. Картинка про видеопамять и оперативная память в чем разница. Фото видеопамять и оперативная память в чем разница

Казалось бы, это логично — в более мощные видеокарты ставится больше памяти: так, GTX 1070 с 8 ГБ памяти быстрее, чем GTX 1060 с 6 ГБ, а GTX 1080 Ti с 11 ГБ быстрее GTX 1080 с 8 ГБ. Однако следует понимать, что видеопамять, конечно, важна, но зачастую различное ПО не использует всю имеющуюся у видеокарты память: так, в большинстве случаев GTX 1060 с 3 ГБ медленнее версии с 6 ГБ всего на 5-10%, и разница в основном идет из-за различного числа CUDA-ядер.

Но есть производители видеокарт, которые решили воспользоваться этим мифом в свою пользу: так, например, на рынке можно найти GT 740 с 4 ГБ GDDR5 памяти. Казалось бы — да у GTX 780 Ti, топовой видеокарты того поколения, всего 3 ГБ памяти — то есть GT 740, получается, лучше? Разумеется нет — на тех настройках графики, где используется столько памяти, эта видеокарта выдает слайд-шоу. Ну а если снизить уровень графики для повышения «играбельности», то окажется, что использовано от силы 1-2 ГБ памяти. Причем такие видеокарты встречаются и в текущих линейках — так, у AMD есть RX 550 с теми же 4 ГБ GDDR5 — с учетом того, что видеокарта выступает приблизительно на уровне GT 1030, очевидно, что использовать столько памяти она сможет в очень немногих задачах:

Так что не стоит судить о производительности видеокарты, опираясь только на объем видеопамяти.

Второй миф. Если видеокарте не хватит видеопамяти в игре, то обязательно будут фризы, вылеты и тому подобное

Опять же, это кажется логичным: если видеокарте памяти не хватило, взять ее больше неоткуда — значит, программы корректно работать не смогут. Однако на деле это, разумеется, не так — любая видеокарта имеет доступ к оперативной памяти, которой обычно куда больше, чем видеопамяти. Конечно, ОЗУ в разы медленнее, а время доступа к ней больше — это может вызвать проблемы с плавностью картинки, но только лишь в том случае, если собственной памяти видеокарте не хватает сильно: например, у нее 2-3 ГБ памяти, а игра требует 4-5 ГБ. Но если не хватает нескольких сотен мегабайт, то обычно это проблем не вызывает: GPU умеют динамически использовать доступные им ресурсы, и в ОЗУ они стараются хранить ту информацию, которая нужна редко или не требует мгновенного отклика.

Третий миф. От разгона видеокарты сгорают

При этом различные производители продают разогнанные с завода версии видеокарт. Разумеется, при разгоне видеокарта может повредиться — но только в том случае, если вы измените «физические» параметры, такие как напряжение. Изменение программных параметров, таких как частоты, никак на «железо» не влияет, так что максимум, что вы получите, это вылет видеодрайвера или BSOD от выставления слишком высокой частоты.

Четвертый миф. SLI/Crossfire увеличивают производительность и объем видеопамяти во столько раз, сколько видеокарт подключено

видеопамять и оперативная память в чем разница. Смотреть фото видеопамять и оперативная память в чем разница. Смотреть картинку видеопамять и оперативная память в чем разница. Картинка про видеопамять и оперативная память в чем разница. Фото видеопамять и оперативная память в чем разница

Насчет производительности это, скорее, не миф, а теоретический результат. Увы — на практике, хотя тому же SLI 20 лет, а Nvidia его использует больше 10 лет, в большинстве игр прирост или околонулевой, или вообще отрицательный. Лишь в единичных проектах можно получить прирост хотя бы 20-30% в сравнении с одной видеокартой, что, конечно, смешно, с учетом двукратного увеличения стоимости и серьезных требований к блоку питания. Что касается вычислительных задач, то тут все сложнее: так, профессиональный софт вполне может использовать несколько GPU эффективно, но это уже не домашнее применение.

Что касается видеопамяти, то тут все просто: при использовании DirectX 11 или ниже в видеопамять каждого используемого GPU записывается одинаковая информация, то есть у связки видеокарт будет по сути тот же объем памяти, что и у одиночной карты. А вот в API DirectX 12 есть возможность более эффективно использовать Split Frame Rendering, когда каждая видеокарта готовит свою часть кадра. В таком случае объемы видеопамяти суммируются — пусть и с оговорками.

Пятый миф. Профессиональные видеокарты лучше игровых

видеопамять и оперативная память в чем разница. Смотреть фото видеопамять и оперативная память в чем разница. Смотреть картинку видеопамять и оперативная память в чем разница. Картинка про видеопамять и оперативная память в чем разница. Фото видеопамять и оперативная память в чем разница

Миф идет от того, что профессиональные видеокарты (такие как Nvidia Quadro или AMD FirePro) стоят обычно сильно дороже пользовательских «игровых» видеокарт — а раз дороже, значит лучше. На практике вопрос только в том — в какой области лучше? С физической точки зрения большая часть профессиональных видеокарт имеют тот же GPU и тот же объем памяти, что и обычные игровые видеокарты, а разница идет только из-за других драйверов, которые больше заточены под профессиональное применение:

С учетом того, что эти драйвера под игры никто специально не адаптирует, то профессиональные видеокарты в играх зачастую будут несколько хуже аналогичных по производительности игровых GPU. С другой стороны, если мы будем сравнивать эти же видеокарты в различных CAD-ах или 3ds Max — перевес будет на стороне профессиональной графики, причем зачастую очень существенный. Так что ответ на миф таков: сравнивать эти видеокарты в лоб не имеет смысла, они «играют» и в разных ценовых сегментах, и в разных сценариях использования.

Шестой миф. Если видеокарта не раскрывается процессором — это плохо

видеопамять и оперативная память в чем разница. Смотреть фото видеопамять и оперативная память в чем разница. Смотреть картинку видеопамять и оперативная память в чем разница. Картинка про видеопамять и оперативная память в чем разница. Фото видеопамять и оперативная память в чем разница

Пожалуй, самый популярный миф, который гласит о том, что если видеокарта не занята на 100% — это плохо. С одной стороны, это кажется логичным: нагрузка ниже 100% означает, что видеокарта частично простаивает и вы недополучаете часть производительности. С другой стороны, многие забывают, что нагрузить GPU на 100% можно практически при любом процессоре. Как так? Очень просто: каждый процессор в каждой игре может подготовить для видеокарты лишь определенное количество кадров в секунду, и чем процессор мощнее — тем больше кадров он может подготовить. Соответственно, чтобы видеокарта была занята на 100%, она должна иметь возможность отрисовать меньше кадров в секунду, чем может дать ей процессор. Как это сделать? Да очень просто: поднять разрешение, поставить более высокие настройки графики, включить тяжелое сглаживание — и вуаля, GTX 1080 Ti в 5К на ультра-настройках графики «пыхтит», выдавая 15-20 кадров в секунду, а поставленный ей в пару двухядерный Intel Pentium едва ли нагружен на половину.

Легко можно получить и обратную ситуацию: взять ту же самую GTX 1080 Ti и запустить на ней игру в HD-разрешении с минимальными настройками графики — и тут даже Core i9-9900K не сможет подготовить для ней столько кадров в секунду, чтобы она была занята на 100%.

Так что тут можно сделать два вывода: во-первых, если видеокарта недогружена несильно, а итоговый fps вас устраивает — всегда можно еще немного увеличить настройки графики, чтобы получить 100% нагрузку на видеокарту с лучшей картинкой и при той же производительности. Во-вторых, собирайте сбалансированные сборки, дабы не было такого, что процессор занят на 100%, а fps в игре 20 кадров.

Седьмой миф. Чем уже шина памяти — тем ниже производительность видеокарты

Очень часто на различных форумах можно встретить посты типа «вот, 8 лет назад у GTX 480 шина памяти была 384 бита, а сейчас у GTX 1080 всего 256, Nvidia экономит». Опять кажется, что это логично — чем шире шина, тем больше данных по ней можно «гонять». Но тут следует помнить две вещи: во-первых, не шиной единой: частоты памяти с того времени выросли в разы, во-вторых — производители GPU постоянно улучшают алгоритмы передачи данных по шине, что позволяет использовать ее более эффективно. Все это приводит к тому, что ширину шины можно безболезненно урезать: так, MX150 (она же GT 1030), имея шину всего в 64 бита (как один канал ОЗУ), способна при этом выдавать производительность уровня GTX 950M со 128-битной шиной, которая еще пару-тройку лет назад считалась среднеуровневой мобильной игровой видеокартой:

видеопамять и оперативная память в чем разница. Смотреть фото видеопамять и оперативная память в чем разница. Смотреть картинку видеопамять и оперативная память в чем разница. Картинка про видеопамять и оперативная память в чем разница. Фото видеопамять и оперативная память в чем разница

Восьмой миф. Если видеокарта не перегревается, то она работает на максимально возможной для нее частоте в рамках ее теплопакета

Увы — аналогия с процессорами тут не работает: если те действительно удерживают максимальные частоты в рамках TDP вплоть до температуры, с которой начинается троттлинг из-за перегрева, то видеокарты работают хитрее: так, у Nvidia есть технология GPU Boost, которая, с одной стороны, является аналогом Turbo Boost для процессоров — позволяет поднимать частоту выше базовой — а с другой стороны имеет больше ограничений.

Возьмем, для примера, GTX 1080 Ti. Она имеет родную частоту в 1480 МГц, а Boost — 1580. Но стоит нагрузить видеокарту, как частота может подскочить до 1800-1850 МГц — то есть выше Boost: это и есть работа технологии GPU Boost. Дальше — интереснее: критические температуры у видеокарт поколения Pascal составляют порядка 95 градусов — но уже при 85 можно заметить, что частоты снижаются ближе к уровню Boost. Почему так? Потому что Nvidia ввела еще одну опорную температуру, которую называет целевой: при ее достижении видеокарта старается ее не превышать, а для этого сбрасывает частоты. Так что если у вас мощная видеокарта, да и еще с референсным турбинным охлаждением — внимательно следите за температурами, ибо от них в прямом смысле зависит производительность.

Девятый миф. Видеокарты без дополнительного питания хуже аналогов с ним

В продаже можно встретить видеокарты уровня GTX 1050, 1050 Ti и AMD RX 550 без дополнительного питания — то есть, как в старые добрые времена, достаточно поставить их в слот PCIe и они готовы к работе. При этом также есть версии 1050 и 1050 Ti с дополнительным питанием 6 pin, из-за чего некоторые пользователи делают вывод, что раз дополнительное питание есть — значит с ним видеокарты будут работать лучше.

На деле это не совсем так: слот PCIe способен дать видеокарте до 75 Вт, и этого вполне хватает, чтобы даже 1050 Ti работала на указанных на официальном сайте Nvidia частотах. Но если вы нацелены на разгон — да, тут питания от PCIe видеокарте может уже не хватить, так что дополнительные 6 pin от блока питания позволят достичь больших частот, однако разница в любом случае не превысит 10%.

Десятый миф. Не стоит ставить современные PCIe 3.0 видеокарты на старые платы со слотами PCIe 2.0 или 1.0

видеопамять и оперативная память в чем разница. Смотреть фото видеопамять и оперативная память в чем разница. Смотреть картинку видеопамять и оперативная память в чем разница. Картинка про видеопамять и оперативная память в чем разница. Фото видеопамять и оперативная память в чем разница

Все опять же логично — так, пропускная способность PCIe 2.0 x16 вдвое ниже, чем у 3.0 x16, а, значит, современные видеокарты через более старую шину PCIe будут работать медленнее. На деле это опять же не так — пропускная способность PCI Express 3.0 x16 даже для топовых современных видеокарт оказывается избыточной:

Хорошо видно, что разница между 3.0 x16 и 2.0 x16 составляет всего 1%, то есть погрешность, и даже если спуститься до PCIe 1.1 — то есть к материнским платам почти десятилетней давности — падение производительности оказывается всего лишь 6%. Так что вердикт тут прост — версия PCIe практически не влияет на производительность видеокарты, соответственно можно смело к Xeon с PCI Express 2.0 брать GTX 1080.

Одиннадцатый миф. Разгон видеопамяти не имеет смысла

Конечно, наибольший прирост дает разгон ядра видеокарты — тут прирост производительности близок к линейному (то есть увеличили частоту на 10% — получили прирост производительности на 10%). Однако не стоит сбрасывать со счетов видеопамять, особенно в слабых видеокартах: зачастую в них ставят те же чипы памяти, что и в более мощные решения, но при этом сильно снижают частоту. Это дает возможность ее достаточно сильно разогнать, зачастую на 20-40%, что может прибавить к общей производительности графики еще 10-15% — для слабых видеокарт это лишним, разумеется, не будет:

видеопамять и оперативная память в чем разница. Смотреть фото видеопамять и оперативная память в чем разница. Смотреть картинку видеопамять и оперативная память в чем разница. Картинка про видеопамять и оперативная память в чем разница. Фото видеопамять и оперативная память в чем разница

Двенадцатый миф. С выходом каждой новой линейки видеокарт производители урезают производительность старой

Достаточно популярный миф, основанный обычно на том, что на одних (обычно более старых) версиях драйверов видеокарта работает лучше, чем на других (обычно более новых). Разумеется, никакого реального основания он не имеет: если бы Nvidia и AMD на самом деле хотели заставить пользователей обновить видеокарты, они бы прекращали их поддержку как производители смартфонов на Android, через пару лет после выхода. Однако на деле даже решения 600-ой линейки от Nvidia, вышедшей более 6 лет назад, до сих пор получают новые драйвера наравне с более новыми видеокартами, причем со всеми программными «плюшками» типа DirectX 12.

Но почему тогда есть разница в производительности между драйверами? Потому что ничто в нашем мире не идеально, и какие-то драйвера, улучшая производительность в новых играх, могут испортить производительность в более старых или привести к различным ошибкам. Обычно через некоторые время выходят исправленные драйвера, и все возвращается на круги своя.

Если вы знаете еще какие-либо мифы — делитесь ими в комментариях.

видеопамять и оперативная память в чем разница. Смотреть фото видеопамять и оперативная память в чем разница. Смотреть картинку видеопамять и оперативная память в чем разница. Картинка про видеопамять и оперативная память в чем разница. Фото видеопамять и оперативная память в чем разница

видеопамять и оперативная память в чем разница. Смотреть фото видеопамять и оперативная память в чем разница. Смотреть картинку видеопамять и оперативная память в чем разница. Картинка про видеопамять и оперативная память в чем разница. Фото видеопамять и оперативная память в чем разница

видеопамять и оперативная память в чем разница. Смотреть фото видеопамять и оперативная память в чем разница. Смотреть картинку видеопамять и оперативная память в чем разница. Картинка про видеопамять и оперативная память в чем разница. Фото видеопамять и оперативная память в чем разница

видеопамять и оперативная память в чем разница. Смотреть фото видеопамять и оперативная память в чем разница. Смотреть картинку видеопамять и оперативная память в чем разница. Картинка про видеопамять и оперативная память в чем разница. Фото видеопамять и оперативная память в чем разница

видеопамять и оперативная память в чем разница. Смотреть фото видеопамять и оперативная память в чем разница. Смотреть картинку видеопамять и оперативная память в чем разница. Картинка про видеопамять и оперативная память в чем разница. Фото видеопамять и оперативная память в чем разница

Ещё один миф. С выходом новой линейки видеокарт, старые дешевеют. Нвидиа это успешно опровергала, просто накрутив цену на новые карты))

видеопамять и оперативная память в чем разница. Смотреть фото видеопамять и оперативная память в чем разница. Смотреть картинку видеопамять и оперативная память в чем разница. Картинка про видеопамять и оперативная память в чем разница. Фото видеопамять и оперативная память в чем разница

Соответственно, чтобы видеокарта была занята на 100%, она должна иметь возможность отрисовать меньше кадров в секунду, чем может дать ей процессор. Как это сделать? Да очень просто: поднять разрешение, поставить более высокие настройки графики, включить тяжелое сглаживание — и вуаля, GTX 1080 Ti в 5К на ультра-настройках графики «пыхтит», выдавая 15-20 кадров в секунду, а поставленный ей в пару двухядерный Intel Pentium едва ли нагружен на половину.

А может быть, ВНЕЗАПНО, стоит поставить более быстрый процессор, и FPS будет выше за счёт простаивавших мощностей GPU?

видеопамять и оперативная память в чем разница. Смотреть фото видеопамять и оперативная память в чем разница. Смотреть картинку видеопамять и оперативная память в чем разница. Картинка про видеопамять и оперативная память в чем разница. Фото видеопамять и оперативная память в чем разница

Более половины всех мифов правда.

видеопамять и оперативная память в чем разница. Смотреть фото видеопамять и оперативная память в чем разница. Смотреть картинку видеопамять и оперативная память в чем разница. Картинка про видеопамять и оперативная память в чем разница. Фото видеопамять и оперативная память в чем разница

видеопамять и оперативная память в чем разница. Смотреть фото видеопамять и оперативная память в чем разница. Смотреть картинку видеопамять и оперативная память в чем разница. Картинка про видеопамять и оперативная память в чем разница. Фото видеопамять и оперативная память в чем разница

Второй миф. Если видеокарте не хватит видеопамяти в игре, то обязательно будут фризы, вылеты и тому подобное

Фризы тебе точно гарантированы,и естественно это не миф,попробуй запустить RE7 или Rise of the Tomb Raider с максимальными текстурами на видяхе с 4 гагами памяти,и получишь гарантированные фризы,собственно это мои случаи когда у меня ещё была GTX980,стоило снизить текстуры на один пункт и фризы естественно прекращались.

видеопамять и оперативная память в чем разница. Смотреть фото видеопамять и оперативная память в чем разница. Смотреть картинку видеопамять и оперативная память в чем разница. Картинка про видеопамять и оперативная память в чем разница. Фото видеопамять и оперативная память в чем разница

saa0891 DDR4 более чем достаточно, чтобы по крайней мере не было фризов, так что если не хватает VRAM можно просто добавить воды. gennaz Eh. Евгений Кондратенко Да лучше уж 970 по дешевке ищет и не будет парится в новых игорях.

видеопамять и оперативная память в чем разница. Смотреть фото видеопамять и оперативная память в чем разница. Смотреть картинку видеопамять и оперативная память в чем разница. Картинка про видеопамять и оперативная память в чем разница. Фото видеопамять и оперативная память в чем разница

бестолковые блоги для получения бонусов

видеопамять и оперативная память в чем разница. Смотреть фото видеопамять и оперативная память в чем разница. Смотреть картинку видеопамять и оперативная память в чем разница. Картинка про видеопамять и оперативная память в чем разница. Фото видеопамять и оперативная память в чем разница

видеопамять и оперативная память в чем разница. Смотреть фото видеопамять и оперативная память в чем разница. Смотреть картинку видеопамять и оперативная память в чем разница. Картинка про видеопамять и оперативная память в чем разница. Фото видеопамять и оперативная память в чем разница

Еще один миф. С выходом новой линейки старые должны дешеветь. Это широко распространенный миф. Ибо рынок живет по другим законам. Если конкуренты не могу предоставить даже на старую линейку достойной конкуренции. С чего это новая линейка более быстрая должна быть по той же цене что и старая. И уж тем более еще более быстрые карты должны быть по аналогичной цене старой линейки аналогов конкурента. Проще говоря если бы АМД представяла конкурирующие решения на старую линейку то новая линейка Нвидиа была бы дешевле. А так скажите спасибо АМД за ее технологическую импотенцию.

видеопамять и оперативная память в чем разница. Смотреть фото видеопамять и оперативная память в чем разница. Смотреть картинку видеопамять и оперативная память в чем разница. Картинка про видеопамять и оперативная память в чем разница. Фото видеопамять и оперативная память в чем разница

Однако на деле даже решения 600-ой линейки от Nvidia, вышедшей более 6 лет назад, до сих пор получают новые драйвера наравне с более новыми видеокартами Перед тем,как писать данную статью,автору стоило бы зайти на сайт нвидиа и убедиться,что сейчас поддерживаются видеокарты от 700 серии и выше.

видеопамять и оперативная память в чем разница. Смотреть фото видеопамять и оперативная память в чем разница. Смотреть картинку видеопамять и оперативная память в чем разница. Картинка про видеопамять и оперативная память в чем разница. Фото видеопамять и оперативная память в чем разница

gennaz Чувак, помоему это следовало сделать тебе, прежде, чем писать эту дичь.

видеопамять и оперативная память в чем разница. Смотреть фото видеопамять и оперативная память в чем разница. Смотреть картинку видеопамять и оперативная память в чем разница. Картинка про видеопамять и оперативная память в чем разница. Фото видеопамять и оперативная память в чем разница

видеопамять и оперативная память в чем разница. Смотреть фото видеопамять и оперативная память в чем разница. Смотреть картинку видеопамять и оперативная память в чем разница. Картинка про видеопамять и оперативная память в чем разница. Фото видеопамять и оперативная память в чем разница

Евгений Кондратенко Хм, думаешь я не посмотрел,прежде чем писать?))) Это «поддержка» только на бумаге,а на деле вот так

видеопамять и оперативная память в чем разница. Смотреть фото видеопамять и оперативная память в чем разница. Смотреть картинку видеопамять и оперативная память в чем разница. Картинка про видеопамять и оперативная память в чем разница. Фото видеопамять и оперативная память в чем разница

видеопамять и оперативная память в чем разница. Смотреть фото видеопамять и оперативная память в чем разница. Смотреть картинку видеопамять и оперативная память в чем разница. Картинка про видеопамять и оперативная память в чем разница. Фото видеопамять и оперативная память в чем разница

gennaz Т.е. ты запустил на gt630 новую ларку и ждёшь 60фпс в 4к? А если нет то это драйвера плохие? Ты вообще адекватный.

видеопамять и оперативная память в чем разница. Смотреть фото видеопамять и оперативная память в чем разница. Смотреть картинку видеопамять и оперативная память в чем разница. Картинка про видеопамять и оперативная память в чем разница. Фото видеопамять и оперативная память в чем разница

gennaz Чувак, не страдай фигней и не выставляй себя дураком. Купи себе на авито хотя бы GTX 770 и будешь нормально играть. Такие карты стоят на авито 6000-7000р, зато на них не будет такого ахтунга, как у тебя на скриншоте. Да и сама по себе 770 отличная карточка, всё-таки предтоповая семисотка.

видеопамять и оперативная память в чем разница. Смотреть фото видеопамять и оперативная память в чем разница. Смотреть картинку видеопамять и оперативная память в чем разница. Картинка про видеопамять и оперативная память в чем разница. Фото видеопамять и оперативная память в чем разница

erkins007 Дело не в низком фпс,а в графических артефактах в этой игре на карте 600 серии.Евгений Кондратенко Сам себе купи такое фуфло! Да и достаточно было заглянуть в профиль,чтобы не предлагать покупать всякое старьё,у меня любые игры идут отлично, на достаточно приличных настройках.

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *