Синхронизация видеокарты и компьютера - Строительный журнал
0 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

Выбор видеокарты для компьютера – сколько памяти нужно для игр и работы

Выбор видеокарты для компьютера – сколько памяти нужно для игр и работы

Для начала мы хотим отметить, что наша статься направлена на людей, не являющихся специалистами в области графических карт. Мы знаем, как труден может быть выбор видеокарты, если учесть разнообразие моделей, количество видеопамяти, а также игровые технологии, предлагаемые производителями. Мы представим Вам обзор видеокарт, объяснив базовые аспекты функционирования этого важного компонента компьютера.

Противостояние видеокарт GeForce или Radeon

Принцип действия видеокарты

состоит в следующем.

  1. Процессор формирует цифровое изображение в виде матрицы NхM n-разрядных чисел и записывает его в видеопамять. Участок видеопамяти, отведённый для хранения цифрового образа текущего изображения (кадра), называется кадровым буфером или фрейм-буфером.
  2. Видеокарта последовательно считывает (сканирует) содержимое ячеек кадрового буфера и формирует на выходе видеосигнал, уровень которого в каждый момент времени пропорционален значению, хранящемуся в отдельной ячейке. Сканирование видеопамяти осуществляется синхронно с перемещением электронного луча по экрану монитора. В результате яркость каждого пикселя на экране монитора пропорциональна содержимому соответствующей ячейки памяти видеокарты.
  3. По окончанию просмотра ячеек, соответствующих одной строке растра, видеокарта формирует импульсы строчной синхронизации, инициирующие обратный ход луча по горизонтали, а по окончании сканирования кадрового буфера формирует сигналы, вызывающие движение луча снизу вверх.

Таким образом, частоты строчной и кадровой развёртки монитора определяются скорость сканирования содержимого видеопамяти, т.е. видеокарта.

Как подключить новую видеокарту к компьютеру

Сложного в установке, подключении и настройке карты нет. По сути, то, что было написано про извлечение, подходит и сюда, только процесс выполняется в обратном порядке. А про настройку и установку драйверов мы поговорим отдельно.

Установка новой видеокарты

Вставить новую плату проще простого. Даже легче, чем её вытащить. Просто устанавливаем её в слот таким образом, чтобы ключ на передней части защелкнулся, а задняя панель с разъёмами и металлической планкой уперлась в нишу. Загнутая часть должна остаться сверху. В неё должен вкрутиться винт, который поставляется в комплекте. По идее, установка видеокарты на компьютер завершена — можно запускать ПК.

Но после того, как видеокарта вставлена в компьютер, нужно ознакомиться со спецификацией адаптера и изучить инструкцию. Некоторые видеокарты требуют дополнительного питания, которое не может обеспечить шина PCI. Обычно на таких моделях присутствует отдельный разъём и в комплекте есть кабель для дополнительного подключения. Это геймерские или профессиональные адаптеры с высоким уровнем производительности.

Как установить драйвера на видеокарту

В этом тоже нет ничего сложного. Обычно диск с драйверами поставляется в комплекте. Но даже в этом случае лучше сразу пройти на официальный сайт производителя и скачать самые последние версии драйверов.

videocard 7

Скачать драйвера с официального сайта AMD очень просто

Это сэкономит время и устранит проблемы несовместимости. Что касается самого процесса установки, то сейчас пакет драйверов поставляется в удобной форме в виде инсталлятора, для запуска которого хватает двойного клика.

videocard 8

Поиск драйверов от Nvidia тоже не должен вызвать проблем

Затем мастер установки автоматически проведёт пользователя по всем шагам, даст возможность выбрать пути и компоненты. В целом, после того, как видеокарта установлена на компьютер, она сама будет обнаружена системой и предложит установить драйвера.

Как включить встроенную видеокарту на компьютере

Все операции, описанные выше в разделе про отключение карты, сработают и здесь — с той лишь разницей, что теперь надо всё включать. То есть при работе на дискретной карте нужно выбрать в диспетчере устройств второй адаптер и активировать его. Если же были удалены и драйвера, то в списке может и не оказаться видеоадаптера — хотя такое бывает крайне редко. В любом случае, драйвера лучше поставить снова. Но есть и один нюанс. Современные системы позволяют использовать обе видеокарты по необходимости. То есть при малых нагрузках работу на себя берет встроенная, и, как правило, более энергоэффективная карта. Как только ресурсов начинает требоваться больше, в ход идет дискретная, и менять что-то в этом дуэте не особо требуется: какой смысл отключать встроенную карту, если она и так не работает, когда включается более мощная? А с другой стороны, при менее ресурсозатратных задачах, наоборот, экономит электроэнергию.

Играем по-новому. G-sync и FreeSync – особенности и отличия

Геймеры знают, что если не найти баланс между производительностью графической карты и возможностями монитора, то в играх могут появиться визуальные артефакты (разрывы изображения). Причина их появления — не совпадение частоты кадров видеокарты и частоты обновления дисплея. Единственным выходом было включение функции Vsync, чтобы синхронизировать частоты между собой, правда, это не решало проблему на 100%. Поэтому в 2014 году NVIDIA и AMD представили свои решения адаптивной частоты обновления экрана, которые мы рассмотрим в этом материале.

Большинство мониторов работает при фиксированной частоте обновления – 60, 120 или 144 Гц, к примеру. При запуске 3D игры частота кадров (Frames per Second, FPS) будет «плавать» в определенном диапазоне в зависимости от того насколько ПК справляется с нагрузкой. По умолчанию графическая карта отправляет монитору кадры, как только они были обработаны, независимо от того, готов ли дисплей отобразить следующий кадр. Поэтому при частоте кадров, которая превышает частоту обновления экрана, могут появляться «разрывы» изображения, связанные с отсутствием синхронизации частот и спецификой обновления изображения у ЖК дисплеев – сверху вниз. Если ПК не обеспечивает стабильно высокий FPS, иногда новый кадр накладывается на старый, прежде чем тот исчезает с экрана. Появляется едва заметный эффект «разрыва» изображения на две части (его называют screen tearing от англ. слова to tear — рвать). Проблема особенно заметна при движениях в горизонтальной плоскости (например, при резких поворотах вправо и влево в шутерах). При этом, разрывы могут появляться даже на геймерских мониторах с частотой 120 или даже 144 Гц — просто они менее заметны.

Читать еще:  Учетная запись гугл ошибка синхронизации
Наглядный пример эффекта screen tearing

Многие годы проблему можно было частично решить включением вертикальной синхронизации (Vsync), которая заставляет графический адаптер «придержать» кадр, пока монитор не будет готов его отобразить. При этом максимальное количество кадров ограничивается частотой обновления экрана. Так что при устранении разрывов увеличивается задержка вывода изображения, которую можно ощутить, когда частота падает ниже поддерживаемой частоты обновления. К тому же, некоторые кадры будут обрабатываться графическим адаптером медленнее, так что монитору даже приходится ждать новые кадры, поэтому отображаются старые кадры, создается ощущение, что дисплей «заикается». Мало того, в тяжелых игровых сценах, когда видеокарте нужно работать более усердно, заметны проседания частоты кадров, что также может испортить впечатления от игрового процесса.

G-Sync и FreeSync – отличия и особенности

Чтобы избавиться от ограничений, вызванных вертикальной синхронизацией, главные производители графических адаптеров NVIDIA и AMD представили свои решения в этой области – G-Sync и FreeSync соответственно. Первая появилась в середине 2014 года, а вторая – весной 2015. Обе технологии работают с интерфейсом DisplayPort 1.2, как со стороны видеокарты, так и со стороны монитора. Компания AMD уже работает над возможностью интеграции технологии в интерфейс HDMI. Вне зависимости от производителя и особенностей реализации G-Sync и FreeSync, в основе обеих технологий лежит принцип изменения частоты обновления экрана. Причем выполняется он таким образом, что монитор может динамически подстраивать частоту обновления своего экрана под частоту кадров видеокарты. При этом частоты идеально синхронизированы, так что пользователь избавлен от разрывов изображения и визуальных багов, связанных с Vsync или видимых без ее использования.

Несмотря на то, что в основе этих технологий лежит одна идея, реализация отличается. Так, для работы G-Sync требуется отдельный проприетарный модуль, который устанавливается в монитор. Поскольку он стоит дорого, цена мониторов с G-Sync на несколько сотен долларов выше. Кроме этого, модули G-Sync поддерживают режим уменьшения размытия движения, который именуется Ultra Low Motion Blur (ULMB). Это позволяет пользователю выбрать режим работы подсветки дисплея для снижения до минимума «смазывания» картинки в движении (свойство ЖК-дисплеев). По отзывам, польза наиболее ощущается в стратегиях. Правда, две технологии пока что не работают одновременно, так как ULMB требуется постоянная частота обновления экрана. Ну и, конечно же, G-Sync совместима только с определенными видеокартами NVIDIA. Вот их список (по состоянию на лето 2015 года): TITAN Black и X, GeForce GTX 980, 970, 780 Ti, 780, 770, 760, 750 Ti, 750, 660, 680, 670, 690, 660 Ti и 650 Ti BOOST.

AMD FreeSync условно бесплатна для производителей мониторов, так как, благодаря компании VESA в интерфейс DisplayPort уже имплементирована спецификация Adaptive-Sync, которую и использует AMD. Большинство производителей мониторов уже имели нужные компоненты, но им не хватало правильного программного обеспечения для раскрытия всего потенциала технологии. Все обошлось без лицензирования, проприетарных компонентов и повышения цены. Все ради потребителей? Почти. Ведь без покупки современной видеокарты AMD не обойтись: Radeon R9 Fury X, R9 300 серии, R9 295X2, 290X, R9 290, R9 285, R7 260X или R7 260. У старых серий карт Radeon HD 7000, HD 8000 и других моделей R7 и R9, а также у части гибридных процессоров (APU) поддержка технологии не полная — в видео, но не играх. То есть на практике геймеры не ощутят пользы.

Модуль, который устанавливается в мониторы с поддержкой G-Sync

Поэтому особенности этой технологии немного другие. Благодаря отсутствию отдельного модуля производители мониторов не ограничены только разъемом DisplayPort, можно также установить HDMI, DVI, D-Sub для разнообразных подключений, даже несмотря на то, что FreeSync работает только с DisplayPort. С другой стороны, отсутствует функция уменьшения размытия, так что производители мониторов будут сами решать, добавлять ее или нет. Кроме этого, FreeSync совместима с небольшим количеством видеокарт AMD и не работает с графикой NVIDIA и Intel.

Первые мониторы с G-Sync: Acer XB270HU, XB280HK, XB270HA, XB240HAbpr, Asus PG278Q, BenQ XL2420G, AOC G2460PG.

Читать еще:  Программы для регулировки кулеров на ноутбук toshiba

Первые мониторы с FreeSync: Acer XG270HU и XR341CK, AOC G2460PF и G2770PF, Asus MG279Q и MG278Q, BenQ XL2730Z, LG 29UM67.

Системные требования касаются не только «железа». Надо установить на ПК Windows 7 или более новую версию, а также свежую версию драйверов для графического адаптера. Также для работы этих технологий нужно активировать функцию в NVIDIA Control Panel или AMD Catalyst Control Center. Собственно, насчет игр ограничений нет — в большинстве проектов с 3D графикой польза будет заметна.

Первые впечатления

Что касается реальных условий эксплуатации, то обе технологии зарекомендовали себя только с положительной стороны. Такое впечатление складывается по обзорам первых мониторов, совместимых с G-Sync или FreeSync. Возможно, польза заметна не всегда (не во всех играх, не на всех настройках графики и т. д.), однако, в целом обозреватели положительно оценивают эффект от G-Sync и FreeSync в шутерах, ролевых играх, автосимуляторах и играх других жанров.

G-Sync показывает наилучшие результаты при FPS в пределах 45-60 кадров/с, а для FreeSync этот показатель составляет 40-75 кадров/с. То есть в тех условиях, при которых играют обычные люди, а не киберспортсмены. При этом для технологии FreeSync даже можно включить Vsync, если система достаточно производительна, чтобы выйти за рамки возможностей поддерживаемого монитора. Тем не менее, при приближении к частоте 144 Гц, польза технологий не так ощутима, хотя все-равно заметна. Тесты показывают, что производительность системы с включенной FreeSync на доли процента выше, чем без нее. С другой стороны, G-Sync уменьшает количество FPS на пару кадров, что едва-ли заметно в играх. Так что не стоит волноваться, что дополнительная нагрузка на систему при активизации этих технологий сильно повлияет на ее производительность в играх.

Резюме

Простого ответа на вопрос «Что лучше – G-Sync или FreeSync?» нет. Все сводится к выбору производителя – NVIDIA или AMD. Учитывая, что единого стандарта нет, то нужно подстраиваться под существующую систему или собирать новую. Технология AMD существенно дешевле и намного удобнее для реализации со стороны производителей мониторов, хотя это и не значит, что дисплеи с поддержкой FreeSync заполнят рынок. Все дело в том, что примерно 3 из 4 проданных дискретных видеокарт (без учета графики, встроенной в процессоры) имеют процессор NVIDIA. Так что производители мониторов точно не обойдут стороной G-Sync, даже несмотря на повышение стоимости конечного продукта. Не будем забывать о бонусе в виде технологии ULMB, уменьшающей размытие при движении объектов на экране, которая во многих случаях тоже полезна, как и адаптивная частота развертки. Пусть мониторы с G-Sync или FreeSync пока еще дорогие и их мало, однако в скором будущем эти технологии могут стать массовыми и, возможно, на их основе появится универсальная технология — для всех видеокарт и мониторов. А пока самые требовательные геймеры могут увидеть какой эффект дают новые разработки уже сейчас. и возвращаться к играм «по старому», судя по отзывам очевидцев, многие из них уже не захотят.

Как устанавливать драйвера

Новые видеокарты обычно укомплектованы диском с драйверами, которые необходимо устанавливать в любом случае, если вы впервые подключили эту деталь к компьютеру. В случае если отсутствует или не работает дисковод, а также если вы купили бывшую в употреблении видеокарту и диск утерян, скачать и установить драйвера можно с сайта разработчика.

На данный момент производством графических чипов занимается всего две компании: Nvidia и AMD . Если вы не меняете производителя и используете такую же видеокарту, устанавливать драйвера необязательно: Nvidia GeForce Experience или AMD Catalyst Control Center , отвечающие за работу видеокарты, скачают необходимые драйвера автоматически. В противном случае, удалите программу конкурента и установить соответствующую вашей модели.

Как это работает

Nvidia Optimus

В большинстве мобильных процессоров Intel содержится встроенная видеокарта — в наши дни ее роль отведена в основном UHD Graphics 630/620. Если в системе присутствует дискретная видеокарта Nvidia, то мы получаем систему с так называемой переключаемой графикой: когда нагрузка на видеоподсистему незначительная, то для вывода изображения используется встроенная видеокарта, но если вы, скажем, запускаете игру или редактируете модели в 3D редакторе — подключается дискретный адаптер. Все это известно большинству наших читателей, но вот один неочевидный нюанс: на самом деле, встроенная графика вовсе не отключается при использовании дискретной видеокарты. Дело в том, что физически дисплей ноутбука подключен только к выходу встроенной видеокарты Intel (LVDS и eDP). Соответственно, во время активности дискретной видеокарты Nvidia, встроенная графика от Intel выступает для первой в роли frame buffer’а. То есть, по факту активны обе видеокарты — это очень важный момент к которому мы вернемся позже. В общем и целом, смысл Optimus в максимальной гибкости для пользователя, предоставлении здорового баланса между автономностью (графика Intel снижает расход батареи) и производительностью (Nvidia хороша в играх и т.д.).

Читать еще:  Синхронизация с компьютером mac android

Nvidia G-Sync

Стараясь по максимуму раскрыть потенциал своих видеокарт, Nvidia представила новую технологию G-Sync, которая предназначается как для настольных платформ, так и для ноутбуков. Смысл всей технологии заключается в том, что при помощи определенных дополнительных компонентов (как на стороне видеокарты, так и на стороне монитора/дисплея/телевизора) на аппаратном уровне выполняется синхронизация частоты обновления дисплея и кадровой частоты (fps) в игре. Итог таков: человеческий глаз в любом случае видит максимально плавную картинку без разрывов даже при низкой частоте кадров. Кстати, как показали многочисленные тестирования игр и различных сборок, наиболее эффективной G-Sync является именно при низкой частоте кадров (40 — 60 к/с). Но что это значит в контексте данной статьи? Дело в том, что в ноутбуке с G-Sync мы имеем дискретную видеокарту, видеовыход которой напрямую (снова важный момент) подключен к дисплею. Встроенная видеокарта в такой системе полностью отключена и не отображается в диспетчере устройств.

Схема работы Optimus, активна встроенная видеокарта (Изображение: IXBT)

Схема работы Optimus, активна встроенная видеокарта (Изображение: IXBT)

Схема работы Optimus, активна дискретная видеокарта (Изображение: IXBT)

Схема работы Optimus, активна дискретная видеокарта (Изображение: IXBT)

Схематичное описание формирования кадров при использовании G-Sync (Изображение: Nvidia)

Схематичное описание формирования кадров при использовании G-Sync (Изображение: Nvidia)

Схематичное описание формирования кадров без G-Sync при выключенном V-Sync (Изображение: Nvidia)

Схематичное описание формирования кадров без G-Sync при выключенном V-Sync (Изображение: Nvidia)

Другие варианты

Очевидно, ввиду вышеуказанных особенностей, эти две технологии несовместимы и не могут присутствовать в одной системе. Или все-таки могут? Некоторые производители считают, что невыполнимых задач не существует. В частности, совмещением G-Sync и Optimus озадачились в Asus и во второй половине 2017 года представили игровые модели GX501 и GM501, в которых можно было переключаться между двумя режимами видеоподсистемы в BIOS либо через фирменную утилиту с помощью перезагрузки (по факту утилита просто меняет параметры UEFI). Вполне естественно, для совмещения двух совершенно разных обвязок на плате, понадобился дополнительный компонент — MUX switch. Это устройство занимается переключением физических линий, связывающих порт дисплея и видеокарту. Естественно, делать такое переключение "на лету" нельзя, потому требуется перезагрузка (полное выключение системы — инициализация с новым параметром — работа в выбранном режиме). Среди современных ноутбуков такой возможностью точно обладает Lenovo Legion Y740. С великой долей вероятности существуют модели и от других производителей, но точно утверждать мы не можем, так как системы подобного рода все еще остаются невероятной редкостью.

Схожие устройства существовали и ранее, до "изобретения" G-Sync. Большое количество моделей от Alienware (классические 15 и 17, снятые с производства), кастомные системы на основе Clevo, те же Gigabyte и даже ThinkPad — все это были мощные системы для компьютерных энтузиастов. В большинстве из них в BIOS можно было переключаться только на встроенную или переключаемую графику. Более продвинутые системы позволяли выбирать три варианта: Optimus, только встроенная, только дискретная графика. Есть различные форумы с обсуждением таких моделей, неплохой список приведен здесь.

Но Optimus тоже не панацея, хоть мы и считаем так в наши дни. Ранее применялись и другие схемы переключения видеокарт, например MSHybrid для Windows, у MacBook своя закрытая схема переключения и по сей день, а в Linux есть различные программные реализации. Зачем и кому нужны такие сложные штуки, если "все и так работает"? Ответ на этот вопрос выходит за рамки данной статьи. Скажем лишь, что многие профессионалы собирают себе кастомные мощные системы под установку Mac OS и ввиду особенностей этой операционки от Apple иметь возможность ручного выбора видеокарты просто жизненно необходимо. Особенно, если речь идет о ноутбуке.

Утилита ROG Gaming Canter от Asus на модели GM501GS с удобным переключателем (Изображение: Asus)

Утилита ROG Gaming Canter от Asus на модели GM501GS с удобным переключателем (Изображение: Asus)

Какие еще варианты есть?

т.к. эта статья информационная и я описываю конкретно свой случай, не факт что он подойдет Вам, поэтому я опишу еще некоторые варианты которые могут Вам помощь когда вместо видеокарты пишет базовый видеоадаптер.

Обновление windows

Windows 10 стала почти Linux система когда ты ее ставишь нужно только ее подключить к интернету и она сама скачает самые последние и актуальные обновления на все устройства компьютера и системы, поэтому это у нас будет первым вариантом

базовый видеоадаптер майкрософт низкое разрешение

Поиск драйверов по ИД оборудованию

Для этого нам понадобиться скопировать из контекстного меню Базового видеоадаптера Microsoft его номер ИД оборудования, для этого нажмите по любой из записей ПКМ и скопируйте первую строчку из списка, далее заходите на сайт https://devid.info/ и в поиске вставляем что скопировали.

В моем случае это строчка PCIVEN_10DE&DEV_128B&SUBSYS_128B10DE&REV_A1

поиск драйверов через ИД устройства

Автоматический поиск драйвера Snappy Driver

Самым по моему мнению последним вариантом который можно использовать это использование сторонних программ для автоматического поиска и установки драйверов оборудования такие как: Snappy Driver Installer, IOBit Driver Booster, Driver Pack Solution и другие.

Для этого скачиваете их с официального сайта и устанавливаете на своем компьютере, но я не сторонник таких методов, по мне проще переставить windows))

голоса
Рейтинг статьи
Ссылка на основную публикацию
Adblock
detector