Добро пожаловать в пятьдесят восьмой блог моей рубрики "Субъективный взгляд". Сегодняшний выпуск я приурочил к первому апреля, а посвящён он будет мне любимому. Если быть точным - речь о моём сакральном мониторе с разрешением 1366х768 (далее - разрешение Сверхчеловека), который уже стал каким-то локальным мемом среди пользователей PG. А раз вас уж столь сильно заботит разрешение монитора - я подробно расскажу что это такое и с чем его едят.
Ну приступим. За многие годы пользования ПК, я перепробовал множество мониторов с разными разрешениями экрана. Первый опыт знакомства с ПК у меня был связан 800х600 монитором. Далее, с 2003-го до 2008-го года я пользовался 1024х768, с 2008-года по 2015-ый - 1680х1050, с 2015-года по сей день - 1366х768. Помимо этого, был кратковременный опыт использования 1280х1024 и 1920х1080.
Так вот, что же меня побудило к переходу на 1366х768? В первую очередь, это желание получать полноценный игровой экспириенс в виде ультра-настроек. Вторая причина - увеличение периода актуальности видеокарты. Ну вот и сложилось: мне срочно нужно было продать 1680х1050-монитор в лице долго прослужившего мне ASUS VW222, а взамен я на барахолке взял за две тысячи рублей мой сегодняшний чудо-монитор ASUS VW197. Сразу после этого, мой игровой экпириенс претерпел серьёзные изменения. В первых же запущенных играх, мой фреймрейт пробил потолок и взлетел до небес на GTX 670. Самое главное - качество графики от подобного даунгрейда разрешения абсолютно не пострадало - более того, со сглаживанием нет особой разницы с более высокими разрешениями. В общем, я остался доволен, как слон - все игры отлично пошли на ультра-настройках на моей старушке, за исключением особо требовательных к видеопамяти.
Мой сакральный Монитор с разрешением Сверхчеловека. Да, и блоги я тоже с него пишу.
Но время, когда я наслаждался гениальностью своей многоходовочки по переигрыванию маркетологов, не проходило даром - я совершенствовал план, копил деньги на GeForce GTX 1060 и томился в ожидании выхода архитектуры Pascal. Ну и дождался - 19-го июля 2016-го года Хуанг наконец её родил, да ещё и точно с теми же характеристиками, которые я хотел - производительность GTX 980, да ещё и шесть гигабайт памяти, которые после моих двух смотрелись, как сравнение килобайта с петабайтом. На RX 480 смотреть было нельзя, потому как в магазинах являлся референсный мусор, а у меня уже был яростный свинцовый стояк, который напрочь убил мыслительные процессы в моём головном мозге. И уже 21-го июля я заказал через посредника из Польши самый жирный (настолько, что пришлось корпус пилить), дорогой и светящийся, как гирлянда ASUS ROG STRIX GeForce GTX 1060 6Gb.
Когда купил видеокарту и не хватило денег на HDMI-VGA-конвертер. Пришлось бичевать на разбитом 5:4 мониторе несколько дней, пока я не вернулся к сакральному 1366х768 (тот, что слева).
В общем, на этом начался новый этап в пути гейминга в разрешении Сверхчеловека. Почти везде стабильные 60 FPS на ультра при неполной загрузке графического процессора и работе в режиме пассивного охлаждения. Итак, дабы не быть голословным, я специально подготовил тесты со сравнением производительности в 1366х768 и 1920х1080.
Перед переходом непосредственно к результатам проведённого тестирование скажу, что моё разрешение даёт прирост производительности в районе 30-90% по сравнению с Full HD в зависимости от игры. Обычно прирост составляет 40-50%. Ну а теперь к самим тестам с конкретикой.
Мои тыквы, рождённые для 1366х768: Gigabyte GeForce GTX 670 (снизу) и ASUS ROG STRIX GeForce GTX 1060 (сверху).
Для сравнения, я останавливал игру в одном и том же месте, после чего менял разрешение. Использование одного и того же момента игры позволяет максимально точно отразить цель моего исследования. Помимо этого, я обычно использовал настройки, которые создают максимальный дискомфорт для ГП и не сильно затрагивают ЦП. Моя тестовая конфигурация (если ещё не видели в профиле) следующая:
Процессор: Intel Core i5-3570K @4.2Ghz
Материнская плата: ASUS P8Z77-V
Память: Kingston DDR3-1600 8192Mb HyperX Blu (Kit of 2x4096Mb)
Видеокарта: ASUS ROG STRIX GeForce GTX 1060 6144Mb@2050/9200
Аудиокарта: ASUS Xonar DGX
SSD: Intel Solid-State Drive 520 Series 180Gb
HDD: Seagate Barracuda 2000Gb [ST2000DM001]
Блок питания: Chieftec APS-750C
ОС: Windows 10 Pro x64 [1607]
Верхние скриншоты - 1920x1080, нижние - 1366х768. Проще определять по размеру данных мониторинга - в 768р размер текста больше, в 1080р - меньше. Как и FPS, в принципе...
Первая игра в списке - Crysis 3. Ультра-настройки, ТХАА х4.
50 FPS против 70 FPS
Разница в производительности в Crysis 3 составляет ровно 40% в пользу 1366х768. Примерный уровень GeForce GTX 1070 в Full HD.
Far Cry 4 - ультра-настройки, ТХАА х4.
54 FPS против 86 FPS
Разница в Far Cry 4 составляет примерно 59.26%, что практически равно 60%. Весьма недурно, стоит признать. Это уже в пух и прах рвёт GTX 1070 в Full HD, практически выдавая уровень производительности, который близок к GTX 1080.
Metro 2033 Redux - ультра настройки, SSAA x2.
65 FPS против 115 FPS
Здесь наблюдается наиболее впечатляющая разница 82.54% - практически в два раза. Это чуть ли не уровень TITAN X в Full HD. Воистину потрясающе, браво!
Rise of The Tomb Raider - ультра-настройки+GameWorks. SSAA x2.
38 FPS против 58 FPS
Разница, немного превышающая 50% (52.63%). Великолепно, по истине! Это быстрее GTX 1070 в Full HD!
Call of Duty: Advanced Warfare - ультра-настройки, SSAAx16. Убивает любой ГП наповал.
41 против 66 FPS
1366х768 снова демонстрирует тотальное превосходство в производительности, продвигаясь победоносной поступью, несущей много FPS. 60% разница в этот раз.
Just Cause 3 - ультра-настройки, SMAA x4.
84 против 118 FPS
Здесь наблюдается 40% превосходство 1366х768 над 1920х1080. Комментарии излишни.
The Witcher 3: Wild Hunt - ультра-настройки.
55 FPS против 73 FPS
К сожалению, здесь разница в производительности составляет всего лишь 32.73%. Но всё же разница ощутима и 1366х768 снова побеждает!
Mad Max - ультра-настройки.
111 против 150 FPS
Прирост от 768р наблюдается в районе 35%. Однако, очевидно, что разработчики сделали в игре лок на 150 FPS. Я уверен, что не будь его в игре, 1366х768 уделало бы 1920х1080 не на 35%, а на все 40%.
XCOM 2 - ультра-настройки, MSAA x8.
45 FPS против 72 FPS
В ХСОМ 2 у 768р 60% превосходство над 1080р. Просто потрясающе, практически уровень GTX 1080!
Fallout 4 - ультра-настройки, набор текстур высокого разрешения. Два тестовых момента. К сожалению, оверлей MSI Afterburner не отобразило, только FRAPS.
Тест первый: 73 против 116 FPS (59% разницы)
Far Harbor: 53 FPS против 82 FPS (64.63%)
Как видим, превосходство 768р в лучшей игре 2015-го года, Fallout 4 составляет в районе 60%. Просто великолепно, эта игра будто специально создана для получение экспириенса в 1366х768 на GTX 1060!
Grand Theft Auto V - все настройки на ультра, включая дополнительные. MSAA x8.
Прогон первый - 37 FPS против 55 FPS
Прогон второй: 42 FPS против 65 FPS
Прогон третий: 27 FPS против 40 FPS
Прогон четвёртый: 57 FPS против 88 FPS
Grand Theft Auto V продемонстрировала довольно внушительные результаты - в этой игре 1366х768 на 65-67% быстрее 1920х1080. Действительно серьёзный прирост производительности, практически уровень топовой GTX 1080 в Full HD.
К сожалению, у меня уже не установлен Quantum Break - разница в игре составляла около 80% в пользу 1366х768. В Mafia 3 тоже была колоссальная разница - около 60-70%. И это на моём пятилетнем процессоре, я думаю, на Kaby Lake разница будет ещё более высокой. В общем, не верите - проверьте сами.
Как видим, купив среднюю видеокарту под 1366х768, я получил минимум уровень GTX 1070, часто догоняющий GTX 1080, а в редких случаях - даже GTX 1080 Ti в Full HD.
Разрешение Сверхчеловека - это отличный способ обмануть маркетологов и побороть плохую оптимизацию в играх. Для меня переход на это разрешение - весьма сознательный и обдуманный поступок, оправданность которого наглядно была продемонстрирована выше. А монитор с нативным разрешением 1366х768 особо негативно не отразится на качестве картинки, в отличие от понижения разрешения на 1080р-мониторе.
Засим откланиваюсь,
Ваш нелюбимый мастер хитрых многоходовочек, переигравший маркетологов, warp 37
С таким же успехом можно тогда обратно на ЭЛТ-мониторы перейти и играть в 800x600. А что, разницы особой не видно будет, FPS подскочит, угол обзора будет божественным, а если еще и монитор с антибликовым покрытием взять, то вообще шикарно будет.
AVtechNICK from AAAAAAPPLELOOSA На ЭЛТ то не гони - там нормальные разрешения (на больших диагоналях 20+) А по некоторым аспектам вроде чёткости в динамике элт до сих пор уделывает большинство нынешних жк
символично, что варп накалякал этот блог именно в день дурака
псст. 640x400 (широкоформатное разрешение) даст еще больший буст в сравнении с 1366x768. тебе есть к чему стремиться со своей gtx 1060 и i5 3570 (4.2)
Мастер переигравший маркетологов? Выпишите ему премию Дарвина уже кто-нибудь!
Доставляет знаешь что, Варп? Что на твоем конфиге 60фпс на GTX1060 в FHD - редкость. Все время где-то около 55. То чувство когда референс R9 290 без оверклока ссыт на 1060 с оверклоком
Ruv1k, ну так я специально выставлял настройки, убивающие ГП.
Ruv1k У меня 60 фпс в 2к в большинстве игр. А у него более мощная видюха не тянет 1080... мистика.
Kasaler
Писал же. Вряд ли ты где-то в 2K ставишь TXAA x4 и MSAA x8.
warp 37 Потому что оно нахрен не нужно и картинку не меняет от слова совсем. Знаешь народную мудрость? Чем выше разрешение тем меньше сглаживание нужно. Так что ставлю х2 и наслаждаюсь картинкой в высоком разрешении с качественными цветами.
warp 37 Ты хоть бы срам весь прикрыл, пивасик, сигаретки, то как ты себя позиционируешь на сайте и твой образ жизни совершенно противоречат друг другу, соответственно, ты не тот, за кого себя выдаешь. И выводы аудитория делает правильные...
Когда блог про превосходство 800х600 над 1280х1024 будет?
Kasaler После превосходства Рюзена над Интолом.
N377 А откуда ты знаешь что я такой блог написать собираюсь? О_о
Kasaler Он хакнул твой компухдастер.
Пора)
Понятное дело, что под 19" - 1366*768 вполне достаточно, но если у кого-то панель 50", тот тут без FullHD увидишь кучу квадратов вместо красивой графики. Так что вывод тут напрашивается такой: разрешение в играх FullHD актуально лишь для больших мониторов больше 20".
Каждый сам для себя решает. Если человек воочую сравнил и выбрал для себя низкое разрешение - его право. Хотя я не понимаю, как можно сначала уйдя на более высокое разрешение, вернуться к более низкому. Это все равно, что покупать телек меньшей диагонали =) Вначале в магазине и 40 дюймов кажутся большими. Покупаешь 50, а после того, как привыкнешь, хочется уже 60.
я только не понимаю зачем этот прирост фпс, ведь автор сам говорил что 30 фпс хватает для игр. так какая разница 54 фпс или 70?
Бомбардировщик Кстати, да. Неужели можно различить, например, 40 фпс и 50 фпс?
Верзор если например стабильно держится 40 или 50. то нет. а если они скачут от 40 до 50 постоянно. то да.
>ультра настройки >720p
может ты еще камнем жопу вытираешь и живешь в пещере с такими же отсталыми?
Коротко суть блога - "у меня нет денег для 1080р, играю в 768".
Пойду куплю 50 дюймовую плазму 1024х768 и поиграю на ультрачах на своём корыте. Спасибо этому гению, обманувшему всех, кроме себя.
Ну хз, многоходовочкой это сложно назвать, лично у меня тоже 1366х768, но есть опыт использования FullHD, и с последним у меня странные ощущения. Не знаю, МБ на том мониторе 60ГЦ, но разница между 720р и 1080р чувствуется.
Чсв просто в небесах, а на самом деле просто нищеброд, который не может позволить себе нормальный монитор и нормальный комп)
Купил монитор за 2000 рублей и говоришь о качестве картинки и выборе сверх человека? Вообще к такому быстро привыкаешь, я тоже в своё время плевался от гта 5 на пс3, 720р без сглаживания на 42 дюймах, но быстро привык и было норм. Тут то же самое ты просто привык, но в действительности это полное овно.
Играю в 1360x768 - имею невероятный прирост в 6/1366*100% по сравнению с 1366x768! Шах и мат, системные требования!
Перехожу на моник 800х600, моей 780 до конца жизни хватит! Ура! Спасибо сверхчеловек! Могу не заморачиваться с апгрейдом и играть на ультра!
Ахахахахаах, вот идеальный номинант на премию дарвина)
Вот клоун же.
С человеком явно, что то не так.
Тут, обманывая маркетологов, вы обманываете и самих себя. Вы сами говорите, что снижаете разрешение, ради повышения FPS для игры на ультра-настройках, значит качество графики имеет вес. Но повысив то самое разрешение вы повысите качество картинки, причем комплексно. И это имеет куда более сильное влияние, нежели какие то крутые тени или отражения, ради которых вы идете на такие жертвы. Что до сглаживания - есть такое выражение, самое лучшее сглаживание - повышение разрешения. И это отнюдь не пустой звук. Включая х8 msaa на 1360x768, вы может и уберете лесенки, но это точно так же убьет и производительность. А в новых играх можно и с нехваткой видеопамяти столкнуться. Во многих проектах сглаживание и вовсе представлено в виде мыльной постобработки. При повышении разрешения - повышается плотность пикселей, соответственно их кол-во и кроме пропадания лесенок на том же 1360x768, рендер всех эффектов в сцене тоже происходит в большем разрешении. И это напрямую влияет на качество картинки. Во время игры например в Watch Dogs 2 снизьте разрешение с full hd до 1360x768 и увидите как качество картинки увядает, вместе с вашими глазами. Именно качество картинки, в общем. Не стоит так гнаться за 60 fps, снижая разрешение на уровень консолей старого поколения. Я сам сижу на 1680х1050, это очевидно ниже full hd. Но у меня немного иные причины, монитор очень качественный 22" с ips матрицей и соответственно шикарной цветопередачей, тонкие рамки. Ну, дрянь я бы и не купил :D Менять его на дешевенький full hd я бы не стал. На 1440p возможно, но мой бумажник думает иначе ;) Но везде, где 1070 может выдать больше 60 кадров, я лезу включать DSR. И при включении DSR хотя бы х2, я как ни странно, отключаю в первую очередь сглаживание. Просто за ненадобностью. Четкость и качество в приоритете. На мой взгляд, это куда более правильный подход.
Проблемы нищебродов.
Судя по всему минусователи не знают смысл понятия "нативное разрешение"... Если на ФуллХД мониторе выставить разрешение 768р конечно картинка станет убогой, но если выставить 768р НА мониторе именно с родным разрешением 768р то картинка будет нормальной а не убогой.
Ты попробуй порисуй с таким разрешением) Кроме как для офисных задач - такое разрешение не подходит.
Я конечно понимаю суть: меньше разрешение - лучше настройки, больше кадров, железу легче. Сам так делал на старом ноуте, ведь это ясно как день, но пиксели. . .они реально заметны+ куча минусов из первого комента, имеет смысл лишь на некоторых играх, которые реально не тянутся. Статья в целом не о чем, все эти скриншоты, да есть разница, есть, очевидно же... это лишь временное решение. Поставлю лайк статье, за то что донес инфу до тех кто не догадался до этого и у кого реально слабое железо
Странно, обычно Варп в своих "Субъективных взглядах" занимается толстыми вбросами, а здесь я вижу самовнушения и оправдания бомжа, который наскрёб на мидл-карту, а монитор купить не смог. Хотя даже FHD уже потихоньку уходит в прошлое.
Я сижу на 19-дюймовом мониторе (1280x1024) по тем же причинам. Во-первых в таком разрешении могу играть в любые игры на ультра настройках, во-вторых отличная совместимость со старыми, любимыми играми (которых у меня больше сотни).
Я так понимаю, блог к 1-му апреля) Не заметить мыла при понижении разрешения просто невозможно.
Ewgenij_BLR на мониторе с нативным разрешением 768 мыла не будет
hom1e Будет, лол. Я его в 1080р при нативе вижу, а ты про 768 говоришь. Когда скейлингом до 2К или 4К повыпаешь, то сразу другая картинка на экране. Но тебе это с твоей убогой, детской, дешёвой игрушкой, которая работает в 900р\24fps не понять)
N377 уже почти бомбануло, давай ещё разок p.s. линзы раз в три месяца менять надо, чтобы мыла не было
hom1e Я предпочитаю очки, прости. Тебе бы тоже не помешали.
N377 я предпочитаю девушек, прости. тебе бы тоже не помешали.
Варпу мавзолей надо как Ленину соорудить )) .
Illumiar Варпу мавзолей надо как Ленину соорудить )) . 10 из 10. На крещатике соорудить ему
Burglar2k
Проиграл. Фукнциональность G510 в 10 раз выше чем у любого оверхайпнутого говна от Райзер или Стилсериес по цене трех таких G510. На нее столько макросов можно навешать, что пол клавиатуры заменить может. А с помощью Аиды на экран можно кастомной информации выставить сколько душа пожелает.
Варп тот еще клоун... зачем так мучаться, играй на консоли раз твой глаз такой слепой. Жду 8к мониторов, будеточень удобно работать с 3 х 8к
Game Project На 3х8к мониторах на актуальных топовых конфигах даже рабочий стол будет в 20 фпс)
Необходим блог превосходство 640х480 над 1024х768!!! И вообще поиграй сначало на 2к 144hz с Gsyns 27* и будешь смотреть на другие разрешения как на говно, впечатления абсолютно другие, Блог убогое говно, это как сказать зачем ездить на мерседесе когда есть копейка за 20т?
1366 умножаем на 768. Получаем 1049088 пикселей. 1920 умножаем на 1080. Получаем 2073600 пикселей. От 2073600 отнимаем 1049088. Получаем 1024512. Разница в 1024512 пикселей это мизер или я чего-то не понимаю?
aKinave ну если разницу в 2 раза назвать мизером то да.
aKinave "Разница в 1024512 пикселей это мизер или я чего-то не понимаю?" Смотря на какой диагонали. Это как с телефонами. Есть такие люди, которые при появлении 5-дюймовых FullHD дисплеев начали орать, что 720p для телефона слишком мало, пиксели видно им, понимаете ли. То же самое с теми, кто сейчас кичится своим 4к моником, им мало даже FullHD, а когда появятся 8к, они будут кричать, что в 4к картинка го...но и все нищеброды.
1920х1080 самое идеальное разрешение, ибо не слишком требовательно к железу. В связке с каким нибудь, например, I5 6600 + asus GTX 1060 6gb, абсолютно все современные игры без лагав на ультра идут в 60фпс. А если вдруг не идёт в 60фпс, то достаточно графон с ультра понизить на высокий, и ты получишь все 80-100фпс порой. При этом качество картинки хуже не станет, разве что ты любитель через лупу пиксели разглядывать. Однако при разрешении 1366х768 картинка заметно хуже. Появляются КВАДРАТЫ по краям объектов, лесенки. Конечно, всё это можно замазать сглаживанием и другими спец эффектами ультра графона (на скриншотах не заметишь). Либо у тебя специальный монитор (и такие есть), который сглаживает лесенки на экране. Но всё это можно назвать одним словом МЫЛО. На скринах не видно. Но в динамике разница заметна. Причём самое интересное: на маленьком разрешении через час-два у меня глаза начинают уставать. В то же время на большом мониторе, с большим разрешением, могу хоть 4-5 часов играть, и даже не замечаю усталости глаз. Я даже где то читал, или видео смотрел, точно не помню. Но там говорилось, что чем больше разрешение и размер экрана, тем меньше вреда глазам. А знаешь почему? да потому что маленькое разрешение обычно у маленьких мониторов - и человек смотрит в ОДНУ точку, почти не двигая головой(глазами) - гробит зрение. А если у тебя БОЛЬШОЙ монитор, то даже в обычном тире-шутере каком нибудь ты постоянно вертишь головой, дабы то в левый, правый угол экрана глянуть, посмотреть сколько у тебя патронов, аптечек, снаряжения. Да и в целом обзор больше. Тем самым при большом разрешении и большом мониторе ты не просто смотришь в него, но и двигаешь глазами, тренируешь их. А если у тебя мелкий монитор, как по размерам, так и по разрешению, то ты дрочишь в одну точку. И этим портишь зрение. Простым языком: автор блога глупец. Предлагает нам ради ультра графона и экономии денег на железо пожертвовать собственным зрением. Гореть тебе в АДУ за такие блоги!
Да ладно если автору блога комфортно играть в этом разрешении, то пусть играет. Я только рад за него. Но мне такой вариант не подходит я играю в 1920*1080 и ниже разрешение ставить вера не позволяет, так как я вижу довольно большую разницу в картинке (может у меня монитор такой, я не знаю) и это не даёт мне покоя .Даже если фпс не очень,я снижаю графику но разрешение не трогаю. А вообще если ему не заметно разницы, то ему даже лучше, его gtx 1060 хватит ему на долго
Warp 37, так почему бы не пересесть на 1280x1024, потеря будет 5-7 фпс макс, зато глаза не убьешь.
Tovv а что во времена выхода пс3 а там 1280-1024 кричали мол графика топ)) а когда гта 5 вышла на пс 3 и вовсем графа казалась шедевром) правда на монике 1920-1080 такое мыло ужасное на пс3)) одним словом мыловарим кашеварим)))
Я вообще в 600х800 играю мне норм.
Хорошее чтиво.
Зрение не жалко с таким маленьким моником сидеть?)
у каждого свое ултьтра.. есть кто ради сюжета играют. а есть кто ради графики) так что у варпа свой взгляд на пк индустрию)
Он кстати теперь посчитает, что выгоднее купить два бу hdd по 160 , чем один бу на 320
800 на 600 ставь и на этом железе еще лет 10 можно будет маркетологов "нагибать"
Вообще логика в посте есть, не знаю, чего тут достопочтенные эксперты развонялись. Конечно, разница в разрешениях есть. Но не стоит забывать про диагональ, чем она меньше, тем лучше будут выглядеть низкие разрешения, очевидно. Я на своём 23" или 24" мониторе в принципе не могу ставить ничего ниже 1080р, и это скорее плохо, чем хорошо, пришлось 1070 покупать, хотя я уже чаще на пэгэ обзоры смотрю, чем сам в игры играю. В то же время на моём что ли 18" ноуте у меня как минимум есть выбор из двух адекватно выглядящих разрешений и в новых играх я не обламываясь выбираю меньшее, визуальная разница с антиалиасингом минимальна. Другое дело, что после поездки с ноутом, садясь за десктоп, испытываешь ощущения, будто тебя из школьного спортзала на футбольный стадион выпустили, мышь найти не можешь. Но объективно большой монитор совершенно не обязателен, особенно человеку, который не хочет всирать десятки тысяч на видеокарты.
Хвала гениальному свехчеловеку warp'y!!!
Shimuto Лесенки из-за разрешения в 4k они меньше, но есть убогие игры типа No man's sky - там лесенки всегда.
Автор, методом проб и ошибок, понял, что изобрели таблицу умножения и калькулятор, поздравьте его лучше, чем прикалываться
МММ, а я то думал технологии развиваются что бы мы получали лучшую четкость изображения. Ан нет, это все обман маркетологов. Никакой разницы же. Пойду выброшу в окно свой fullHD монитор и принесу 1280*1024 2007-ого года...
Два года назад все стремились поднять уровень железа до нормальной работ с ФуллХД. Тогда же мы впервые узнали о 4к (грубо говоря), и увидели первые мониторы 4к способные выдавать лишь 30 гц, тогда это казалось сверх-технологией. Сейчас любой ПК в легкую берет FullHD и уже почти достигает уровня достаточной мощности для 4к. Два чертовых года прошло. ДВА. Видяхи подняли свою производительность при той же цене в полтора-два раза уж точно. С процессорами так же. А вы предлагаете свои консервативные взгляды не обращая внимания на то, что вообще то нет смысла в ваших 100фпс в разрешении 201*(двенадцатого? или даже десятого?) года, когда можно играть в отличной четкости и в 45-50 (О, ужас, это же так мало, ага)
vovanoff70 На самом деле разница между условными 80-100 фпс и 40 фпс очень большая. Лично я замечаю некоторые фризы уже на фпс меньше 50. И если честно для меня пытка играть в игры с локом в 30 фпс.
4 титана от 900й серии ваще шыкарно бы в 720п было и с мат платой типа асус х99 у-вс или асрок х99 11 экстрим компьютера бы на лет 5 ултра максов хватило если бы маркетологи не посрамили хитрого пекаря каконибудь шейдер модель 5.5 и технологиями что на уровне драйвера для данной архитектуры не заведены или искусственно не поддерживатся
Xenotester Сейчас уже OLED появились так что они дошли до ЭЛТ )))
X_ray_83 OLED это конечно хорошо, но мониторов по нормальным ценам пока нет Есть два ноута от Dell, один трансформер от Lenovo и один x86 планшет от самсунг. Sony Trimaster EL для кинопроизводства стоят бешеных денег. Так что единственный вариант - LG oled 4K 55" Но там (как и везде) HDMI 2.0 - только 60FPS и 4:2:2 в HDR режиме К тому же на олед пока нет вставки чёрного кадра - по динамической чёткости элт получше
Game Project Вперед 3 штуки прям тут можешь заказать ! http://www.dell.com/en-us/shop/dell-ultrasharp-32-8k-monitor-up3218k/apd/210-alez/monitors-monitor-accessories
X_ray_83 Зачем такой маленький, сейчас под работу хватает трех 34 дюймовых 4к, но вообще под редакторы очень комфортно было бы получить 38-42 8к экран, рабочее пространство решает многие проблемы. Listoman Три и даже 6 мониторов 4к в рабочей сфере титаны тянут спокойно, а для игр просто в большинстве случаев используется 1440 или на 2-3 дисплеях или 4к на одном, не играть же на 3-6 экранах
В голосину чёт! взял 2к моник и две 1080ти. И всё равно считаю что мыльные игры. Во всех что можно выкручиваю динамическое разрешение выше 100%. Всегда можно вырубить сглаживание, но во многих играх без него не то чтобы лесенки, а всё блёскает в движении. Я вкурсе что я зажрался.
Ппц) сколько тут Пылающих пуканов) Я скажу так - снижать разрешение экрана нужно, если нехватает ресурсов... Как показала практика - на Ультрах в играх много лишней лобуды, которая картинку мало как меняет, или вообще не меняет, а ресурсы жрут как Слон из Преисподней. Так что - лучше уж FullHD на средне-высоких, чем HD Ready на ультрах... Но это моё личное Имхо.
сравни в следующий раз 4к и 1080р
играю на телефоне в разрешении 208х208, все идет на ультрах, с максимальным фпс, учитесь!
1. Warp завязывай с таким питанием, переходи на живую пищу. 2. Warp молодец, продолжай делать подобного рода про пк, отлично получилось! :) 3. По такому казалось было незамысловатому блогу, понабежало куча детворы, с бредом, матершинники. 4. Можно для игр держать несколько мониторов, с разрешением 1368х768 и устаревающей видеокартой(gtx 670), время спустя переходить на FHD и снова на устаревающей сидеть видеокарте(тут 1060gb) при этом на рынке есть уже 4k или 16к в обозримом будущем. Ход такой вполне нормальный главное смириться с этим, зато можно все новинки проходить.
У Варп здравая идея! Я сам так делаю последние пару лет, правда соус под которым он это подаёт мне не нравится. Я так делаю последние 2 года, потому что у меня старое железо 2009-2013 годов. Жлоб я) Снижение разрешения дает мне возможность играть в стабильные 40фпс и выше в новых играх. Опят же с точки зрения малоимущих железа. С моего личного взгялда фреймрейт выше 40 вполне приятен. Но играть на 19 дюймовом мониторе, это Варп ты зверь!))) Мне уже моего 22 дюйма кажется маловато... 19 дюймов я оставил в далеком 2010... Но давай будем честными картинка размывается на глазах когда переходишь с 1980х1020 на 1366х768. Это факт. Я его наблюдаю каждый раз... P.S. "Черниговоское" в пластике????? Варп ты же солидный человек со своей рубрикой.... Минимум Miller!!! а лучше Hoegaarden да с Pringles... Hoegaarden люблю и рекомендую)
boss__2003 При любом понижении разрешения ниже родного разрешения монитора, даже если понизить немного , картинка убивается просто в хлам, максималки в 720р на монике 1080р это как минималки в родном разрешении
Лул, вот это срач. Все внезапно забыли, какое сегодня число? ;)
Аномел Суна Дык день warp 37
Аномел Суна
Да спору нет))) Вопрос в другом. Он же реально так играет и реально думает что это гуд)
Пользуюсь WXGA-разрешение с 2011 года, разрешение богов
На GTX-ах 900-й серии есть карты с DVI-I портом - к нему легко подключается переходник на VGA. На 1000-й серии nVidia и 400-й AMD оставили только DVI-D - его через обычный переходник к VGA не подключишь.
Game Project Мониторы почти все такие, открою тебе секрет для 4k и 8k твои жалкие 38 и 40 очень мало !
Варп, женской руки не хватает в твоей комнате. А так - блог зачетный.
В принципе доля логики в этом есть. Сам играл на 768p в Mass Effect 3(не из-за оптимизации, а из-за того что субтитры в игре офигенски мелкие), и довольно быстро привык. Но все же как то горько на душе становится от такого разрешения. Да и для мониторов 21"+ это решение ну слишком критичное.
Тут с варпом полностью согласен. Я сам сижу до сих пор на 1440x900 и 460 gtx'е(полностью устраивает пока что разрешение) Вот думаю поставить 1060/970 - и тоже получить примерное схожие результаты,правда процессор ай5 2 поколения (2500) и наверное все таки будет похуже.
Xenotester Вот есть такой http://www.displayspecifications.com/en/model/fcab460 Пишут что 120 Hz но непонятно как и откуда ! )))
Будущее за 1366х768р!Ура товарищи!
Хорошая первоапрельская шутка.
видеокарте легче и фпс конечно больше но я лично ниже фулл хд не на что не пересяду качество кака все что ниже сейчас сижу на 32дюимовым 1440p Монитор и доволен даже очень
"Гениально обвёл вокруг пальца" он только себя, я сам сидел на 1366*768, после перехода на фулл хд балдею! почему ты умолчал про лесенки во всех играх, очень маленький экран 19 дюймов, которой у тебя не перед глазами и надо горбиться, его нельзя опустить или повысить.
Варп по моему малость перегибает....Не вижу смысла гнаться за сверхразрешениями но и сидеть на 768р тоже не серьёзно по моему. Сам сижу на 1600х900, объясню почему. Малое рабочее пространство и то что я играю только на клаво-мыши можно опустить, т.к. это мои проблемы. Момент первый, я не только играю за ПК но также смотрю фильмы, ролики они пока что в основном вообще лишь 720р 4К фильмов раз два и обчёлся. Второй момент, 4К однозначно здорово глупо спорить, но требования к железу воистину неадекватные!!! Ждать железо нужно. Третье, Игры сейчас в основном точатся под сосоли то есть под 900р ну в лучшем редком случае 1080р. По этому и не вижу смысла в более высоком разрешении чем 900р, ...ПОКА не вижу. П С Для себя я сделал простой вывод, как появятся сосоли могущие тянуть РЕАЛЬНЫЕ 4К, фильмы 4К пойдут массово, железо будет адекватное по соотношению мощность\цена (думаю где-то в 2020г) сменю моник (и железо естесно) на 4К не раздумывая. Как раз мониторы станут ещё лучше и дешевле))
Ааа, я понял! 1 апреля!
Как обычно срач развели. Особо упоротые еще и заявляют, мол, высокое разрешение лучше, чем ультра настройки. М-да... На самом деле разница между HD и FullHD хоть и заметна, но любой вменяемый человек предпочтет играть с красивыми тенями, отражениями и прочими плюшками, чем пялиться на страшненькую FullHD картинку.
alixey59 чем пялиться на страшненькую FullHD картинку. Рукалицо.
Left Behind.PG "Рукалицо." Сразу видно, прочитал, но ничего не понял и давай рукалицевать, типа умный очень. Что непонятного в том посте? Ультра настройки в 720p и низкие настройки в fullHD - где картинка будет приятнее? Видимо для тебя лучше будет смотреть на квадратные тени, мыльные текстуры, статичный свет, но зато в фуллХД, да?
Мда. Мне вот 1920х1080 не хватает, чтобы с документами работать и схемы чертить. А кто-то просто выбирает маленький монитор, потому что надазапуститьбольшеигрнаультра
Propovednik_e34 У всех разные повседневные задачи на их компьютере. Мне вот документы рисовать приходится максимум два раза в месяц, и то только простенькие отчеты в Ворде, с маленькой табличкой, а играю я каждый день почти. Поэтому мне данное решение с играми в 720p вполне понятно, хоть я им и не пользуюсь. Но ведь на ПГ сидят те, кто со своей колокольни вообще никак не понимает и не принимает ничего, с чем не сталкивались лично. Порой кажется, что напиши на ПГ о пользе плавания в бассейне, так найдутся пузатые тролли-домоседы, которые ухахатываясь будут говорить "ты бы еще в ванне поплавать предложил, хыхыхы, я каждый год на Мальдивы езжу и там плаваю, а бассейны с химикатами мне нафиг не нужны, гыгыгы".
Лучший вариант , это притянуть телек 32-й с 768р и на него выводить игры . Так уже делал ... Принципиально не стал бы юзать все что ниже 24 дюймовых , но телек решает этот ньюанс . А именно монитор 768 -- туфта . Там все старое , матрица говно мыльное с этим тфт , маленький . Все поздавал и трипл микс 27+30 оформил , вот это тема , для настоящего Про ; )
А можно вообще видеокарты не менять и играть с 10фпс. Ну а что? Переиграл маркетологов, один глаз закрыл и вперёд! Гениально!
Ну не может быть человек настолько глупым. в том же гта 5 при фулл хд с отключенным msaa ты получишь более четкую картину чем с 4 кратным msaa в 768p, плюс при этом у тебя будет больше угол обзора и лучше цвета. фпс будет выше 60 на той же rx 470 которая слабее чем gtx 1060, которую автор использует при убогом 768p. тебе не нужна эта карта, точнее тебе не нужна 6 гиг видеопамяти с твоими то отклонениями.
Крррва " в том же гта 5 при фулл хд с отключенным msaa ты получишь более четкую картину чем с 4 кратным msaa в 768p, плюс при этом у тебя будет больше угол обзора и лучше цвета" Чего?! Какие еще цвета? И как поле зрения зависит от вертикального разрешения? Не, ну реально, завязывайте, детишки, а то вы так скоро дойдете до того, что в fullHD эффект VR появляется. MagicHero И когда это начали размер экрана по разрешению мерять?
1366х768 у меня такое
Первое апреля уже прошло, а тут страсти до сих пор не утихают))) А так, у меня мой мониторчик 1440Х900 устраивает и подумаю над тем, чтобы его менять после того как заменю комп основательно. И в чём прикол на I5 3520 с разгоном в 2017 году? Пробовал в овервотч на 1368х768 поиграть.... Это был трындец. Глаза устают моментально. Потом вернулся на своё родное разрешение.
Я повторюсь, если разрешение не имеет значения, то зачем платить больше? 640х480 тебе в помощь и твоей конфиги хватит еще на 20 лет. Ты станешь просто Божеством антимаркетинга, которое уничтожило всех маркетологов.
Сперва спасибо. Даже такая кривая статья лучше, чем ничего на ниве десятилетий господства маркетинга в сми и блогах. Идея "разрешение ниже рыночного есть оптимальное для игр"[именно для игр, с рабочими задачами проходим дальше, в отдельную тему] верна и суть чистое золото[собственно, как и для всех видов товаров, одежды, техники, брать "то-что-сходит-с-арены", привет, адекватная цена без наценок]. Её текущая версия 768p, не первая и не последняя, работает уже как лет 7 и сохранится таковым еще года 3. После, с переходом на 4к и естественным снижением цен на видеокарты, процессоры, SSD[но не бессовестное ОЗУ], 1080p займёт её место, лет на 5-7-10. А там и стриминг игр а-ля нетфликс (playkey, stadia или кто новый) с VR встанут на ноги. Примерно, [2005г 1024х768 2015г] = [2012г 1366х768 2022г]=[2019г 1920х1080 - ?] По сути. Да, 1366х768p отлично решает задачу, правда, только при использовании цифрового разъема передачи данных и прочих подходящих железках. Автор, смените монитор на такой же хотя бы с DVI портом. О чем речь?
серьёзный рост нагрузки за такую выгоду? Стоит ли овчинка выделки. Цена? За прочим равным[SSD и прочее], 4k. i7/Ryzen7+32DDR4+2080ti+25000новый монитор=25÷30+15÷20+80+25=145÷155 FullHD. i5/Ryzen5+16DDR4+2070+10000новый монитор=11÷15+8÷10+28+10=57÷63 HD Ryzen3 2200g/Pg5400+8DDR4+Rx570+5000новый монитор=5÷6+4+13+5=27÷28. Подержанное HD i5+8DDR3+gtx950+2000монитор с цифровым разъемом=3+4+5+2=14. все будет работать 40÷80+fps, одна цена, 14, х1 все будет летать. две цены, 28, х2 всё будет летать FHD. четыре цены, 57, х4 всё будет работать 4К . одиннадцать! цен, 154, х11 Хо-хо, вот где деньги, на которые маркетолог живет и придумывает новые хитрости[Та-а-к "Большие машины это круто!!!" и "Красные машины ездят быстрее!!!" было, что же придумать? О! "Большие экраны это суперкруто!!!"и "Красивые видеокарты работают быстрее!!!] Круто, это когда стрим любой игры в идеальном качестве по сети через 5,6G идет напрямую в VR комплект с линзами и углами обзора за пределами возможностей наших глаз[ещё нет, но лет 5-7, и не за "тыщи" баксов]. Цены постепенно снижаются, несколько лет и те же 2070 можно будет взять как 570 или еще дешевле. Тогда и настанет момент перехода оптимального с HD на FHD. До тех пор брать что-то быстрее смысла нет. Сложнее конечно тем у кого есть рабочие задачи, требующие крупного экрана, но это совсем другая история. Драйвер - Видеокарта - разъем - монитор - разрешение. Заветная цепочка качественной быстрой картинки. Одного звена нет, цепочка рассыпается. Статья выше про Разъем, монитор, разрешение. И только потом про видеокарту, как пример. [Автор много чего не сказал, не мудрено, что все кто не в теме, так и не въехали]. Разъем. Аналоговый D-SUB он же VGA, он же "синий кабель", редкий DVI-A, не видел ни разу, Цифровой. Белые DVI-I, DVI-D. Черные HDMI, Displayport. Хотим качество? Аналоговый монитор - аналоговый разъем. Цифровой, ЖК, монитор - цифровой разъем. Никаких D-SUB/VGA.
Аналоговый сигнал не цифровой, его требуется преобразовать[привет, потери]. Качество преобразования решают ЦАП видеокарты и АЦП монитора. Они в характеристиках редко где указываются. Годы аналоговых ЭЛТ мониторов ох как давно прошли, так зачем производителю раскошеливаться и ставить качественные, пойдут и средние/ещё хуже. Они и не ставят, экономят. Сейчас покупка ЖК c одним VGA это чистая лотерея. Ответственности никакой. Не понравится, предложат сменить. [Нищеброд, за свои деньги качества хочешь? Бери Displayport!] Да мониторы с хорошим АЦП есть, только они в верхней ценовой категории, и при продаже стоили ого-го. Чаще всего покупались средние и ниже средней цены. А какая задача у закупщиков наших компьютерных сетей была раньше? Качество или минимальная цена? Догадайтесь сами. Рынок был завален самым дешевым в закупке хламом. Есть мнение, что оптовиков-закупщиков всех ЖК мониторов с одним VGA ждёт отдельная сковородка в аду. . Хотим найти хорошую связку ЦАП-АЦП? Ставим несколько мониторов рядом, меняем конкретные видеокарты, сидим, сравниваем. Носим на покупку подержанного эталон-монитор и видеокарты с собой. У вас есть на это время и деньги? И у меня нет. Посему простая максима.
Видим ЖК монитор с одним VGA кабелем?
Обходим стороной. Берем те, у которых есть и цифровые порты.
Прямая цифровая картинка без преобразований. И никаких проблем. Постойте, а как же переходники и преобразователи? Нет.
Таки ухудшения и заминка с видеокартами. Переходники-малыши VGA-DVI-I [ntergrated]
совместимы только со старыми видеокартами, т.к. там идут по DVI-A [nalog] каналу.
, где этот DVI-I есть. Новые, где такой порт еще встречается, идут с чистым DVI-D [igital]
, а для него простых переходников не существует, будьте аккуратны, только полноценные преобразователи. Они же, суть те же яйца только в профиль - и все прелести потерь сигнала при преобразовании и лотерея при покупке конкретного удачного китайского экземпляра с его набором деталей (мне ни разу не везло, все хламом так и валяются).
Чем меньше посредников, тем лучше; идеал 0. Хотим качества, выбираем прямой цифровой сигнал. Пока, мыло. Привет, DVI-I, DVI-D, HDMI, Displayport. Монитор. Грубо, Размер, РодноеРазрешение, Подсветка, Матрица. * Подсветка Без ШИМ.
Глаза устают, утомляемость, именно от неё. А человек грешит на весь монитор. Часто совсем игнорируемый фактор. Спасибо рекламщикам. Вкратце, сама же матрица не светится, есть подсветка. Или люминесцентными лампами или светодиодами. За лампы не помню, но светодиоды, хоть и мельче, как и везде, управляются контроллером, драйвером подсветки. и решено это счастье может с помощью широтно-импульсной модуляции, она же ШИМ.
* Размер Чистейшая вкусовщина. Не критичен. Совершенно.
Рассмотрим 3 монитора одной серии, оформленные в одном стиле с одними и теми же отступами. Разница только в разрешении.[E1916He, E2016H, E2216H, E2418HN] Имеем.
В действительности глаз адаптируется к любой поверхности экрана, начиная с 4" заканчивая 100" крайне быстро. По экрану глаза двигаются всегда. Меньше на телефонах. Никакая разница нагрузки глаз между мониторами разных размеров не сравнится с полноценной гимнастикой для глаз. Её надо делать всем всегда, а не дюймы считать. Иначе к старости каюк глазам[как и ушам в наушниках, отдельная тема]. Да, разница в полезной площади есть. Однако, сохранены пропорции, те же 16:9[Не 4:3, 5:4], значит и основа структуры интерфейса игрока сохраняется[Основные проблемы с размером интерфейса на удаленных ТВ, а не на мониторах ]. И, самое главное, помним цену? этого доп.пространства. В рублях. Купившим/платящим кредит уже, дела нет, а вот выбирающим самое то. Готовы ли вы платить неадекватно перегретые цены?
*Native resolution, родное разрешение, вкратце, единственное адекватное для мониторов с ЖК дисплеями. Роскошь менять его без потерь ушла с ЭЛТ[хорош "прогресс", да?]. Захотите уменьшить и растянуть на весь экран, будет вам погрешность масштабирования, upscale, мыло. Так просто не надо делать, край оставлять черные полосы по краям. Т.е., чтобы хорошо поиграть на 1366х768. Оптимально все-таки иметь монитор с таким родным разрешением. Дальше. Картинка это точки. Ширина на высоту. Сколько точек, такой и размер, Больше точек - больше картинка, меньше - меньше. ФПС, FPS, frame per second, частота кадров в секунду. Число картинок в секунду, которое тянет связка ваших железок и драйверов. Только они влияют? Нет Царь всему - разрешение. Именно оно "решает". Чем оно меньше, тем меньше мощности требуется. Тем проще вам нужна карта. Тем меньше коэффициент переплаты за необходимую скорость "сейчас". Есть верхняя планка предела оправданности. Вот вы купили ого-го карту. Сейчас она стоит 4х. Работает хорошо, правда, из-за ограничений фпс монитора, особо-то и не заметно преимущество, да и игр нагружающих её толком еще нет или маловато. А завтра она будет стоить 1х, вышли и игры, нагружающие под завязку, "Как красиво!". К чему тогда спешить и платить 3х лишних денег. Пустая трата. Купивший, только зря потративший средства[в худшем случае в кредит], по сути попался на уловки маркетинга и всеобщюю истерию[А что, все берут, и я возьму, чем я хуже]. Занавес. Зы если есть, за ошибки не серчайте.
идея гениальная
Как вам в 2020 живётся с таким разрешением? У меня такой же монитор.
Спасибо за интересный опыт!) Как раз думаю взять телевизор 32 дюйма с разрешением 1366 на 768, посмотрим как покажет себя 1070 на данном разрешении)
p.s. в комментариях почти одни токсики, лишь бы оскорбить человека за его уникальный экспириенс, вы просто быдло!
У меня есть вариант купить монитор с разрешением 1366 на 768 на замену 1080p самсунгу, почему я хочу перейти на 768p?? потому что мой пк не тянет игры в 1080п а более низкие разрешения выглядят вырвиглазно, да и тем более в моем самсунге нет hdmi или даже dvi а ещё у меня на более низких разрешениях может выдать ошибку not optimum mode
восхищен вашим гением, читал это еще в 2017 и до сих пор вспоминаю
ну ты и гений... (без ни)
Еще лет 7 назад продал свой Full HD другу, себе взял монитор такого же разрешения. Сейчас с RTX 4060 везде FPS хватает но есть проблема в виде "лесенок" на пикселях, которые ничем не исправить, какое сглаживание не ставь. Ну и 75 герц маловато если честно. Вот думаю, переходить ли на фулл хд и сколько производительности я с этого потеряю ? А если на родном выставить 1920х1080, то будет пресловутое "ввод не поддерживается", так что никак не проверить. Будет обидно, если после покупки нового монитора я не смогу играть в те игры, к которым я привык и в которых у меня больше 75 FPS на ультрах.
Но вы сударь, судя по сему сильно избалованы., ведь игры играют не ради картинки
Короче первое апреля, все дела. А все разбухтелись.
Apokalipsis113 Так варп же и в обычные дни всем втирал про то, как хорошо и выгодно быть на 1366х768)
Мне бы такую точку зрения, хех, а то самому 1080р не хватает уже для полного удовлетворения глазок.
Так всё правильно же. Не ультра настройки = не ПК гейминг.
Миллионерам из Черноморска(О.Бендер) никто не предлагает выкидывать мониторы. это совет для "нищебродов", которые стоят перед выбором пожрать сносно и поиграть чуток. тем более что игр стоящих уже не делают и не предвидится,Но спесивых дураков чтобы разорятся ради них не убывает.
Ну хз, сам сижу на 1366х768, только пришлось переходник VGA-HDMI покупать, чтоб печ970 можно было юзать.
Знак качества Убейсофт, конвертер нужен только Pascal, Maxwell имеет аппаратную поддержку VGA.
warp 37 На MSI GTX970 нету VGA слота.
Знак качества Убейсофт, DVI же есть.
warp 37 Ну так DVI есть, но мой монитор подключается к VGA разъему, сначала ставил VGA-DVI переходник, но изображения не было, пришлось искать VGA-HDMI переходник.
warp 37 В принципе решение неплохое, я сам пару месяцев назад взял себе моник dell на 20 дюймов с разрешением 1600х900, получилось выиграть еще 30-40% производительности по сравнению с FullHD. До этого был моник на 27 дюймов, даже глаза стали меньше уставать. Взять себе 1366х768 я бы не решился т.к. во многих играх интерфейс автоматом заточен под 1080p и при меньшем разрешении буквы попросту невозможно различить, SW Battlefront и Mirrors Edge Cat - явные тому примеры.
Прочитал комменты от начала и до конца. И снова автор сделал это. И снова вы это схавали. Варп молодец
Ты всё таки это сделал.. Не даром ты заслужил свое звание на голосовании.
Я в шоке! Переиграть маркетологов? Я тебя умоляю - так каждый второй делает, у кого железо "не тянет" и он не хочет его обновлять.Снижаешься разрешение и вуаля. Только те, кто говорит что разницы между 1366х768 и 1920х1080 нету! Это полный бред! Самоуспокоение....не иначе. Там разница есть начиная, от самого более большего пространства до более яркой и сочной картинки.
Варп в чем-то прав, если перейти с 1366х768 на 1920х1080, то разница на глаз будет заметно сильно, а если перейти с fullHD на 4к, то разница на мониторе будет не так заметна, а вот фпс понизится значительно, так что тоже 4к сейчас это разрешение маркетинга, а на деле можно и в fullHD сидеть, глаза не вытекут уже.
warp 37 Ты просто пытаешься оправдать свою неполноценность. Поэтому и кричишь на каждом углу, что 1366х768 это нормально. На самом деле, нет, не нормально. Это как геи на каждом углу кричат, что быть геем это нормально. Они так же как и ты осознают свою ущербность и пытаются её оправдать.
nikita2112, как там GTX 760 на FHD? Полноценно тормозит?
У меня хоть монитор на 1080-1920 тоже в играх ставлю 1366*768 особенно в ghost recon wildlans на ультра выдаёт 30-40 фпс
под чернигивским мицным и 15 фпс покажутся как 60, а на разрешение ваще пофиг
hom1e Ну он же не на консоли играет, чтобы такое казалось))000
N377 плохая попытка. try again later
лол парни, посмотрите на календарь и потушите пуканы)
Antrik0t Это не шутка)
Ну, логично. У меня друган сидел с 1280х1024 монитором 17'' с видеокартой HD6970 и ему было норм, говорил, что все на ультрах тянет. Потом он решил взять fHD-монитор дюймов на 24 и все игры вдруг начали лагать. А вернуться обратно уже не мог, потому что... Нуу... 17'' квадратный монитор - это убого. Но ты можешь не осознавать этого, пока не познаешь все прелести большого широкоформатного монитора. Ну это как всю жизнь играть на пеке, и не осознавать свою ущербность. потому что тебе не представлялся шанс сравнить это с консолями и адекватно оценить их превосходство. Так вот, переход на fullHD для того посона закончился длинной чередой покупок очередной погани дядюшки Хуанга и Ко, которые прохудили его кошелек тысяч на 100 деревянных. Страшная участь, я щитаю. Тратить столько денег на комп, чтобы потом иметь кучу геморроя по программной части (потому что этот товаришь не смог запустить своего нового жеребца и еще неделю пытался обнаружить проблему) Автор правильно говорит. Один монитор сможет разрушить вам всю жизнь. У того знакомого в итоге слетела Винда и он спился по впискам по каждым выходным и в непрекращающихся оргиях завел себе девушку. Такого парня потеряли. Сложно представить, как можно так глубоко опуститься в эти биопроблемы. Будьте умнее, товарищи! Не пытайтесь поменять разрешение монитора. Возможно 4к-гейминг в будущем сломает вас. Трижды подумайте перед тем, как сменить разрешение.
Toxa95 Ну, логично. У меня друган сидел с 1280х1024 монитором 17'' с видеокартой HD6970 и ему было норм, говорил, что все на ультрах тянет. Потом он решил взять fHD-монитор дюймов на 24 и все игры вдруг начали лагать. А вернуться обратно уже не мог, потому что... Нуу... 17'' квадратный монитор - это убого. Но ты можешь не осознавать этого, пока не познаешь все прелести большого широкоформатного монитора. Ну это как всю жизнь играть на пеке, и не осознавать свою ущербность. потому что тебе не представлялся шанс сравнить это с консолями и адекватно оценить их превосходство. Так вот, переход на fullHD для того посона закончился длинной чередой покупок очередной погани дядюшки Хуанга и Ко, которые прохудили его кошелек тысяч на 100 деревянных. Страшная участь, я щитаю. Тратить столько денег на комп, чтобы потом иметь кучу геморроя по программной части (потому что этот товаришь не смог запустить своего нового жеребца и еще неделю пытался обнаружить проблему) Автор правильно говорит. Один монитор сможет разрушить вам всю жизнь. У того знакомого в итоге слетела Винда и он спился по впискам по каждым выходным и в непрекращающихся оргиях завел себе девушку. Такого парня потеряли. Сложно представить, как можно так глубоко опуститься в эти биопроблемы. Будьте умнее, товарищи! Не пытайтесь поменять разрешение монитора. Возможно 4к-гейминг сломает вас. Трижды подумайте перед тем, как сменить разрешение.
Пиши еще, "милое чтиво" )))
Эта убогая клавиатура стоит более $100 и очень удобная. У тебя, небось, весь компьютер стоит, как две-три G510S.