AMD vs Intel by orang111 / mlp art :: понификация (mlp понификация) :: mlp art :: orang111 :: my little pony :: orang111 :: my little pony (Мой маленький пони) :: artist :: Ponification :: fandoms :: фэндомы
Подробнее
¡ftr* üféfÿl
my little pony,Мой маленький пони,фэндомы,mlp art,понификация,mlp понификация,orang111,my little pony,fandoms,mlp art,Ponification,orang111,artist
Хрен пойми этих процессорных холиварщиков. Вечно кричат то AMD лучше, то Интел лушче. В играх и майнинге, например, имеет смысл отталкиваться от видеокарты и тут обычно впереди и с отрывом карточки от nVidia и я не знаю почему, но производители тех же ноутбуков практически всегда ставят их на материнку с процессором от Intel, хотя и в играх, и в майнинге от процессора обычно мало что зависит. Разве что кто-то забыл указать считать физику на GPU и, в результате, это счастье оказалось на CPU. Разве что ты планируешь играть в 720p — там AMD карточки ещё могут себя показать. VR в 4k? Точно не про AMD.
Редкий случай, когда действительно важен процессор, это 3D-рендер, да и там нормальные люди уже всё считают на GPU так-как время рендера с тем же качеством порой различается на порядки.
В общем, сложно найти что-то более тупое, чем процессорный холивар без строго определённого контекста так-как обычно совершенно пофиг какой у тебя проц. nVidia карта + AMD материнка и проц = популярный бюджетный вариант игрового компа, например.
О чём я и говорю. Спорить о производительности CPU когда балом правят GPU без указания чёткой области, в которой данные CPU лучше/хуже друг-друга,— запредельно тупое занятие. Последнее время CPU практически никогда не оказывается тем самым «узким местом», в производительность которого всё упирается. Только когда FPS поднимается да абсурдных величин и мы начинаем сравнивать 180 кадров со 150. И здесь автор опять указал классическое «AMD > Intel потому что». Ну модель указал. А в чём конкретно он лучше, если в большинстве случаев процессор роли не играет?
А ты не пробовал поиграть в современные игры на каком-нибудь четвертом пне десятилетней давности, но с новой видеокартой? Получится фигня, потому что процессор таки очень даже влияет и на видюхе обсчитывается далеко не всё.
Райзен просто оказался куда лучше по тестам при меньшей стоимости, что автор и изобразил. А как вишенку на торте добавим сюда отвратную политику Интела со сменой сокета чисто из маркетинговых соображений, т.е. при апгрейде проца от Интел на более новый тебе почти наверняка придется покупать еще и новую материнку. Как наглядный пример можно посмотреть на кофелейк и z370, который полностью идентичен z270, но с другим сокетом.
Или между 20 и 30 фпс, если речь идет о 4к разрешении =) А на некоторых задачах требующих многопоточность(скажем, ты хочешь стримить свою игру на твич) разница составляет уже разы, т.е. выбирать будешь между 20 и 60 FPS.
Проблема в том, что разницы в 20 или 30 кадров на 4k как-раз не будет. Там всё упрётся в видяху и только в неё хоть у тебя Ryzen, хоть i5. И в случае карточек nVidia (хз как там у AMD с этим) Твич не проблема так-как в них есть своя подсистема захвата и кодировки картинки и трансляция в Твич в ихнем Share. Т.е. процессор в этом опять не участвует и на FPS это вообще не влияет.
Ну точнее процессор используется исключительно для того, чтоб выплюнуть уже пожатое видео в сетевуху, чтоб оно улетело в Твичь. Я не знаю что сейчас с этой задачей не сможет справиться. Кофеварка?
Посмотрел тесты, да, извиняюсь, на 4к все действительно упирается исключительно в видяху, так что без разницы какой проц ставить. Тем не менее и игры, которые даже на 1080p выдают плохой FPS тоже вполне существуют, вот, например, тест витчера третьего на оверклокерзах.
Насчет твича, хм, и вправду нвидиа выпустила отличную технологию(хотя по тестам некоторые потери в фпс всё-равно есть, но далеко не такие как с фрапсом). Но это же только пример был, можно на втором мониторе фильм запустить(для фона), можно решить поиграть пока компилируется проект, да и в фоне же постоянно что-то работает, так что лишними ядра всяко не будут.
да ладно.. что-то хуйня что-то, просто есть 2 нюанса, амд дешевле но греется так что любая печка отдыхает, ну а интел хоть и дороже но нету проблем с температурой. для пк это все мелочи а вот когда речь идет о ноутах то тут разница существенная.
► DRAM TIMING Cor
DDR Memory Voltag APU DDR-PHY/PCIt-J FCH Voltage I APU-Core VoltagiAl APU-NB Voltage I
PHM Core Load Lim’ PWM NB Load Line Ccr/j
► BIOSTAR Memory Insig'i
► G.P.U Phase Control
f |*| method.
DRArt^freed will ^ SPDs. If Manual, sj|eed specified will programmed regardles If A
Редкий случай, когда действительно важен процессор, это 3D-рендер, да и там нормальные люди уже всё считают на GPU так-как время рендера с тем же качеством порой различается на порядки.
В общем, сложно найти что-то более тупое, чем процессорный холивар без строго определённого контекста так-как обычно совершенно пофиг какой у тебя проц. nVidia карта + AMD материнка и проц = популярный бюджетный вариант игрового компа, например.
Райзен просто оказался куда лучше по тестам при меньшей стоимости, что автор и изобразил. А как вишенку на торте добавим сюда отвратную политику Интела со сменой сокета чисто из маркетинговых соображений, т.е. при апгрейде проца от Интел на более новый тебе почти наверняка придется покупать еще и новую материнку. Как наглядный пример можно посмотреть на кофелейк и z370, который полностью идентичен z270, но с другим сокетом.
Насчет твича, хм, и вправду нвидиа выпустила отличную технологию(хотя по тестам некоторые потери в фпс всё-равно есть, но далеко не такие как с фрапсом). Но это же только пример был, можно на втором мониторе фильм запустить(для фона), можно решить поиграть пока компилируется проект, да и в фоне же постоянно что-то работает, так что лишними ядра всяко не будут.
Кстати, мне реально интересно увидеть такого франкенштейна. Я сильно не уверен, что это вообще возможно.