Всем привет, с вами Макс и вы снова на канале Live Games, в эфире вторая и заключительная часть про эволюцию видеокарт. В этом ролике мы перейдём уже на более современные модели, многие из которых вы могли даже застать в своём детстве или юности. Так какие видеокарты оставили свои зазубрины на текстолите истории? Сегодня с Вами и выясним! Но перед давайте договоримся, я попрошу поставить лайк за проделанную работу, но, если что-то всё же не понравится, вы его просто уберёте. Также будет приветствоваться критика и уточнения в комментариях, ролик огромный и упустить что-то - проще простого, как это было в прошлом ролике. А пока заваривайте чаёк, набирайте себе вкусняшек побольше, ну а мы начинаем! Итак, на дворе 2004 год. На рынке интерактивных развлечений победоносной поступью идёт Sony, SEGA уже несколько лет занимается разработкой игр, а не консолей, а на рынке компьютерного железа кипит не менее примечательные страсти. После того, как семейство
GeForce FX не выполнило свои задачи по окучиванию рынка, перед компанией встала задача по исправлению ошибок. Одним из результатов такой работы стал релиз GeForce 6000 линейки, и 6800 Ultra в частности. На тот момент карта имела впечатляющие характеристики – техпроцесс 130-нм, частота ядра 400 мгц, память 256 мб (но были версии аж на 512 мб). Карту отличал хороший разгонный потенциал, частоту ядра можно было поднять на 50 мгц, а это обеспечивало хороший буст производительности, особенно за цену самой видеокарты. Однако тут было главное не перестараться – всё же ещё не все защиты от дураков были изобретены, и от сильного нагрева и повышенного вольтажа чипы начинали деградировать. Но задача была выполнена
– поставить на рынок доступное предложение, способное хорошо справляться с 3D приложениями, использующими шейдеры. Что же такое шейдеры? Шейдеры — это специальные программы для вашей видеокарты, исполняемые ее процессором. Грубо говоря, это такие «инструкции» от игры в GPU, по которым та понимает, как именно нужно отрисовывать тот или иной эффект.
Изначально, видеокарты подразумевали три типа - вершинный (для эффектов отдельно взятых вершин; например, для создания эффекта волн, отрисовка травы и прочее), геометрический (для небольших примитивов; например, для создания силуэтов) и пиксельный (для фильтров определенной области изображения; например, туман). И, соответственно, было три типа специализированных процессоров в плате. Позже же от подобного деления отказались и все процессоры видеокарт стали универсальными (поддерживают все три типа).
И ответ от красных конкурентов не застал себя долго ждать. ATi Radeon X800XT (знакомые буковки, да?). 130-нм чип R420 смог показать частоту аж в 520 мгц, а в случае с X850 XT PЕ и вовсе 540 мгц, что позволило опередить своего конкурента в бенчмарке 3DMark05 - 6200 попугаев у радика против 5870 попугаев у 6800 Ultra. А что по играм? Тут как всегда – кто кому денег занёс, тот музыку и заказывает. Ну и особенности движка и применяемых технологий играли свою не последнюю роль. Но в большинстве игр всё же зелёная карточка
вырывалась вперёд. 2005 год. Очередной технологический виток на рынке видеоадаптеров. Особенно этот год примечателен фанатам Nvidia – на свет божий явилась первая видеокарта с тремя заветными буковками в названии – 7800 GTX. 110-НМ, 430 МГЦ ЧАСТОТА, 256 мб памяти. Впрочем, надо отметить,
что для усиленной конкуренции с ATi была выпущена ограниченная серия 7800 GTX с отборными чипами и 512 мб памяти. Частота чипа уже 550 мгц, скорость в играх высокая, цена, однако, тоже. Именно ценой и брал конкурент своего покупателя, кстати, а что там у конкурентов то было? Реакцией на новоявленное детище Хуанга стал релиз серии Radeon x1000 XT. И тут компании крупно не повезло – адаптеры начального и среднего уровня X1300 Pro и X1600 XT не смогли составить конкуренции аналогам из зелёного лагеря, и в глазах потенциальных покупателей были если не провалом, то сомнительной инвестицией в своё «железо». Однако, не всё было так уж плохо - Radeon X1800 XL достойно для своей цены держался на фоне 7800 GT (именно без “X”), хотя мы погрешим против истины, если скажем что радик смог противопоставить что-то серьёзное своему конкуренту. Перед фанатами ATi встала дилемма – ждать удешевления ассортимента, либо появления флагманской карты на рынке. И она вышла. Radeon X1800 XТ.
Первое что бросалось в глаза – память. Её тут аж 512 мб, что называется, с запасом на будущее. У 7800 GTX было в два раза меньше, а лимитированные версии с сопоставимым объёмом памяти стоили гораздо дороже. При этом цены радика и жирафа были примерно равны, что весьма подкупало. А ещё карточка неплохо разгонялась – вполне можно было достичь космических 700-750 мгц! О те времена, когда Радеоны могли в разгон… По производительности Х1800ХТ не смогла превзойти 7800 GTX, однако отставание было незначительным, а в некоторых случаях разгон помогал карте вырываться вперёд! Разумеется, зачастую в верхних строчках оказывалась отборная 7800 GTX 512МБ, но извините и стоила она гораздо больше, а разница зачастую была уже не такой огромной. Успех? Несомненно! Пусть и безоговорочным лидером ATi не стала, Хуанговской компании пришлось потесниться.
2006 год прошёл под эгидой Radeon – поочерёдно на рынок вышли серьёзные адаптеры, претендовавшие на господство на рынке видеоускорителей - а именно 1900-серия - Radeon X1900XT (256мб), X1900XTX (512мб), X1950 XTX, 1950 GT. При том же техпроцессе в 90-нм ATi увеличила площадь кристалла на 20%, нарастила количество пиксельно-шейдерных блоков, довела поддержку DirectX 9 API и Shader Model 3.0 до идеального уровня производительности. Но и без новшеств не обошлось – компания внедрила новые инструкции, типа Ultra-Threading, HDR с AA, и Avivo (Технология позволяющая увеличить скорость операций обработки видеофайлов). Что касается цен, официально рекомендованных ATI, версия карты X1900 XTX была оценена в $649, X1900XT - в $549, а версия X1900 XT CrossFire Edition – в $599. Однако были и проблемы – турбина карты была очень... нет, не так... ОЧЕНЬ ШУМНОЙ!
Это был буквально реактивный истребитель, который к тому же ощутимо грелся – преодолеть порог в 90 градусов? Пф, легко! И это печально – карта была мощной, с выгодной ценой, поддержкой качественной анизатропки, часто обходила конкурента в лице 7900 GT, но тот зловещий вой из системника выводил из себя даже самых преданных фанатов ATi. Кстати! Именно 25 Октября 2006 года AMD приобрела ATI Technologies за 5,4 млрд долларов. ATi Radeon больше нет. Рождается AMD Radeon. Но политика компании
остаётся неизменной – дать своему покупателю максимум за те деньги, что он приносит. Также, было бы упущением не сказать нескольких слов об Nvidia – а ведь эти ребята вовсе не сидели сложа руки! До царствования на рынке ещё многие-многие годы, и некогда отдыхать – надо пахать изо всех сил! Игроки тех лет ставили ставку в конкуренции с Radeon на 7950 GT и 7900 GTX. Самой же Nvidia клепать ответы на выпады конкурентов было не трудно – актуальный чип G71 имел не высокую себестоимость, и охотно поддавался редактированию, позволяя на своей основе производить карты разного уровня. Так и родилась NVIDIA GeForce 7950 GT с 512 мб памяти на борту и рекомендованной ценой в 299 баксов и 7900 GTX c тем объемом, но на 100 баксов дороже. Правда, стоит отметить, что в тот же момент Nvidia
выпустила и двухчиповую GeForce 7950 GT GX2 за 449 долларов, но о ней позже… Небезызвестная фирма XFX кстати умудрилась выпустить 7950 GT НА ПАССИВНОМ ОХЛАЖДЕНИИ. Да-да, изделие высшего сегмента, и при этом бесшумное! Почему так, и зачем? В те времена, когда кулеры представляли собой зачастую турбины, наряду с нагревом была ещё одна проблема – шум. Каждый изгалялся как мог, XFX же психанула и создала монструозного вида радиатор с двумя секциями, которые были соединены теплотрубками. И всё бы хорошо, но в плохо продуваемых корпусах температура по чипу достигала аж 100 градусов! И если чип вроде как выдерживал, то за остальное железо, которому не посчастливилось соседствовать с таким горячим радиатором в одном корпусе, натурально болело сердце. Ситуация сильно менялась в продуваемом корпусе с несколькими вертушками – температура падала до приемлемых 85 градусов, а внутри было уже не так жарко.
Обзорщики тех лет не могли дать явного ответа, какая же карта была лучше – 7900 GTX или RADEON X1900 XTX. Во многом, решала оптимизация движка, и то, как использовались шейдеры. Однако ценовую войну никто не отменял, и после релиза новых карт Nvidia, ATi объявила о снижении цен на 1900-серию. И тут уже картина становилась до боли знакомой – либо платишь немало денег за топ железо, либо экономишь и берёшь «топ за свои деньги». Тут
уж кому что ближе, как говорится. Ну а в конце 2006 года, а именно в Ноябре, выходит легендарная и революционная в каком-то смысле GeForce 8800 GTX – первая на рынке поддержка DX10 + унифицированные шейдеры в размере 128 штучек, что сулило поддержку CUDA и ставило новую планку производительности в играх. И бонусом - спокойствие на несколько лет вперёд на предмет системных требований игрушек. Новый чип G80 получился
чрезвычайно сложным, количество транзисторов в нём достигло 681 миллионов, при этом аналоговую часть и TMDS-трансмиттеры пришлось вынести в отдельную микросхему. 8800 GTX был самым мощным игровым ускорителем в 2006 году и окунал геймера в игровой мир высокого качества. Но почему унифицированная архитекутра является небольшой революцией в графике. Дело в том, что унифицированная
шейдерная архитектура позволяет более гибко использовать ресурсы графического процессора. Например, в условиях с симуляцией тяжелой геометрии уровня, унифицированная шейдерная архитектура может задействовать все блоки графического процессора для вычисления вершинных и геометрических шейдеров, чего не позволяли делать ранние наработки. ВЕЕЕРНИИТЕЕЕ МНЕЕЕ МООООООЙ ДВЕ ТЫЫЫСЯЯЧИИИ СЕДЬМООООООЙ! Итак, на дворе 2007 год. Время эмо, готов, панков, блейзера. Интернет уже почти в каждом доме, а на игровом рынке произошла смена поколений – уже вовсю продаются XBOX 360 и PS3. Эхх золотое время. Но и компуктерное железо
в общем-то продолжает развиваться – со сменой поколений произошёл технологический скачок, а это означало не только НЕКСТГЕН ГРАФОООУУУН, но повышенное требование к комплектующим. В сети начинают гулять слухи о новой супер-мощной видеокарте Nvidia – GeForce 8800 GTX Ultra. В кулуарах поговаривают, что эта видеокарта была подстраховкой к выходу новых адаптеров от AMD (а мы помним, что ATi была выкуплена ими), которые по слухам должны были дать Хуангу смачного пинка. Но в итоге
пронесло – Амуде представила пока средненький адаптер, основанный на новом чипе R600, а уже выпущенные «обычные» топы не ощущали какой-либо конкуренции. Ну и что теперь делать с ультра версиями? В Nvidia задумчиво почесали репу, снизили ТДП аж, присядьте, на 5 Вват, и поставили улучшенную GDDR3 память. В довесок подразогнали чип до 612 мгц, и перекрестив, выпустили в люди. Однако, карточка на тот момент стоила неприлично много – 829 долларов ультра версия, против 550-600 обычной GTX. Говорят, причин было две – малое
количество самих карт, и себестоимость улучшенной памяти. Для геймеров такой апгрейд был по сути бессмысленным, но энтузиастам и фанатам компании «новинка» была любопытна. Тем более, что это был самый быстрый игровой адаптер на рынке. И самый дорогой.
Амуде же в тот год смогла сначала огорчить, а потом неожиданно порадовать. В порядке хронологии, сначала на рынок вышла HD 2000 серия, которая из себя ничего фантастического не представляла – до зелёных топов новая 2900ХТ, мягко говоря, не дотянула, но в миддл-сегменте с GeForce 8800GTS конкурировала вполне себе сносно. Однако, важно было то, что в Radeon HD 2900 XT появилась своя унифицированная архитектура, как у конкурентов, а также внедрили поддержку DX10. Но из-за высокого ТДП в 215 вват и проблем с ПО,
карта вызывала противоречивые ощущения, да и конкурировать могла лишь с 8800GTS, да и то с переменным успехом… Было заметно, что красный лагерь не может, или не хочет конкурировать с Nvidia в сегменте высокомощных GPU. Но не всё так плохо! В том же году, под конец миру была явлена HD 3870 – глобальная работа над ошибками HD 2000 поколения, и очередное увиливание от жёсткой конкуренции. Нововведений в карточке было много – улучшили техпроцесс с 80 до 55 нм, поставили память GDDR4, и снизили ТДП в два раза, до 100 вват! И всё это за манящий ценник в 269$ долларов. А была ещё и двухчиповая версия за 449 баксиков. В целом, карта была весьма
собой неплоха – грелась не больше положенного, система охлаждения не выла волком из системника, а мощностя хоть и уступали конкуренту в лице 8800GT, но за свою цену оправдывали себя более чем полностью. Хоть и не топ рынка, но за свои деньги, как говорится да, топ. Ну а для того, чтобы найти себе современную и мощную видеокарту, то советую заглянуть на e-katalog, там представлено много разных вариантов, от дешевых до самых дорогих, но помимо видеокарт можно подобрать себе хоть процессор, хоть телевизор или даже стиральную машину. Удобные фильтры и интуитивное меню позволят быстро найти тот товар, который вам нужен! Заходите на е-каталог по моей ссылке, так вы очень поможете развитию канала! 2008 год ознаменовался в стане Nvidia сменой поколения на GeForce 9000. Однако особых откровений этот апгрейд
видеоадаптерам не принёс – архитектура была той же, что и у 8000-линейки, пусть и модифицированная. А с топами Nvidia и вовсе не запарилась, а просто произвела ребрендинг, подразогнав чипы приличия ради. На тот момент в высшем сегменте видеокарт конкурентом GeForce 9800 GTX была двухголовая Radeon HD 3870 X2, и чтобы как говориться быть в тренде и держать нос по ветру, Хуанг выпускает на волю своего двухголового монстра - NVIDIA GeForce 9800 GX2.
Производительность двухчиповых адаптеров во многом зависит от оптимизации под многоядерность видеочипов, и там где SLi завезли, карта показывала впечатляющие результаты. Но зачастую разработчикам было тяжело, да и скажем, попросту лень оптимизировать свой проект под SLi связки, ведь такие карты были дорогие, и встречались в компьютерах геймеров весьма редко. А за счёт сниженных частот, в угоду приемлемым температурам, такой монстр проигрывал обычной GeForce 8800. Однако, появление двухчипового
решения в ценовом ассортименте «зелёных» появился провал, с разницей в 150 долларов – то есть в кармане Хуанга были решения за 249...299 и 599...649 долларов. Нужна была заглушка, которая сгладит такую несуразицу. И её быстренько так склепали - Nvidia GeForce 9800 GTX. По сути, всё тоже самое, подразогнали частоты, ввели поддержку SLi из 3-рёх карт… И всё. Ведро CUD’ы, и текстолита туды, охапка мегагерц и
омуде пипец! Поняв какой белиберды натворили со своим ассортиментом, Nvidia анонсирует уже действительно новую линейку GeForce 200. Архитектура была улучшена, появился CUDA 2.0, была поддержка DX10, что кстати уже на тот момент было не ахти. Новый топ в лице GTX 280 имеет почти в 2 раза больше процессорных ядер, в 2,5 раза больше обрабатывает тредов на чип, обладает удвоенным размером файловых регистров и поддержкой вычислений с плавающей запятой с удвоенной точностью; поддерживает 1 Гб памяти с 512-битным интерфейсом… И много ещё технической муры, что вам наверняка не сильно интересно. Вопрос в другом – Crysis потянет? На момент выхода это была монструозно быстрая карта. С соответствующим ценником
и тдп – от 649 долларов и 236 вват (могла и все 280 жрать) и была тем ещё кипятильником. А ещё на борту был аж 1Гб памяти. Новоиспечённый топ рвал всех и вся, и прошлые одно и двухголовые топы Nvidia, а если и не рвал, то был на их уровне, а также и новенькую HD 3870х2. Кстати о ней. В начале 2008 года Амуде представила двухчиповую версию своего бюджетного топыча HD 3870 – HD 3870X2. Реклама гласила – вместо двух громоздких карт вставь одну, и будет тебе счастье. Карточка
получила все плюсы и минусы CrossFire связок, а производительность зависела даже не столько от карты, сколько от прямоты рук и желания разработчиков. Но кривые драйвера вбили последний гвоздь в крышку гроба – карта распространения не получила. Затем AMD выпускает HD 4870. Карта щеголяла новой памятью GDDR5, которая хоть и имела впечатляющую пропускную способность, но из-за средненького объёма – 512МБ, не смогла потеснить тогдашние зелёные топы, у которых был уже 1Гб (но потом была выпущена версия с 1Гб, но ей это особо не помогло), карточка была лишь на уровне мидл сегмента GTX260, а высший сегмент трона вовсе не претендовала. Но в защиту 4870 стоит сказать,
что всё же в некоторых играх ей удавалось обогнать даже gtx 280, а также она пользовалась большим спросом и её расхватывали как горячие пирожки, потому что она была топом за свои деньги (299$ за штуку). Впрочем, тут стоит кое-что уточнить – в то время, когда компания Хуанга всеми силами наращивала мощность, AMD делала ставку на оптимальное соотношение цена/мощность/тдп. Естественно, не без понимания, что в верхних сегментах ей пока с Nvidia не потягаться. А потому именно с того момента зарождалась тотальная монополия Nvidia на рынке, которая проистекает вплоть до наших дней. Попытка взять штурмом рынок с помощью HD 3870 X2 окончилась фейлом, но компания не отчаивалась, и выпустила спустя время HD 4870X2 за 549 долларов. Противопоставлялась она GTX 280 как уровнем производительности, так и ценой. Карта позволила
ненадолго вырвать из цепких ручек Хуанга лидерство на рынке видеокарт, хотя на жертвенный алтарь были принесены тишина работы и энергопотребление. А там, где SLi\CF не завезли, карта сильно проседала на фоне GTX 280. Незаметно подкрался 2009 год. Осенью AMD выпускает Radeon HD 5000, в ассортименте которого и бюджетненькая HD 5450, и убертоповая двухголовая HD 5970. Линейка вышла можно сказать удачной – передовой 40-нм техпроцесс, поддержка новомодного DX11, удвоение процессорных ядер и текстурных блоков, увеличение частот и общий рост производительности.
С помощью 5000 линейки AMD, а именно 5870, ловко обскакала своего заклятого конкурента, выбив из седла на некоторое время – преимущество над GTX 280 составляло 30-40% игровой производительности. И всё это при сниженном ТДП!!! А ещё RADEON HD 5000 первой на рынке представила миру ту самую поддержку DX11 и тесселяцию – технологию увеличения количества полигонов в кадре, грубо говоря. Эта технология делала картинку более насыщенной на детали, и позволяла рендерить больше мелких объектов. На фреймрейте это, конечно, сказалось, но не так критично. А ещё появился суперсемплинг, один из методов сглаживания, который используется до сих пор. Про них мы говорим
в отдельном видео, которое Вам обязательно стоит потом посмотреть по подсказке выше. А шо там у Nvidia? Ну не может же король-самодержец сидеть сложа руки, видя, как его обставили эти выскочки из бывшей ATi?! Ну как сказать, оказалось, что может, не то, чтобы в тот год компания равноценно ответила своим «партнёрам» - перевели GTX 280 с 65-НМ на 55-НМ, тем самым снизив энергопотребление и нагрев, а заодно повысив частоты. Заодно и цена упала до 349 долларов. Карточка была мощнее предшественницы на 15%, и до выхода HD 5870 смотрелась бодро. Однако, из-за отсутствия поддержки DX11 двухсотый
жифорс не мог составить должную конкуренцию новым радикам. Была ещё неоднозначная двухчипка GTX 295, которая ставилась конкурентом 4870х2, и делала это с переменным успехом. Но в плане конструкции рефа – моё почтение Nvidia, инженеры создали некий бутерброд, где две платы с двух сторон прилегают к радиатору, решение определённо интересное, но очень горячее. Усугублялось всё тем, что в то время было проще взять две GTX 280, разогнать, и получить больше за меньшие деньги. Nvidia расслабилась, и не заметила,
как пустила козла в свой огород, да простят нас фанаты АМД за такое сравнение. 2010 год стал временем реванша зелёной империи. Инженеры Nvidia сложа руки не сидели, и оказывается всё это время точили свою новую архитектуру, имя которой Fermi. Названной в честь итальянского физика Энри́ко Фе́рми, наиболее известного благодаря созданию первого в мире ядерного реактора и внёсшего большой вклад в развитие ядерной физики, физики элементарных частиц, квантовой и статистической механики. Считается одним из «отцов атомной бомбы». Видимо, именно такой и задумывала Nvidia свою новую архитектуру, чтобы нанести взрывной удар по своему заклятому конкуренту! В начале года выходит GTX 400, да, 300-ую линейку Nvidia по-сути перепрыгнула, выпустив парочку мало-мощных карт для офисных ПК. Но нас интересует топ в виде GTX 480. 480 ядер CUDA
правда, это немного меньше, чем планировалось, но зато памяти было аж 1,5 гб, что хватало с лихвой на что угодно. Карта была побыстрее HD 5870, но и стоила дороже, а также нормально так жрала вваты и выдавала цельсии на своём чипе. В общем та еще ПЕЧЬ была. Пользователи издевались над горячей новинкой как могли и особую популярность приобрели ролики с попытками пожарить на GeForce GTX 480 яичницу, которые пытаются повторить даже спустя годы. В тот же год вышла и GTX 580 – работа над ошибками Fermi. CUDA ЯДЕР теперь завезли столько сколько нужно было – 512 штучек, а производительность выросла на 20-25%. Однако, что 400, что 500 серии, были откровенными печками, хотя это касалось только мощных топовых решений.
2010 год для красной компании стал годом прощания с названием ATi – теперь видеокарты назывались просто, AMD Radeon. Такое название карточки стали носить с HD 6000 серии, топом в которой была HD 6970. По производительности карточка расположилась между GTX 570 и GTX 580, цены у 6970 и 580 были равны, но у радика был козырь в рукаве! А именно на пол гига больше памяти, да и тдп было пониже. Да уж, что ни говори, а 2010 год был весьма жарким! В прямом и переносном смысле. 2011 год. Доллар пока ещё стоит 30 рублей, а двухчиповые карты продолжают править балом – AMD выпускает двухголовую HD 6990, которая рвёт всё, и вся на рынке, а заодно даёт хорошего пенделя блокам питания - в пике карточка могла кушать 360 вват, а в разгоне и вовсе 400-420 вват.
Стоило это чудо 699 долларов. Маркетинговой памяти было 4Гб, фактически – 2Гб на каждый чип. Но для того времени этого было более чем достаточно, чтобы щеголять званием флагмана. Продукт вышел мощным, но скорее имиджевым – такие карты сносно работали только в тех играх, где была внедрена поддержка слай или кроссфайр. В противном случае, геймер получал обычную 6970 с конским ценником. А для конкуренции на одноядерном
поле AMD выпускает в последствии легендарную HD 7970, на архитектуре GCN 1.0. Техпроцесс 28-нм, памяти хоть завались – аж 3Гб. Кроме очевидного запаса на будущее, ещё и замах на многомониторные сборки. Частота чипа приближалась к заветному 1 Ггц, да и маркетинг не раз затрагивал это заветное число мегагерц (в последствии была выпущена спецверсия GHZ Edition). Цена, впрочем, соответствовала – 549 долларов. Но оно того
стоило! Тем более что спустя 10 лет эта красотка до сих пор тащит игры, и отнюдь не на минималках! Это был безоговорочный лидер по удельной мощности и цене/производительности, GTX 580 осталась далеко позади. В том же году Хуанг успел представить лишь двухголовое решение – GTX 590. Весьма запоздало, надо сказать, карта была призвана, скорее всего, закрыть брешь в релизах и хоть чем-то порадовать своих фанатов. Вышло не очень удачно – 1,5гб на чип уже не впечатляли, а затащить карта смогла лишь в половине игровых тестов в противостоянии с HD 6990. Однако, что тоже важно – GTX 590 была тише, холоднее, и потребляла в пике 370 вват, когда её конкурент потреблял от 390 до 420 вват. Нужно было что-то решать…
Наступает 2012 год, а АМД выпускает своего младшего флагмана HD 7950, на той же успешной архитектуре GCN 1.0. Новоявленный Radeon HD 7950 лишился части вычислительных блоков. Но, как и в случае с Radeon HD 6970/6950, разница между количеством потоковых процессоров у старшей и младшей карты небольшая. Из 32 GCN Compute Unit отключены четыре. Что в итоге вылилось в 1792 SP против 2048 у 7970. А также была представлена улучшенная 7970 Ghz Edition c повышенными частотами. И двухчипка в виде двух топов 7970, получился горячий монстр со всеми плюсами и минусами CrossFire связок, но минусов, субъективно, было всё же больше.
Что этому противопоставила Nvidia? В этот год миру была представлена 600 линейка видеокарт и топом была GTX 690 – двухчиповый монстр, чтобы забить своим высоким FPS своего конкурента 7970х2. У GTX 690 памяти на чип было по 2Гб, на 1 меньше, чем у 7970x2. Зато поставлялась карта в понтовой деревянной коробке – половина удовольствия в покупке отводится на распаковку… Ай Хуанг, ай хитёр! Однокулерная СО была ожидаемо шумнее, однако и ТДП был ниже – 300 вват. И пускай своего предшественника GTX 590 новинка обходила на 40%, при этом меньше потребляя, то с HD 7970x2 всё было не так однозначно – первенство того или другого адаптера было шатким, где-то наблюдался паритет, а где то первенство переходило от одной к другой карте, в зависимости от игры и задачи. Тут уж на вкус и цвет. Но в этом поколении видеокарт основная борьба развернулась среди одночиповых решений.
Поэтому в тот же год вышла в свет и половинка двухчипового топа Nvidia – GTX 680. Название архитектуры Kepler, также в честь физика Иога́нна Ке́плера, Nvidia до сих пор не предаёт своим традициям и называет архитектуры в честь величайших учёных. Возвращаясь к 680, она базировалась на 28-нм и имела 2Гб памяти, 1006 мгц (это очень важно, побита планка свыше 1 ггц в видеокартах Nvidia, дрожи Radeon!) и тдп в 170-195 вват (у 7970, к слову, 250вт, а у GTX 580 244вт). Цена вопроса - 499 долларов. Упор при разработке новой карты и её архитектуры делался не на повышение мощностей, но улучшения энергоэффективности. Поговаривают, что это вообще должна была быть GTX 670Ti, впрочем, поди разбери теперь… Благодаря сниженному нагреву, изменилась и СО, карта стала тише и предшественников, и конкурентов.
А ещё именно у этой карты появился GPU BOOST – алгоритм умного разгона чипа, который анализирует температуру и уровень энергопотребления и сам меняет частоту ядра. Таким образом, карта могла разгоняться до 1100 мгц! Немыслимо! Также, мы обязаны вспомнить про хит того времени – народную любимицу GTX 660ti! За 299 долларов карта предлагала отличную производительность, вытаскивая игры если не всегда на ультрах, то почти всегда на высоких настройках! Благо 2Гб памяти GDDR5 на тот момент вполне хватало средне статическому геймеру. Была ещё GTX 670, но разница в производительности была такой, что проще было разогнать GTX 660ti, и похвалить себя за то, что сэкономил деньги за в общем-то не принципиальный прирост фреймрейта. Ну а если смотреть на противостояние топов в лице GTX 680 и HD 7970, то картина была следующая – там где не нужно было более 2Гб, или был физикс, лидировала 680. Если требовалась более широкая ПСП, первенство забирала 7970. Особенно это
заметно спустя года, когда играм понадобилось больше памяти – 680 практически во всех играх отставала от 7970. Объём памяти и шина, которые, по сути, были впритык у 680, стали Ахиллесовой пятой зелёного топа. Разогнанный чип уже не мог выстрелить - не хватало патронов. 2013 год, последний год доллара по 30. AMD выпускает улучшенного убер-флагмана в лице двухчиповой HD 7990. 3Гб на ядро, 1ггц частота и электро-аппетит до 375 вват. Стоил этот монстр
999 долларов, и, по сути, был спайкой из двух вожделенных 7970. И благодаря массивному радиатору и трём вертушкам, был относительно не горячий и тихий, особенно на фоне конкурентов. И практически во всех играх адаптер надавал по шапке своему конкуренту в лице GTX 690. Кстати, в то
время ASUS выпускала свою версию 7990 под названием ARES II, разогнанную настолько, что тдп карты достиг 500 вват. Свой собственный рекорд побит! Охлаждался этот реактор, ясное дело, водянкой. Но рынке видеокарт из-под лопастей кулеров веет тёплым ветром перемен.. А у АМД -снова движ, она выпускает R9 290X. Теперь и название HD ушло в прошлое, как и четырёхбуквенное
обозначение карт. Многие были уверены, что произошёл ребрендинг, а 290Х, мол оставалась той же HD 7970. Тех же щей да побольше влей, разве что щепотку специй добавили, чтобы юзвери совсем уж не морщились от до боли знакомого вкуса. Однако, это не так - карту подразогнали, и наделили уже 4Гб памяти с 512-битной шиной, что было кстати – смена консольного поколения намекала, что скоро пойдёт некстген, и память лишней не будет. Заодно распаяли побольше текстурников, РОПов и процессоров.
К тому же архитектура была уже GCN 2.0. Революции не произошло, но карта вышла куда мощнее 7970, ко всему прочему компания скромно умалчивала величину ТДП своего детища. Спалили контору - партнёры, выставив в рекомендациях БП мощностью в 750 Вват. TDP карты был 290W. Амуде в своём репертуаре.
И хоть производительность была на достойном уровне, того же нельзя было сказать об энергопотреблении и шуме СО, особенно турбин. Релиз 290Х вынудил Nvidia снизить ценник на свою новую 700 линейку, которая почивала на лаврах монополиста - GTX 780 с 649 до 499 долларов, а GTX 770 - с 399 до 329 долларов. Ведь красная новинка стоила 550 долларов, и была порой помощнее 780 печки. Ответ от Nvidia, помимо снижения цен на существующий ассортимент, вылился в релиз 780ти – топом с ядром от GTX Titan. Что интересно,
у 780ти вычислительных ядер было 2880 штук – больше, чем у эксклюзивного топа GTX Titan! Это делало 780ти безоговорочным лидеров в области игр на бескомпромиссных настройках графена. Цена в 699 долларов тому подтверждение, правда Хуанг на память что-то не расщедрился – всё те же 3Гб. Причём этот момент тревожил обзорщиков уже на старте продаж! Сэкономили? Уже и не узнаем… И как наивно выглядели надежды на то, что якобы в будущем, возможно, выпустят 6Гб версии 780ти… Эх, золотое время надежд и оптимистичного взора в будущее! Благо память хоть разогнали до 7000 мгц, несколько улучшив показатели ПСП. Требования к БП для топ карты были более адекватными – 600 вват, против 750 у конкурента. И на старте продаж 780ти
показывала ожидаемый результат – 780ти обходила 290х везде и всюду. Впрочем, с годами, когда АМД полировала свои драйвера, ситуация несколько изменилась, а сейчас благодаря дополнительному 1гб памяти у 290x, лидерство 780ти уже не так очевидно. Мастадонты былых лет всё ещё бодаются за первое место, не заметив, как их время безвозвратно ушло… К тому же, множество радиков сгинуло в майнинг-фермах от перегрева, а 780ти сдала позиции перед GTX 970, которая была быстрее и холоднее. В долине больше нет бандитов… Но помимо этих карт, были и другие – например вышеупомянутые GTX Titan и GTX 780. Первый комплектовался баснословными 6Гб памяти, и был как бы это сказать, гибридной картой. То есть, это как бы рабочая карта для энтузиастов-разработчиков, но на которой без проблем можно было и поиграть. Ага,
попробуй погамать во что-то на Tesla! Единственным минусом была цена – 999 баксов, что делало её не слишком привлекательным решением для игроков. Особенно после релизов 290х и 780ти. Несмотря на 6Гб памяти, шина была 384-битной, требования к БП 600 вват, что весьма лояльно к компьютерам тех лет. Титаны выпускаются до сих пор, и являются сугубо нишевым продуктом. Кстати, именно на Титанах разрабатывались и тестировались первые игры с Raytracing, до релиза RTX карт! А тем, кто был не такой гордый, Nvidia предлагала к покупке GTX 780. Хороший предтоп, который был немного слабее 290х, но куда холоднее, и менее прожорливым. На борту были всё те же 3гб памяти, 384 бит
шины и тдп в 250 вват. Многие тогда и останавливали свой взор на этой видеокарте. А те, кто поэкономнее, распробовали GTX 750Ti – на тот момент весьма частая гостья в бюджетных компьютерах, правда вышла она уже в начале 14 года. 2Гб памяти вполне хватало на нужды среднего геймера. К слову, это первая карта, которая выпускалась на новой архитектуре Maxwell, но при этом имела 700-ый нейминг. 2014 год ознаменовался очередным финансовым кризисом. Доллар
теперь стоил в два раза больше, а значит и всё импортируемое на наш рынок железо тоже подскакивает в цене. Геймеров тех лет застали врасплох, и не дай бог нам снова пережить тот ужас, глядя на ценники видяшечек и процессоров... А потому очень важно быть прошаренным, и экономить на покупках в интернете, и по возможности возвращать свои кровные деревянные обратно! В таком деле тебе поможет сервис LetyShops, который возвращает часть денег кешбэком обратно вам на счёт в виде живых рублей.
Сервис сотрудничает с более чем 2400 магазинами, в том числе с китайскими площадками типа Joom и AliExpress, а также регулярно проводит акции по увеличенному кешбэку. Регистрируйтесь в LetyShops, и начинайте откладывать на апгрейд своей пекарни уже сегодня. Ссылочка в описании. В середине года на рынок выходит уже ожидаемый двухчиповый агрегат от AMD – R9 295X2. По сути, это была
уже проверенная технология – делаем спайку из двух топов, и получаем топ в квадрате. Система охлаждения была гибридной – чипы охлаждались водянкой, а память и питальник радиатором, который обдувал один кулер. Это позволяло держать температуры в пределах разумного, да и к тому же было ограничение в 75 градусов, за счёт снижения частот, карта не переходила этих границ, однако ТДП повергал в шок неподготовленного индивидуума – вплоть до 500 вват! Но давним фанатам радеонов, в общем-то, не привыкать. Как и полагается имиджевому продукту, поставлялась карта в фирменном металлическом кейсе, и стоила 1499 долларов.
На выходе мы имели бескомпромиссный топ, который имел в играх все существующие на тот момент Титаны, которые были к тому же значительно дороже. Даже реклама гласила о том, что это самая производительная карта в мире! Несмотря на ужасающую в хорошем смысле слова производительность, карта вышла ограниченным тиражом, и сейчас найти её в продаже очень сложно. Да и надо сказать, уже без надобности – на рынке давно есть более быстрые адаптеры. Однако, с точки зрения истории, это был настоящий триумф, и щелчок по носу зелёному конкуренту. А обзор этой карточки у меня есть на канале, кого заинтересовало, советую потом посмотреть по подсказке выше.
А ещё в недрах Radeon кипела работа над очередным двухчиповым агрегатом – R9 395X2. По слухам, карта должна была получить HBM память, и ценник около 1500 долларов. Поначалу АМД уверенно заявляли – да делаем, скоро будет, скоро покажем. Но ни на одной выставке карточка так и не появилась. А это значит, что двухчиповый топ так и не был выпущен… Теперь же, оглядываясь назад мы понимаем – легендарная 295х2 стала последней двухглавой картой АМД для игрового сегмента, но компания и до сих пор время от времени выпускает такие карты, но такие GPU позиционируются как «для работы и сложных вычислений». Далее, что АМД что Нвидиа открыто заявили о нежелании вести дальнейшую поддержку SLi\CrossFire конфигураций, да и многие современные игры сейчас без танцев с бубном не будут адекватно работать на двух чиповых картах. И вместе с двухчипками стали исчезать
и коннекторы для создания связок из GPU. А впрочем, последние то ещё присутствуют на некоторых картах, да только не пользуются былой популярностью. Вы сами то, когда последний раз видели живьём конфигурацию из двух или более видеокарт? Разве что у энтузиастов и у людей со специфическими вкусами… У Nvidia в этот тузом в рукаве было два Титана – Титан Блэк являлся плановым улучшением первого Титана – надбавили шейдерных процессоров, ядер CUDA, ну и частот накинули. В остальном всё тоже самое. Стоил чёрный Титан столько же, сколько в своё время первый Титан – 999 долларов.
Чисто для игр - решение спорное, но для разработчиков и энтузиастов интерес свой представляла. Другое дело Titan Z – творение высшей инженерии Nvidia. Это был настоящий двухчиповый Титан, со всеми вытекающими. Что любопытно, в отличие от 295х2, охлаждение было обычное – по небольшому радиатору на чип, и один кулер. Пришлось резать частоты. Зато благодаря этому, а также и самой архитектуре, разработчики добились ТДП в 375 вват. Однако из-за компактной СО карта вышла
существенно горячее 295х2. На сильно подрезанные частоты, в играх Титан Z в большинстве случаев уступал 295x2. Однако, было ещё одно НО – цена в 3000 долларов. За такой ценник можно было с нуля собрать пекарню с двумя Титан Блэк, которые бы за счёт не заниженных частот проявили себя куда лучше своего двухглавого собрата.
В остальном, это была неплохая на тот момент профессионально-игровая видеокарта. А во второй половине 2014 года Nvidia анонсирует своё следующее поколение - GTX 900 на доработанной архитектуре Maxwell. А 800 серия обошла дискретный рынок стороной, прописавшийся в ноутбуках. Говоря о 900-ой серии, то в этот год вышло 2 топовые видеокарты, предтоп - gtx 970 и истинный топ – 980. И благодаря оптимизации архитектуры, увеличенному объему памяти до 4 Гб, а также улучшенным частотам, Nvidia удалось обскакать AMD c её R9 290X, которая была основным конкурентом на тот момент, которая еле дотягивала до GTX 970. Кстати, с 970 был один конфликт, который
повлёк за собой извинения Nvidia и выплаты «пострадавшим». Дело в том, что память GTX 970 фактически поделена на два сегмента: "быстрый" объёмом 3.5 ГБ и "медленный" объёмом 512 МБ. Естественно, при обращении ко второму
сегменту памяти, когда загрузка переваливала за эти 3.5 Гб, быстродействие снижалось, потому
2021-07-13