
GeForce FX
NV30 5 поколение графических процессоров семейства GeForce, разработанное и выпущенное компанией NVIDIA в 2003—2004 годах
В январе 2003 года nVidia выпустила GeForce FX 5800 (NV30). Эта карта была раскритикована как за производительность, которая попросту была недостойна high-end модели, так и за высокий уровень шума NV30 оказалась коммерческим провалом, хотя nVidia иногда и говорит, что промахи - одни из лучших событий, что могут случаться с компанией

Используемая версия шейдеров DirectX Shader Model 2.0a преподносилась компанией как прорыв в область кинематографичных эффектов. Однако, производительность шейдеров оказалась низкой, по сравнению с линейкой конкурентов
но при соответствующей оптимизации вполне удовлетворительна для игроков.
Первоначально выпущенный чип NV30 обладал очень низкой производительностью в вычислениях одинарной точности. Nvidia призывала разработчиков использовать половинную точность и включала в драйвера оптимизации, заменяющие вычисления одинарной точности на вычисления с половинной точностью.
Версия Ultra у видеокарты была быстрее (или, скажем, не такая медленная), с тактовой частотой 500 МГц для GPU и памяти (DDR2).
Даже после провала NV30, nVidia решила сохранить архитектуру, представив GeForce FX 5900, призванную заменить GeForce FX 5800. С 256-битной шиной памяти и улучшенной производительностью вершинных шейдеров

Выпущенный позже NV35 обладал гораздо лучшей производительностью в расчётах одинарной точности, чем NV30.
GeForce FX 5900

FX 5950 Ultra (NV38)

GeForce 6 возвращается в гонку с GeForce 6800 и SLI
шестое поколение трёхмерных графических акселераторов от корпорации NVIDIA .После провала NV30 nVidia приложила все усилия для возвращения утраченных позиции.
компани удалось чделать чип NV40,известной как GeForce 6800 карта была намного производительной, чем FX 5900, в том числе и из-за немалого числа транзисторов 222 млн

NV45, которая тоже называлась GeForce 6800, представляла собой ни что иное, как NV40 с мостом AGP-to-PCI Express, что позволяло карте поддерживать новый стандарт интерфейса и, кроме того, SLI. Технология SLI позволяла сочетать две видеокарты PCI Express GeForce 6 для повышения производительности.
GeForce 6800, AGP

6800 Ultra PCI-E

GeForce 7
В 2005 году nVidia объявила седьмое поколение графических процессоров? Rодовое название GPU, которое традиционно было в виде NVxx, изменилось на Gxx.они так же поддерживают DirectX 9.0c и OpenGL 2.1 поточно-конвейерная архитектура претерпела серьёзные изменения, что позволило повысить производительность в полтора раза при том же количестве потоковых конвейеров.
Производство NVIDIA GeForce 7 серии началось с чипа G70 , GeForce 7800

за которой довольно быстро последовала G71 GeForce 7900

Видеокарты продавались во многих версиях, таких каких GTX и GS. Были выпущены и версии для интерфейса AGP с мостом PCI Express-to-AGP.
После выпуска GeForce 7900 nVidia стала впервые использовать технику, к которой не раз прибегали конкуренты: видеокарты с двумя GPU. У 7900GX2 и 7950GX2 два GPU G71 работали параллельно
7900GX2

7950GX2

GeForce 8
8 серия графических акселераторов,анонсированная 8 ноября 2006 года G80 который имеет унифицированную шейдерную архитектуру. Эти видеокарты также имеют поддержку DirectX 10, OpenCL и Shader Model 4.0.Это первая серия видеокарт от NVIDIA, которая поддерживает CUDA — программирование общего назначения.
nVidia выжала из G80 максимум, а переход на 65-нм техпроцесс с G92 позволил компании сэкономить средства, снизив себестоимость производства чипа. nVidia меняла число потоковых процессоров, ширину шины памяти и тактовые частоты, чтобы увеличить ассортимент версий GeForce 8800 и 9800. Появились даже видеокарты с двумя GPU: GeForce 9800GX2.
Карты линейки GeForce 8800 все совместимы с DirectX 10, и nVidia оказалась очень и очень успешной с новой линейкой, что позволило не особо торопиться с преемницей.
G80 GeForce 8800gtx

G80 GeForce 8800 ultra

GeForce 9
9 серия поколение графических микропроцессоров семейства GeForce базируется на модернизированной архитектуре G80, которая использовалась в видеокартах серии GeForce 8. Видеокарты верхнего ценового диапазона, которые базируются на графическом процессоре G92 являются ничем иным как переименованные видеокарты предыдущего поколения. Первая модель GeForce 9 появилась 29 февраля 2008 года.
G92 9800 GTX

2 x G92 9800GX2

Еще одной ожидаемой новинкой является графический процессор NVIDIA GeForce 9800 GTX+, точнее видеокарты на нем основными отличительными особенностями GeForce 9800 GTX+ от обычного GeForce 9800 GTX является новый более тонкий 55 нм техпроцесс, что позволило при условно неизменном тепловыделении задать графическому процессору более высокие тактовые частоты. Это, конечно же, должно положительно сказаться на производительности. Кроме того, любители разгона получают надежду на лучший разгонный потенциал обновленного GPU.
GeForce 9800 GTX+

Плохо что упоминается только Хай энд сегмент. Так например в 8 серии не было нормальной мидловой видеокарты, зато 9600 дышала в затылок прошлому топу 8800, при том что 9800 оказалась провальной.
лежит где-то 9600, до сих пор работает
была у меня 9800жтх от хфх как на фотке
была 7600 апосля 7900 gs потом 8800gts320 затем 8800gts 512
Чопорный Мышивур 4к она стола, а не шесть!
уменя Nvdiea 9500GT :(
За Асусовскую 8600 я выложил 185$
nickSIA В отличие от тебя я могу пруфы предоставить )))) http://www.ixbt.com/video/radeon8500.shtml Это где 8500 реально протестирована и в реальности она делала GeForce 3 почти везде ))) Про Half Life 2 http://article.techlabs.by/full/31_138.html Выводы почитай про отстойнык Radeon X800 ))) "F.E.A.R.1 летал" Не летал.... у меня была в 2006 году ATI radeon 1950pro тяжко ей было это аналог Nvidia 7950 на ультра там 40-50 fps а ты про FX5700. И кстате в Far Cry 1 требования 5900ultra/9800 как ты там играл на низких ? ахах ))) Вот еще пруф http://www.pcstats.com/articleview.cfm?articleid=1578&page=8 Кароче балаболы (((( А вот Far Cry 1 30 fps ))) https://www.overclockers.ru/news/newsitem.shtml?category=2&id=1085518628
Чего не упомянул о FX5900 была мечта в 2004 году так и не купил. Взял 5700 asus
А потом приходит моя старушка Gts 250 и всех уделывает одним махом. Правда была ещё Geforce 7950 / Cкайрим, Dirt 3 спокойно летал со всеми бетманами
GRiDOX Помню у меня тоже была gts 250, так она уделала и GT 9600, GT 9800, 9800 GTX+. Отличная карта была за шесть штук.
GRiDOX Приходит твоя старушка GTS 250, которая тупо разогнанный 9800GTX+, и не уделывает никак HD4870...
помню подрачивал на какой то там 5900 от креатве или на ету 2 вентеляторную. но твердо хотел радеон 9900 или чета такое. потом пфффукал на нвида карты вплоть до 8800гтх. там призадумался так как появился с куда и гпу пузикс. и было мне не понятно накой ей такое странное количество памяти. запилили бы гиг... однако был твердый стояк на гипотетический 2900хтх что он придет и всех нагнет и будет тама и росс фаер подчеловеческие матплаты и блок на 750вт прикупил а вышло... дальше вощем потешался над нвидиа картами тк за видеокарты одночипы не считал. а у нвидии они были бюджетными обрезками со спущенными частотами все ети 9800х2 295 и прочие 590. вплодь до 690 и титанов. тогда стал уважать нвидию хоть и сетовал что в 690 мало памяти тк у 6990 за год до того столько же было. вот такая история, ребята.
Вообще то самый провал был GeForce 3 (слита ATI 8500) на этой карте даже GTA 3 тормозил ! А FX5XXX серия была слита топом ATI Radeon 9700 . Half Life 2 был под 9700 заточен ! Так что реально фейлов было много ))) Последний фейл Dx12, они не учатся на своих ошибках . )))
X_ray_83 У меня была Gainward NVidia FX5700 Ultra запускал Doom 3 на ультра и FarCry 1 что там до Half-Life 2, даже F.E.A.R.1 летал. Были времена. ))) Затем сменил на Leadtek 6600GT Shader 3.0 с DirectX9.0c карта была огонь, о чем ты ? Что до Radeon 9800XT или более новее Radeon X850XT в то время никак не освоили Shader 3.0. Только Shader 2.0b это был полный провал.