Из Википедии, свободной энциклопедии
Перейти к навигации Перейти к поиску

GeForce является бренд из графических процессоров (GPU) , разработанных Nvidia . Что касается серии GeForce 30 , было семнадцать вариантов дизайна. Первыми продуктами GeForce были дискретные графические процессоры, разработанные для дополнительных графических плат, предназначенные для рынка компьютерных игр с высокой маржой, а более поздняя диверсификация линейки продуктов охватила все уровни рынка графики для ПК, начиная от чувствительных к стоимости [1] графических процессоров. интегрированы в материнские платы, в стандартные дополнительные розничные платы. Совсем недавно технология GeForce была представлена ​​в линейке процессоров для встраиваемых приложений Nvidia, предназначенных для электронных карманных компьютеров и мобильных телефонов.

Что касается дискретных графических процессоров, найденных в надстройку графических плат, GeForce от Nvidia и AMD «s Radeon Графические процессоры являются единственными остальные конкуренты на рынке высокого класса. Графические процессоры GeForce очень доминируют на рынке графических процессоров общего назначения (GPGPU) благодаря своей запатентованной архитектуре CUDA . [2] Ожидается, что GPGPU расширит функциональность графического процессора за пределы традиционной растеризации трехмерной графики, превратив его в высокопроизводительное вычислительное устройство, способное выполнять произвольный программный код так же, как и центральный процессор, но с другими преимуществами (высокопараллельное выполнение простых вычислений) и слабых сторон (худшая производительность для сложного ветвящегося кода).

Происхождение имени [ править ]

Название «GeForce» возникло в результате конкурса, проведенного Nvidia в начале 1999 года под названием «Назови этот чип». Компания призвала общественность назвать преемника линейки графических плат RIVA TNT2 . Было получено более 12 000 заявок, и 7 победителей получили в награду графическую карту RIVA TNT2 Ultra. [3] [4] Брайан Берк, старший менеджер по связям с общественностью Nvidia, сказал Maximum PC в 2002 году, что «GeForce» изначально означало «Geometry Force», поскольку GeForce 256 была первым графическим процессором для персональных компьютеров, который рассчитывал геометрию преобразования и освещения. , выгружая эту функцию из ЦП . [5]

Поколения графических процессоров [ править ]

GeForce 256 [ править ]

Выпущенный 1 сентября 1999 года, GeForce 256 (NV10) был первым графическим чипом для ПК потребительского уровня с аппаратным преобразованием, освещением и затенением, хотя 3D-игры, использующие эту функцию , появились позже. Первоначальные платы GeForce 256 поставлялись с памятью SDR SDRAM , а более поздние платы поставлялись с более быстрой памятью DDR SDRAM .

Серия GeForce 2 [ править ]

Выпущенный в апреле 2000 года первый GeForce2 (NV15) был еще одним высокопроизводительным графическим чипом. Nvidia перешла на дизайн с двумя текстурными процессорами на конвейер (4x2), удвоив скорость заполнения текстур на такт по сравнению с GeForce 256. Позже Nvidia выпустила GeForce2 MX (NV11), которая предлагала производительность, аналогичную GeForce 256, но за небольшую часть стоимости. . MX был незаменим в сегментах рынка среднего и низкого цен и был популярен как среди производителей ПК, так и среди пользователей. GeForce 2 Ultra была топовой моделью в этой серии.

Серия GeForce 3 [ править ]

Выпущенная в феврале 2001 года, GeForce3 (NV20) представила программируемые вершинные и пиксельные шейдеры для семейства GeForce и графических ускорителей потребительского уровня. Он имел хорошую общую производительность и поддержку шейдеров, что делало его популярным среди энтузиастов, хотя он никогда не достигал среднего ценового диапазона. NV2A разработана для Microsoft Xbox игровой консоли является производной от GeForce 3.

Серия GeForce 4 [ править ]

Выпущенная в феврале 2002 года высокопроизводительная видеокарта GeForce4 Ti (NV25) в основном представляла собой усовершенствование GeForce3. Самые большие достижения включали усовершенствования возможностей сглаживания, улучшенный контроллер памяти, второй вершинный шейдер и уменьшение размера производственного процесса для увеличения тактовой частоты. Другой член семейства GeForce 4, бюджетный GeForce4 MX, был основан на GeForce2 с добавлением некоторых функций от GeForce4 Ti. Он был ориентирован на бюджетный сегмент рынка и не имел пиксельных шейдеров. Большинство этих моделей использовали интерфейс AGP 4 ×, но некоторые начали переход на AGP 8 ×.

Серия GeForce FX [ править ]

Выпущенный в 2003 году GeForce FX (NV30) сильно изменил архитектуру по сравнению со своими предшественниками. Графический процессор был разработан не только для поддержки новой спецификации Shader Model 2, но и для хорошей работы со старыми играми. Однако начальные модели, такие как GeForce FX 5800 Ultra, страдали от слабой производительности шейдеров с плавающей запятой и чрезмерного нагрева, что требовало печально известных решений для охлаждения с двумя слотами. Продукты этой серии имеют номер модели 5000, поскольку это пятое поколение GeForce, хотя Nvidia продавала карты как GeForce FX вместо GeForce 5, чтобы продемонстрировать «зарю кинематографического рендеринга».

Серия GeForce 6 [ править ]

Выпущенная в апреле 2004 года, GeForce 6 (NV40) добавила поддержку Shader Model 3.0 в семейство GeForce, исправив при этом слабую производительность шейдеров с плавающей запятой своего предшественника. Он также реализовал формирование изображений с расширенным динамическим диапазоном и представил возможности SLI (Scalable Link Interface) и PureVideo (интегрированное частичное аппаратное декодирование MPEG-2, VC-1, Windows Media Video и H.264 и полностью ускоренная постобработка видео).

Серия GeForce 7 [ править ]

GeForce седьмого поколения (G70 / NV47) была выпущена в июне 2005 года и была последней серией видеокарт Nvidia, которая могла поддерживать шину AGP . Дизайн был усовершенствованной версией GeForce 6, с основными улучшениями, которые заключались в расширенном конвейере и увеличении тактовой частоты. GeForce 7 также предлагает новые режимы суперсэмплинга прозрачности и мультисэмплинга прозрачности (TSAA и TMAA). Эти новые режимы сглаживания были позже включены и для серии GeForce 6. GeForce 7950GT имеет самый производительный графический процессор с интерфейсом AGP в линейке Nvidia. С этой эпохи начался переход к интерфейсу PCI-Express.

128-битный вариант 7950 GT с 8 ROP, называемый RSX «Reality Synthesizer» , используется в качестве основного графического процессора в Sony PlayStation 3 .

Серия GeForce 8 [ править ]

Выпущенная 8 ноября 2006 года GeForce восьмого поколения (первоначально называвшаяся G80) была первым графическим процессором, полностью поддерживающим Direct3D  10. Изготовленный с использованием процесса 90 нм и построенный на новой микроархитектуре Tesla , он реализовал унифицированную шейдерную модель . Первоначально была выпущена только модель 8800GTX, в то время как вариант GTS был выпущен через несколько месяцев после прохождения линейки продуктов, и потребовалось почти шесть месяцев, чтобы интегрировать карты среднего и OEM / основного сегмента в 8-ю серию. Уменьшение размеров кристалла до 65 нм и пересмотр конструкции G80 под кодовым названием G92 были реализованы в 8-й серии с 8800GS, 8800GT и 8800GTS-512, впервые выпущенными 29 октября 2007 года, почти через год после первоначального G80. выпускать.

GeForce 9 серии и 100 серии [ править ]

Первый продукт был выпущен 21 февраля 2008 года. [6] Не старше первоначального выпуска G92 даже на четыре месяца, все проекты 9-й серии - это просто модификации существующих продуктов поздней 8-й серии. 9800GX2 использует два графических процессора G92, которые использовались в более поздних картах 8800, в конфигурации с двумя печатными платами, при этом для этого требуется только один слот PCI-Express 16x. 9800GX2 использует две отдельные 256-битные шины памяти, по одной для каждого графического процессора и соответствующие 512 МБ памяти, что в целом составляет 1 ГБ памяти на карте (хотя конфигурация микросхем SLI требует зеркального отображения буфера кадра между две микросхемы, что эффективно снижает вдвое производительность памяти конфигурации 256 бит / 512 МБ). Более поздняя 9800GTX оснащена одним графическим процессором G92, 256-битной шиной данных и 512 МБ памяти GDDR3. [7]

До релиза не было известно никакой конкретной информации, за исключением того, что официальные лица утверждали, что продукты следующего поколения имеют вычислительную мощность около 1 терафлопс, а ядра графического процессора все еще производятся по 65-нм техпроцессу, а также сообщается о том, что Nvidia преуменьшает важность Direct3D  10.1. [8] В марте 2009 года несколько источников сообщили, что Nvidia незаметно запустила новую серию продуктов GeForce, а именно GeForce 100 Series, которая состоит из частей 9-й серии с переименованными марками. [9] [10] [11] Продукты серии GeForce 100 не были доступны для индивидуальной покупки. [1]

GeForce серии 200 и 300 [ править ]

Основанная на графическом процессоре GT200, состоящем из 1,4 миллиарда транзисторов под кодовым названием Tesla, серия 200 была запущена 16 июня 2008 года. [12] Следующее поколение серии GeForce берет схему именования карт в новом направлении, заменяя номер серии (например, 8800 для карт серии 8) с суффиксом GTX или GTS (который раньше ставился в конце названий карт, обозначая их `` ранг '' среди других аналогичных моделей), а затем добавлялись номера моделей, такие как 260 и 280 после этого. В этой серии используется новое ядро ​​GT200 на 65-нм кристалле. [13] Первыми продуктами были GeForce GTX 260 и более дорогая GeForce GTX 280. [14] GeForce 310 была выпущена 27 ноября 2009 года и представляет собой ребрендинг GeForce 210. [15][16] Карты серии 300 представляют собой переименованные в DirectX 10.1 графические процессоры серии 200, которые не были доступны для индивидуальной покупки.

GeForce серии 400 и 500 [ править ]

7 апреля 2010 года Nvidia выпустила [17] GeForce GTX 470 и GTX 480, первые карты, основанные на новой архитектуре Fermi под кодовым названием GF100; они были первыми графическими процессорами Nvidia, которые использовали 1 ГБ или более памяти GDDR5 . GTX 470 и GTX 480 подверглись резкой критике из-за высокого энергопотребления, высоких температур и очень громкого шума, которые не уравновешивались предлагаемой производительностью, хотя GTX 480 была самой быстрой картой DirectX 11 на момент своего появления.

В ноябре 2010 года Nvidia выпустила новый флагманский графический процессор на базе улучшенной архитектуры GF100 (GF110) под названием GTX 580. Он отличался более высокой производительностью, меньшим энергопотреблением, тепловыделением и шумом, чем предыдущий GTX 480. Этот графический процессор получил гораздо лучшие отзывы, чем предыдущий. GTX 480. Позже Nvidia также выпустила GTX 590, которая объединяет два графических процессора GF110 на одной карте.

GeForce серий 600, 700 и 800M [ править ]

Asus Nvidia GeForce GTX 650 Ti, видеокарта PCI Express 3.0 × 16

В сентябре 2010 года Nvidia объявила, что преемником микроархитектуры Fermi станет микроархитектура Kepler , изготовленная по 28-нм техпроцессу TSMC. Ранее Nvidia был заключен контракт на поставку их стержнями топовые GK110 для использования в национальной лаборатории Oak Ridge «s суперкомпьютера„Титан“, что привело к нехватке ядер GK110. После того, как AMD в начале 2012 года запустила собственное ежегодное обновление серии Radeon HD 7000, Nvidia начала выпуск серии GeForce 600 в марте 2012 года. Ядро GK104, первоначально предназначавшееся для среднего сегмента их линейки, стало флагманом GTX. 680. Он представил значительные улучшения в производительности, тепловыделении и энергоэффективности по сравнению с архитектурой Fermi и близко соответствовал флагманскому AMD Radeon HD 7970. За ним быстро последовали GTX 690 с двумя видеокартами GK104 и GTX 670, которые имели лишь немного урезанные характеристики. отказано от ядра GK104 и по производительности очень близко к GTX 680.

Вместе с GTX Titan компания Nvidia также выпустила GPU Boost 2.0, который позволил бы тактовой частоте графического процессора неограниченно увеличиваться до тех пор, пока не будет достигнут установленный пользователем температурный предел, без прохождения указанной пользователем максимальной скорости вентилятора. Последним выпуском серии GeForce 600 стала GTX 650 Ti BOOST на базе ядра GK106 в ответ на выпуск AMD Radeon HD 7790. В конце мая 2013 года Nvidia анонсировала серию 700, которая по-прежнему основывалась на архитектуре Kepler, однако она показала карту на базе GK110 в верхней части линейки. GTX 780 был немного урезанным Titan, который показал почти такую ​​же производительность за две трети цены. Он отличался той же усовершенствованной эталонной конструкцией кулера, но не имел разблокированных ядер двойной точности и был оснащен 3 ГБ памяти.

В то же время Nvidia анонсировала ShadowPlay., решение для захвата экрана, в котором использовался встроенный кодировщик H.264, встроенный в архитектуру Kepler, который Nvidia ранее не раскрывала. Его можно было использовать для записи игрового процесса без карты захвата и с незначительным снижением производительности по сравнению с решениями для записи программного обеспечения, и он был доступен даже на картах серии GeForce 600 предыдущего поколения. Однако бета-версия программного обеспечения для ShadowPlay претерпела несколько задержек и не будет выпущена до конца октября 2013 года. Через неделю после выпуска GTX 780 Nvidia объявила, что GTX 770 будет ребрендингом GTX 680. За этим последовали вскоре после этого GTX 760, который также был основан на ядре GK104 и похож на GTX 660 Ti. В 2013 году к выпуску карт серии 700 не было намечено выпуска, хотя Nvidia объявила о G-Sync,еще одна особенность архитектуры Kepler, которую Nvidia не упомянула, которая позволяет графическому процессору динамически управлять частотой обновления мониторов, совместимых с G-Sync, которые будут выпущены в 2014 году, для борьбы с разрывами и дрожанием. Тем не менее, в октябре AMD выпустила R9 290X, который стоил на 100 долларов меньше, чем GTX 780. В ответ Nvidia снизила цену GTX 780 на 150 долларов и выпустила GTX 780 Ti с полным 2880-ядерным GK110. ядро даже более мощное, чем у GTX Titan, наряду с улучшениями в системе подачи питания, которые улучшили разгон и смогли опередить новую версию AMD.который стоил на 100 долларов меньше, чем GTX 780. В ответ Nvidia снизила цену GTX 780 на 150 долларов и выпустила GTX 780 Ti, в которой было 2880-ядерное ядро ​​GK110, даже более мощное, чем GTX Titan, а также усовершенствования системы подачи питания, которые улучшили разгон и смогли опередить новую версию AMD.который стоил на 100 долларов меньше, чем GTX 780. В ответ Nvidia снизила цену GTX 780 на 150 долларов и выпустила GTX 780 Ti, в которой было 2880-ядерное ядро ​​GK110, даже более мощное, чем GTX Titan, а также усовершенствования системы подачи питания, которые улучшили разгон и смогли опередить новую версию AMD.

Серия GeForce 800M состоит из компонентов серии 700M с ребрендингом, основанных на архитектуре Kepler, и некоторых компонентов более низкого уровня, основанных на более новой архитектуре Maxwell.

Серия GeForce 900 [ править ]

В марте 2013 года Nvidia объявила, что преемником Kepler станет микроархитектура Maxwell . [18] Он был выпущен в сентябре 2014 года. Это была последняя серия GeForce, поддерживающая аналоговый видеовыход через DVI-I. [19]

Серия GeForce 10 [ править ]

В марте 2014 года Nvidia объявила, что преемником Maxwell станет микроархитектура Pascal ; объявлено 6 мая 2016 г. и выпущено 27 мая 2016 г. Архитектурные улучшения включают следующее: [20] [21]

  • В Паскале SM (потоковый мультипроцессор) состоит из 128 ядер CUDA. Кеплер упаковал 192, Fermi 32 и Tesla только 8 ядер CUDA в SM; GP100 SM разделен на два блока обработки, каждый из которых имеет 32 ядра CUDA одинарной точности, буфер команд, планировщик деформации, 2 модуля отображения текстуры и 2 модуля диспетчеризации.
  • GDDR5X  - новый стандарт памяти, поддерживающий скорость передачи данных 10 Гбит / с, и обновленный контроллер памяти. Только Nvidia Titan X (и Titan Xp), GTX 1080, GTX 1080 Ti и GTX 1060 (версия 6 ГБ) поддерживают GDDR5X. GTX 1070 Ti, GTX 1070, GTX 1060 (версия с 3 ГБ), GTX 1050 Ti и GTX 1050 используют GDDR5. [22]
  • Унифицированная память - архитектура памяти, в которой ЦП и графический процессор могут получать доступ как к основной системной памяти, так и к памяти видеокарты с помощью технологии, называемой «Механизм миграции страниц».
  • NVLink  - шина с высокой пропускной способностью между процессором и графическим процессором, а также между несколькими графическими процессорами. Обеспечивает гораздо более высокие скорости передачи, чем те, которые достигаются при использовании PCI Express; по оценкам, обеспечивает от 80 до 200 ГБ / с. [23] [24]
  • 16-битные ( FP16 ) операции с плавающей запятой могут выполняться в два раза быстрее, чем 32-битные операции с плавающей запятой («одинарная точность») [25] и 64-битные операции с плавающей запятой («двойная точность»), выполняемые с вдвое меньше 32-битных операций с плавающей запятой (скорость Maxwell 1/32). [26]

GeForce 20 серии и 16 серии [ править ]

В августе 2018 года Nvidia объявила о преемнике GeForce для Pascal. Название новой микроархитектуры было раскрыто как « Тьюринг » на конференции Siggraph 2018. [27] Эта новая микроархитектура графического процессора нацелена на ускорение поддержки трассировки лучей в реальном времени и AI Inferencing. Он оснащен новым модулем трассировки лучей (RT Core), который может выделять процессоры для аппаратной трассировки лучей. Он поддерживает расширение DXR в Microsoft DirectX 12. Nvidia утверждает, что новая архитектура до 6 раз быстрее старой архитектуры Pascal. [28] [29] Совершенно новый дизайн ядра Tensor, поскольку Volta представляет ускорение глубокого обучения AI, которое позволяет использовать DLSS (Deep Learning Super Sampling ), новую форму сглаживания, использующую ИИ для получения более четких изображений с меньшим влиянием на производительность. [30] Он также изменяет свою целочисленную исполнительную единицу, которая может выполняться параллельно с путем к данным с плавающей запятой. Также была анонсирована новая унифицированная архитектура кеш-памяти, которая удваивает пропускную способность по сравнению с предыдущими поколениями. [31]

Новые графические процессоры были представлены как Quadro RTX 8000, Quadro RTX 6000 и Quadro RTX 5000. Высокопроизводительная Quadro RTX 8000 имеет 4 608 ядер CUDA и 576 ядер Tensor с 48 ГБ видеопамяти. [28] Позже, во время пресс-конференции Gamescom , генеральный директор Nvidia Дженсен Хуанг представил новую серию GeForce RTX с RTX 2080 Ti, 2080 и 2070, в которой будет использоваться архитектура Тьюринга. Первые карты Turing должны были быть отправлены потребителям 20 сентября 2018 года. [32] Nvidia анонсировала RTX 2060 6 января 2019 года на выставке CES 2019 [33].

2 июля 2019 года Nvidia анонсировала линейку карт GeForce RTX Super, обновление 20-й серии, которое включает версии RTX 2060, 2070 и 2080 с более высокими характеристиками. RTX 2070 и 2080 были сняты с производства.

В феврале 2019 года Nvidia анонсировала серию GeForce 16 . Он основан на той же архитектуре Тьюринга, что и в серии GeForce 20, но без уникальных ядер Tensor ( AI ) и RT ( трассировка лучей ) в пользу обеспечения более доступного графического решения для геймеров, при этом сохраняя более высокую производительность. по сравнению с соответствующими картами предыдущих поколений GeForce.

Как и в случае с обновлением RTX Super, Nvidia 29 октября 2019 года анонсировала карты GTX 1650 Super и 1660 Super, которые заменили их не-Super аналоги.

Серия GeForce 30 [ править ]

Nvidia официально объявила на специальном мероприятии GeForce, что преемником серии GeForce 20 станет серия 30. Представленное специальное мероприятие GeForce состоялось 1 сентября 2020 года и установило 17 сентября в качестве официальной даты выпуска для графического процессора 3080, 24 сентября - как дату выпуска для графического процессора 3090 и октябрь - для графического процессора 3070. [34] [35]

Варианты [ править ]

Мобильные графические процессоры [ править ]

Чип GeForce встроен в материнскую плату ноутбука.

Начиная с серии GeForce 2, Nvidia выпустила ряд графических чипсетов для ноутбуков под брендом GeForce Go . Большинство функций, присутствующих в настольных аналогах, присутствует и в мобильных. Эти графические процессоры обычно оптимизированы для более низкого энергопотребления и меньшего тепловыделения, чтобы их можно было использовать в ноутбуках и небольших настольных компьютерах.

Начиная с серии GeForce 8, GeForce Go бренд был прекращен , и мобильные графические процессоры были объединены с основной линией графических процессоров GeForce, но их название суффиксом с М . Это закончилось в 2016 году выпуском ноутбуков серии GeForce 10 - Nvidia отказалась от суффикса M , решив унифицировать брендинг для своих графических процессоров для настольных ПК и ноутбуков, поскольку графические процессоры Pascal для ноутбуков почти так же мощны, как и их настольные аналоги (что-то, что Nvidia тестировала с их ноутбук «настольного класса» GTX 980 GPU еще в 2015 году). [36]

GeForce MX марки, которые ранее использовались Nvidia для своих графических процессоров для настольных начального уровня, был восстановлен в 2017 году с выпуском GeForce MX150 для ноутбуков. [37] MX150 основан на том же графическом процессоре Pascal GP108, что и на настольном GT 1030, [38] и был незаметно выпущен в июне 2017 года. [37]

Графические процессоры малого форм-фактора [ править ]

Подобно мобильным графическим процессорам, Nvidia также выпустила несколько графических процессоров в формате «малого форм-фактора» для использования в настольных ПК «все в одном». Эти графические процессоры имеют суффикс S , аналогичный букве M, используемой для мобильных продуктов. [39]

Интегрированные графические процессоры материнской платы настольных ПК [ править ]

Начиная с nForce 4 , Nvidia начала включать встроенные графические решения в свои наборы микросхем материнских плат. Эти встроенные графические решения были названы mGPU (графические процессоры материнской платы). [40] Nvidia прекратила выпуск линейки nForce, включая эти mGPU, в 2009 году. [41]

После того, как линейка nForce была прекращена, в 2009 году Nvidia выпустила линейку Ion , которая состояла из процессора Intel Atom в сочетании с графическим процессором серии GeForce 9 младшего класса, установленным на материнской плате. В 2010 году Nvidia выпустила модернизированный Ion 2 , на этот раз содержащий бюджетный графический процессор серии GeForce 300.

Номенклатура [ править ]

От серии GeForce 4 до серии GeForce 9 используется приведенная ниже схема именования.

С момента выпуска графических процессоров серии GeForce 100 Nvidia изменила схему наименования своих продуктов на приведенную ниже. [1]

  1. ^ Суффиксы указывают уровень производительности, и они перечислены в порядке от самого слабого до самого мощного. Суффиксы из меньших категорий все еще можно использовать на картах с более высокой производительностью, например: GeForce 8800 GT.
  2. ^ a b Диапазон цен применяется только к самому последнему поколению и является обобщением, основанным на моделях ценообразования.
  3. ^ a b Количество шейдеров сравнивает количество конвейеров или модулей шейдеров в этом конкретном модельном ряду с самой высокой моделью, возможной в поколении.
  • Более ранние карты, такие как GeForce4, следуют аналогичной схеме.
  • ср. График производительности Nvidia здесь.

Драйверы графических устройств [ править ]

Собственный [ править ]

Nvidia разрабатывает и выпускает драйверы GeForce для Windows 10 x86 / x86-64 и новее, Linux x86 / x86-64 / ARMv7-A , OS X 10.5 и новее, Solaris x86 / x86-64 и FreeBSD x86 / x86-64. [42] Текущую версию можно загрузить с Nvidia, и большинство дистрибутивов Linux содержат ее в своих собственных репозиториях. Драйвер Nvidia GeForce 340.24 от 8 июля 2014 г. поддерживает интерфейс EGL, что обеспечивает поддержку Wayland в сочетании с этим драйвером. [43] [44] Это может быть иначе для Nvidia Quadro. бренд, основанный на идентичном оборудовании, но имеющий сертифицированные OpenGL драйверы графических устройств.

Базовая поддержка интерфейса настройки режима DRM в виде нового названного модуля ядра nvidia-modeset.koдоступна с бета версии 358.09. [45] Поддержка контроллера дисплея Nvidia на поддерживаемых графических процессорах осуществляется централизованно nvidia-modeset.ko. Традиционные взаимодействия дисплея (наборы режимов X11, OpenGL SwapBuffers, представление VDPAU, SLI, стерео, блокировка кадров, G-Sync и т. Д.) Инициируются различными компонентами драйвера пользовательского режима и переходят в nvidia-modeset.ko. [46]

В тот же день, когда был публично выпущен графический API Vulkan , Nvidia выпустила драйверы, полностью поддерживающие его. [47]

Устаревший драйвер: [48]

  • Драйвер GeForce 71.x обеспечивает поддержку серий RIVA TNT , RIVA TNT2 , GeForce 256 и GeForce 2
  • Драйвер GeForce 96.x обеспечивает поддержку серий GeForce 2 , GeForce 3 и GeForce 4
  • Драйвер GeForce 173.x обеспечивает поддержку серии GeForce FX.
  • Драйвер GeForce 304.x обеспечивает поддержку серий GeForce 6 и GeForce 7
  • Драйвер GeForce 340.x обеспечивает поддержку Tesla 1 и 2, то есть серии GeForce 8 - серии GeForce 300
  • Драйвер GeForce 390.x обеспечивает поддержку Fermi , то есть серии GeForce 400 - серии GeForce 500

Обычно устаревший драйвер поддерживает и новые графические процессоры, но поскольку новые графические процессоры поддерживаются новыми номерами драйверов GeForce, которые регулярно предоставляют больше функций и лучшую поддержку, конечному пользователю рекомендуется всегда использовать максимально возможное количество драйверов.

Текущий драйвер:

  • Последняя версия драйвера GeForce обеспечивает поддержку графических процессоров на базе Kepler , Maxwell , Pascal и Turing .

Бесплатно и с открытым исходным кодом [ править ]

Созданные сообществом бесплатные драйверы с открытым исходным кодом существуют как альтернатива драйверам, выпущенным Nvidia. Драйверы с открытым исходным кодом разработаны в основном для Linux, однако могут быть портированы и для других операционных систем. Наиболее известный альтернативный драйвер - это бесплатный драйвер графического устройства в стиле модерн с открытым исходным кодом, подвергшийся обратной инженерии . Nvidia публично объявила, что не будет поддерживать такие дополнительные драйверы устройств для своих продуктов [49], хотя Nvidia предоставила код для драйвера Nouveau. [50]

Бесплатные драйверы с открытым исходным кодом поддерживают большую часть (но не все) функций, доступных в картах марки GeForce. Например, по состоянию на январь 2014 года драйвер nouveau не поддерживает настройки тактовой частоты графического процессора и памяти, а также связанное с ним динамическое управление питанием. [51] Кроме того, проприетарные драйверы Nvidia стабильно работают лучше, чем nouveau, в различных тестах. [52] Однако, начиная с августа 2014 года и начиная с версии 3.16 основной ветки ядра Linux , вклад Nvidia позволил реализовать частичную поддержку настроек тактовой частоты графического процессора и памяти. [ необходима цитата ]

Вопросы лицензирования и конфиденциальности [ править ]

В лицензии есть общие условия, запрещающие обратное проектирование и копирование, и она отказывается от гарантий и ответственности. [53]

Начиная с 2016 года в лицензии GeFORCE говорится, что Nvidia «ПРОГРАММНОЕ ОБЕСПЕЧЕНИЕ может получать доступ, собирать неличную информацию, обновлять и настраивать систему Заказчика, чтобы должным образом оптимизировать такую ​​систему для использования с ПРОГРАММНЫМ ОБЕСПЕЧЕНИЕМ». [53] Далее в уведомлении о конфиденциальности говорится: «В настоящее время мы не можем реагировать на сигналы« Не отслеживать », заданные браузером. Мы также разрешаем сторонним рекламным сетям и компаниям, работающим в социальных сетях, собирать информацию. . Мы можем комбинировать личную информацию, которую мы собираем о вас, с информацией о просмотре и отслеживании, собираемой этими технологиями [файлы cookie и маяки] ". [54]

Программное обеспечение настраивает систему пользователя для оптимизации ее использования, и в лицензии говорится: «NVIDIA не несет ответственности за любой ущерб или убытки такой системы (включая потерю данных или доступа), возникшие в результате или связанные с (а) любыми изменениями в конфигурация, параметры приложения, переменные среды, реестр, драйверы, BIOS или другие атрибуты системы (или любой части такой системы), инициированные через ПРОГРАММНОЕ ОБЕСПЕЧЕНИЕ ». [53]

GeForce Experience [ править ]

До обновления 26 марта 2019 г. пользователи GeForce Experience были уязвимы для выполнения кода , отказа в обслуживании и атак с повышением привилегий [55]

Ссылки [ править ]

  1. ^ a b c «Графические карты GeForce» . Nvidia. Архивировано 1 июля 2012 года . Проверено 7 июля 2012 года .
  2. ^ https://drops.dagstuhl.com/opus/volltexte/2020/12373/pdf/LIPIcs-ECRTS-2020-10.pdf Dagstuhl
  3. ^ «Победители конкурса Nvidia Naming Contest» . Nvidia . 1999. Архивировано из оригинала 8 июня 2000 года . Проверено 28 мая 2007 года .
  4. Взято, Femme (17 апреля 1999 г.). «Nvidia» Назовите этот чип «контестом» . Tweakers.net . Архивировано 11 марта 2007 года . Проверено 28 мая 2007 года .
  5. ^ " Максимальный выпуск ПК, апрель 2002 г." . Максимум ПК . Future US, Inc., апрель 2002 г. с. 29 . Проверено 15 мая 2020 года .
  6. Брайан Колфилд (7 января 2008 г.). «Стреляй на поражение» . Forbes.com . Архивировано 24 декабря 2007 года . Проверено 26 декабря 2007 года .
  7. ^ "NVIDIA GeForce 9800 GTX" . Архивировано 29 мая 2008 года . Проверено 31 мая 2008 года .
  8. ^ DailyTech отчет архивации 5 июля 2008, в Wayback Machine : Crytek, Microsoft и Nvidia преуменьшить Direct3D 10.1, извлекаться 4 декабря 2007 г.
  9. ^ «Nvidia незаметно выпускает графические процессоры серии GeForce 100» . 6 апреля 2009 года. Архивировано 26 марта 2009 года.
  10. ^ «nVidia выпускает карты серии GeForce 100» . 10 марта 2009 года. Архивировано 11 июля 2011 года.
  11. ^ «Nvidia незаметно выпускает графические процессоры серии GeForce 100» . 24 марта 2009 года. Архивировано 21 мая 2009 года.
  12. ^ "Обзор видеокарты NVIDIA GeForce GTX 280" . Контрольные обзоры. 16 июня 2008. Архивировано из оригинала 17 июня 2008 года . Проверено 16 июня 2008 года .
  13. ^ «GeForce GTX 280 выйдет 18 июня» . Fudzilla.com. Архивировано из оригинала на 17 мая 2008 года . Проверено 18 мая 2008 года .
  14. ^ "Подробные изображения GeForce GTX 280" . VR-зона. 3 июня 2008. Архивировано из оригинала на 4 июня 2008 года . Проверено 3 июня 2008 года .
  15. ^ "- Новости :: NVIDIA запускает линейку GeForce 300 с GeForce 310: Страница - 1/1" . Hexus.net. 27 ноября 2009 года. Архивировано 28 сентября 2011 года . Проверено 30 июня 2013 года .
  16. ^ «Каждому ПК нужна хорошая графика» . Nvidia. Архивировано 13 февраля 2012 года . Проверено 30 июня 2013 года .
  17. ^ «Обновление: NVIDIA GeForce GTX 400 Series появится раньше - AnandTech :: Ваш источник для анализа оборудования и новостей» . Anandtech.com. Архивировано 23 мая 2013 года . Проверено 30 июня 2013 года .
  18. ^ Смит, Райан (19 марта 2013 г.). «NVIDIA обновляет план развития графических процессоров; объявляет о выпуске семейства Volta на период после 2014 года» . AnandTech. Архивировано 21 марта 2013 года . Проверено 19 марта 2013 года .
  19. Пол, Ян (10 мая 2016 г.). «RIP VGA: GeForce GTX 1080 от Nvidia отказывается от аналоговой поддержки, следуя примеру Intel и AMD» . PCWorld . Архивировано 31 марта 2017 года . Проверено 31 марта 2017 года .
  20. Гупта, Сумит (21 марта 2014 г.). «NVIDIA обновляет план развития графических процессоров; объявляет о выпуске Pascal» . Blogs.nvidia.com. Архивировано 25 марта 2014 года . Проверено 25 марта 2014 года .
  21. ^ "Параллельный Форалл" . Зона разработчиков NVIDIA . Devblogs.nvidia.com. Архивировано из оригинального 26 марта 2014 года . Проверено 25 марта 2014 года .
  22. ^ "GEFORCE GTX 10 СЕРИИ" . www.geforce.com . Архивировано 28 ноября 2016 года . Проверено 24 апреля 2018 года .
  23. ^ "nside Pascal: новейшая вычислительная платформа NVIDIA" . 5 апреля 2016 года. Архивировано 7 мая 2017 года.
  24. Денис Фоли (25 марта 2014 г.). "NVLink, Pascal и Stacked Memory: удовлетворение аппетита к большим данным" . nvidia.com . Архивировано 20 июля 2014 года . Проверено 7 июля 2014 года .
  25. ^ «Архитектура графического процессора Pascal нового поколения от NVIDIA, обеспечивающая 10-кратное ускорение приложений для глубокого обучения» . Официальный блог NVIDIA . Архивировано 2 апреля 2015 года . Проверено 23 марта 2015 года .
  26. Рианна Смит, Райан (17 марта 2015 г.). «Обзор NVIDIA GeForce GTX Titan X» . AnandTech . п. 2. Архивировано 5 мая 2016 года . Проверено 22 апреля 2016 года . ... ничтожная собственная скорость FP64 всего 1/32
  27. ^ «NVIDIA представляет архитектуру GPU Turing нового поколения: NVIDIA удваивает трассировку лучей, GDDR6 и многое другое» . Anandtech . 13 августа 2018 . Проверено 13 августа 2018 года .
  28. ^ a b «Графические процессоры NVIDIA на базе технологии Тьюринга - первые в истории построенные для трассировки лучей» . Engadget . Проверено 14 августа 2018 года .
  29. ^ «Графические карты NVIDIA GeForce RTX 20 Series» . NVIDIA . Проверено 12 февраля 2019 года .
  30. ^ "NVIDIA Deep Learning Super-Sampling (DLSS) Показано для печати" . www.legitreviews.com . Проверено 14 сентября 2018 года .
  31. ^ «NVIDIA официально анонсирует архитектуру графического процессора Turing на выставке SIGGRAPH 2018» . www.pcper.com . Перспектива ПК . Проверено 14 августа 2018 года .
  32. ^ Отдел новостей, NVIDIA. «10 лет разработки: NVIDIA предлагает геймерам трассировку лучей в реальном времени с помощью GeForce RTX» . Отдел новостей NVIDIA Newsroom .
  33. ^ Отдел новостей, NVIDIA. «NVIDIA GeForce RTX 2060 уже здесь: взлет игр нового поколения» . Отдел новостей NVIDIA Newsroom .
  34. ^ https://nvidianews.nvidia.com/news/nvidia-delivers-greatest-ever-generational-leap-in-performance-with-geforce-rtx-30-series-gpus
  35. ^ https://www.nvidia.com/en-us/geforce/special-event/
  36. ^ «Ноутбуки GeForce GTX 10-й серии» . Архивировано 21 октября 2016 года . Проверено 23 октября 2016 года .
  37. ^ a b Хагедорн, Гильберт (26 мая 2017 г.). «NVIDIA представляет GeForce MX150 для ноутбуков» . Guru3D . Архивировано 29 июня 2017 года . Проверено 2 июля 2017 года .
  38. Рианна Смит, Райан (26 мая 2017 г.). «NVIDIA анонсирует GeForce MX150: Pascal начального уровня для ноутбуков, как раз вовремя для Computex» . AnandTech . Архивировано 3 июля 2017 года . Проверено 2 июля 2017 года .
  39. ^ "NVIDIA малый форм-фактор" . Nvidia. Архивировано 22 января 2014 года . Проверено 3 февраля 2014 года .
  40. ^ "Графические процессоры для материнских плат NVIDIA" . Nvidia. Архивировано 3 октября 2009 года . Проверено 22 марта 2010 года .
  41. Кингсли-Хьюз, Адриан (7 октября 2009 г.). «Конец линейки чипсетов NVIDIA, и это официально» . ZDNet . Проверено 27 января 2021 года .
  42. ^ «Поддержка ОС для графических процессоров GeForce» . Nvidia .
  43. ^ «Поддержка EGL» . 8 июля 2014 года. Архивировано 11 июля 2014 года . Проверено 8 июля 2014 года .
  44. ^ "lib32-nvidia-utils 340.24-1 Список файлов" . 15 июля 2014 года. Архивировано 16 июля 2014 года.
  45. ^ «Драйвер 358.09 для Linux, Solaris и FreeBSD (бета)» . 10 декабря 2015 года. Архивировано 25 июня 2016 года.
  46. ^ «Выпуск NVIDIA 364.12: Vulkan, GLVND, DRM KMS и EGLStreams» . 21 марта 2016 года. Архивировано 13 июня 2016 года.
  47. ^ «Nvidia: поддержка Vulkan в драйвере Windows версии 356.39 и версии драйвера Linux 355.00.26» . 16 февраля 2016 года. Архивировано 8 апреля 2016 года.
  48. ^ "Что такое устаревший драйвер?" . Nvidia . Архивировано 22 октября 2016 года.
  49. ^ «Ответ Nvidia на последние работы в стиле модерн» . Фороникс . 14 декабря 2009 года. Архивировано 7 октября 2016 года.
  50. ^ Larabel, Майкл (11 июля 2014). «NVIDIA вносит свой вклад в код повторной синхронизации в Nouveau для GK20A» . Фороникс . Архивировано 25 июля 2014 года . Проверено 9 сентября 2014 года .
  51. ^ "Nouveau 3.14 получает новое ускорение, все еще не хватает PM" . Фороникс . 23 января 2014 года. Архивировано 3 июля 2014 года . Проверено 25 июля 2014 года .
  52. ^ «Сравнительный анализ Nouveau и проприетарного драйвера GeForce от Nvidia в Linux» . Фороникс . 28 июля 2014 года. Архивировано 16 августа 2016 года.
  53. ^ a b c «Лицензия на использование программного обеспечения NVIDIA» . Nvidia.com . Архивировано 10 августа 2017 года . Проверено 10 августа 2017 года .
  54. ^ «Политика конфиденциальности NVIDIA / Ваши права на конфиденциальность в Калифорнии» . 15 июня 2016 года. Архивировано 25 февраля 2017 года.
  55. ^ «Nvidia исправляет недостаток безопасности GeForce Experience» . Оборудование Тома . 27 марта 2019 . Проверено 25 июля 2019 года .

Внешние ссылки [ править ]

  • Страница продукта GeForce на сайте Nvidia
  • Игры на базе GeForce на сайте Nvidia
  • techPowerUp! База данных GPU