Огромные возможности графического процессора GPU

1 Звезда2 Звезды3 Звезды4 Звезды5 Звезд. УРА! (No Ratings Yet)
Загрузка...

Термин GPU был впервые использован Sony в 1994 году с запуском PS1. Эта система имела 32-бит Sony GPU (разработанную Toshiba). Акроним использовался до и после этого, ссылаясь на блок обработки геометрии - графический процессор. TriTech представила блок обработки геометрии в 1996 году, и Microsoft лицензировала его у них в 1998 году. Он был частью многочипового решения и использовал OpenGL API.

3DLABS представила Glint multi-чип набор в 1995 году с процессором геометрии (позже интегрированным в один чип), который был нацелен на рынок профессиональных графических рабочих станций, который в то время был самым требовательным с точки зрения производительности. Nvidia нацелилась на свое устройство в игровом сообществе, которое было меньше, но быстро росло.

Спустя пять или шесть лет рынок игр взлетел, взяв Nvidia вместе с ним, в то время как рынок рабочей станции сглаживался и не обеспечивал достаточные продажи для таких компаний, как 3DLABS, чтобы продолжать инвестировать в новые полупроводниковые проекты. Вскоре Nvidia смогла адаптировать свое устройство к профессиональному графическому рынку и повысить конкурентное давление на поставщиков специализированных графических процессоров.

Начиная с 2000 года термин GPU применим к блоку обработки геометрии, часто используется и представлен в десятках патентов.

В течение того же периода времени исследователи из университетов, всегда на охоте за менее дорогой вычислительной мощностью, и многие другие начинали экспериментировать с использованием процессоров в игровых консолях, таких как Cell в PS3 и графических процессоров от ATI и Nvidia, которые были использованы в них.

Как ни странно, то, как они решили запрограммировать GPU для вычисления приложений, было через OpenGL, потому что он раскрыл больше возможностей GPU.

Сегодня мы обнаруживаем, что GPU используется для искусственного интеллекта в мобильных телефонах и автомобилях, в обучении искусственного интеллекта в различных компаниях и государственных учреждениях, криптовалютной разработке, научных, медицинских, а также в ускорении инженерных приложений и робототехнике, чтобы назвать некоторые из наиболее распространенных прикладных задач. Графический процессор сокращает время, затрачиваемое исследователями и инженерами на анализ, проектирование и диагностику проблем.

Мало того, что ответы на сложные проблемы получаются скорее, они расширяются с точностью. Одним из компромиссов, связанных с сокращением данных, является снижение точности, чтобы получить ответ в течение одного срока службы.

Но остается ли он графическим процессором? Совершенно очевидно. Речь идет о Nvidia Volta с его тензорным двигателем и Vega AMD. Intel тоже войдет на рынок GPU и предоставит свои огромные возможности AI одному из своих предложений.

Сегодняшние чипы - это массовые устройства. Например, Volta Nvidia является самым большим чипом, когда-либо производившимся, и измеряет 815 мм2.

Они также являются потрясающими потребителями данных и требуют быстрой, тесно связанной памяти с максимальной пропускной способностью, которая может подавать все эти 32-битные ALU. Чтобы попытаться удовлетворить этот спрос, AMD и Nvidia приняли 32 ГБ высокопроизводительной 3D-памяти (HBM) с пропускной способностью до 900 ГБ/с для своих процессоров.

Все эти технологии - современные версии параллельных процессоров, разработанных в конце 1980-х годов и построенных в больших стойках. Они медленнее, чем SoCs в наших смартфонах сегодня, но схемы связи и распределение локализованной высокоскоростной памяти одинаковы - всего в два раза быстрее и больше с точки зрения ALU.

Оставить комментарий

Подтвердите, что Вы не бот — выберите человечка с поднятой рукой: