- Гибридная вычислительная система
-
Не следует путать с аналого-цифровая вычислительная система.
Гибридная вычислительная система — система с гетерогенной аппаратной вычислительной структурой. Комбинация любых вычислительных устройств или блоков, например вычисления с помощью CPU и GPU совместно.[1][2]
Содержание
История
Обычно основным вычислительным компонентом систем для высокопроизводительных вычислений, включая кластеры, является центральный процессор. Однако, уже начиная с процессоров Intel486DX в составе компьютеров появился такой элемент, как сопроцессор, что можно считать гибридизацией на аппаратном уровне.
В середине 2000-х для вычислительных целей начали использовать графический процессор (GPU).[1]
Основная проблема состоит в том, чтобы найти способы выполнять вычислительные задачи с помощью графического процессора. Осознав спрос на подобные вычисления, компания NVIDIA в 2007 году представила программно-аппаратную платформу CUDA, позволяющую запускать произвольный код на GPU. До появления CUDA, программистам приходилось строить гибридные системы из обычных видеокарт и программировать их, используя сложнейшие графические API.
Кампания ATI разработала свои аналоги для CUDA. Это технологии ATI Stream и Close to Metal.
Ожидается, что новая архитектура Intel Larrabee будет поддерживать технологии GPGPU.
Технические особенности
Этот раздел не завершён. Вы поможете проекту, исправив и дополнив его.GPU
Высокая вычислительная мощность GPU объясняется особенностями архитектуры. Если современные CPU содержат несколько ядер (на большинстве современных систем от 2 до 4х, 2011 г.), графический процессор изначально создавался как многоядерная структура, в которой количество ядер измеряется сотнями. Разница в архитектуре обусловливает и разницу в принципах работы. Если архитектура CPU предполагает последовательную обработку информации, то GPU исторически предназначался для обработки компьютерной графики, поэтому рассчитан на массивно параллельные вычисления.[3]
Каждая из этих двух архитектур имеет свои достоинства. CPU лучше работает с последовательными задачами. При большом объеме обрабатываемой информации очевидное преимущество имеет GPU. Условие только одно – в задаче должен наблюдаться параллелизм.
GPU уже достигли той точки развития, когда многие приложения реального мира могут с легкостью выполняться на них, причем быстрее, чем на многоядреных системах. Будущие вычислительные архитектуры станут гибридными системами с графическими процессорами, состоящими из параллельных ядер и работающими в связке с многоядреными CPU.[4] Оригинальный текст (англ.)GPUs have evolved to the point where many real-world applications are easily implemented on them and run significantly faster than on multi-core systems. Future computing architectures will be hybrid systems with parallel-core GPUs working in tandem with multi-core CPUs.[5]
Профессор Джек Донгарра (Jack Dongarra)
Директор Innovative Computing Laboratory
Университет штата ТеннессиCell
Этот раздел статьи ещё не написан. Согласно замыслу одного из участников Википедии, на этом месте должен располагаться специальный раздел.
Вы можете помочь проекту, написав этот раздел.Применение в распределенных вычислениях
Программа для GRID-вычислений BOINC поддерживает возможность использования графического процессора для выполнения вычислительных задач.[6]
Примечания
- ↑ 1 2 Гибридные вычислительные системы на основе GPU
- ↑ http://www.bull.com/extreme-computing/download/TESLA_Bull_fin.pdf
- ↑ Гибридные вычислительные системы на основе графических процессоров NVIDIA Tesla
- ↑ Вычисления на GPU. Архивировано из первоисточника 31 мая 2012. Проверено 13 сентября 2011.
- ↑ What is GPU Computing? (англ.). Архивировано из первоисточника 31 мая 2012. Проверено 13 сентября 2011.
- ↑ BOINC. Use your GPU for scientific computing. Архивировано из первоисточника 13 сентября 2011. Проверено 13 сентября 2011.
Литература
- Э. Таненбаум, М. ван Стеен. Распределенные системы. Принципы и парадигмы. — СПб.: Питер, 2003. — 877 с. — («Классика computer science»). — ISBN 5-272-00053-6
См. также
Ссылки
- Amar Shan Heterogeneous Processing: a Strategy for Augmenting Moore's Law (англ.). Linux journal. Архивировано из первоисточника 16 мая 2012. Проверено 13 сентября 2011.
Это заготовка статьи о компьютерах. Вы можете помочь проекту, исправив и дополнив её.
Это примечание по возможности следует заменить более точным.Параллельные вычисления Общие положения Облачные вычисления · Высокопроизводительные вычисления · Кластерные вычисления · Распределённые вычисления · Грид-вычисления · Гибридные вычисления Уровни паралеллизма Биты · Инструкции · Данные · Задачи Поток выполнения Суперпоточность · Гиперпоточность Теория Закон Амдала · Закон Густавсона — Барсиса · Эффективность затрат · Метрика Карпа-Флэтта · Замедление · Коэффициент ускорения Элементы Процесс · Поток · Файбер · ПМПД · Instruction window Взаимодействие Многопроцессорность · Многопоточность · Когерентность памяти · Когерентность кэша · Недействительность кэша · Барьер · Синхронизация · Контрольная точка Программирование Модели (Скрытый паралеллизм · Явный паралеллизм · Параллелизм) · Таксономия Флинна (SISD • SIMD • MISD • MIMD (SPMD)) · Поток · Неблокирующая синхронизация Компьютерная техника Мультипроцессорность (Симметричная · Асимметричная) · Память (NUMA · COMA · Распределённая · Разделяемая · Распределённая разделяемая) · Одновременная многопоточность
MPP · Суперскалярность · Векторный процессор · Суперкомпьютер · BeowulfAPI Ateji PX · POSIX Threads · OpenMP · OpenHMPP · PVM · MPI · UPC · Intel Threading Building Blocks · Boost · Global Arrays · Charm++ · Cilk · Co-array Fortran · OpenCL · CUDA · Stream · Dryad · DryadLINQ Проблемы Затруднительное распараллеливание · Проблемы Великого Вызова · Блокировка ПО · Масштабируемость · Состояние гонки · Взаимная блокировка · Активный тупик · Детерминированный алгоритм · Параллельное замедление Категории:- Гибридные вычислительные машины
- Параллельные вычислительные системы
Wikimedia Foundation. 2010.