WikiDer > Планирование банды
В Информатика, планирование банды это алгоритм планирования для параллельных систем, которые планируют связанные потоки или же процессы работать одновременно на разных процессоры. Обычно это будут потоки, все принадлежащие одному процессу, но они также могут быть из разных процессов, где процессы могут иметь отношения производитель-потребитель или происходить из одного и того же MPI программа.
Групповое планирование используется, чтобы гарантировать, что если два или более потока или процесса взаимодействуют друг с другом, все они будут готовы к взаимодействию одновременно. Если бы они не были запланированы группой, то можно было бы подождать, чтобы отправить или получить сообщение другому, пока он спит, и наоборот. Когда процессоры имеют избыточную подписку и групповое планирование не используется в группе процессов или потоков, которые взаимодействуют друг с другом, каждое коммуникационное событие может нести накладные расходы переключатель контекста.
Планирование банд основано на структуре данных, называемой матрицей Оустерхаута. В этой матрице каждая строка представляет временной интервал, а каждый столбец - процессор. Потоки или процессы каждого задания упаковываются в одну строку матрицы.[1] Во время выполнения координированное переключение контекста выполняется на всех узлах для переключения с процессов в одной строке на процессы в следующей строке.
Планирование банды строже, чем планирование затрат.[2] Это требует, чтобы все потоки одного и того же процесса выполнялись одновременно, в то время как планирование позволяет фрагменты, которые представляют собой наборы потоков, которые не выполняются одновременно с остальной частью группы.
Планирование группировки было реализовано и использовалось в производственном режиме на нескольких параллельных машинах, в первую очередь на Соединительная машина СМ-5.
Типы
Сумка банд (BoG)
При групповом планировании выполняется сопоставление «один-к-одному», что означает, что каждая задача будет сопоставлена процессору. Обычно рабочие места рассматриваются как независимые банды, но с помощью схемы «мешок банд» все банды можно объединить и отправить вместе в систему. Когда в системе выполняются задания, выполнение не может быть завершено до тех пор, пока все банды, принадлежащие к одному и тому же BoG, не завершат свое выполнение.[3] Таким образом, если одна банда, принадлежащая к некоторой работе, завершит свое выполнение, ей придется ждать, пока все банды завершат свои казни. Это приводит к увеличению накладных расходов на задержку синхронизации.
Время отклика из Сумка банд определяется как временной интервал от прибытия BoG к диспетчеру сети до завершения работ всех подгрупп, которые принадлежат BoG. Среднее время ответа определяется следующим образом:
Время отклика (RT) =.[3]
На время отклика дополнительно влияет поступление приоритетного задания. Каждый раз, когда в систему поступает приоритетное задание, этому заданию будет отдан приоритет по отношению ко всем другим заданиям, даже по сравнению с теми, которые в настоящее время выполняются на процессорах. В этом случае, когда прибывает приоритетное задание, подгруппа, которая в настоящее время выполняется в системе, будет остановлена, а весь достигнутый прогресс будет потерян и его необходимо будет повторить. Это прерывание работы еще больше замедлит общее время отклика BoG.[3]
Адаптированный - первым пришел - первым обслужен (AFCFS)
Адаптированная схема «первым пришел - первым обслужен» (AFCFS) - это адаптированная версия схемы «первым пришел - первым обслужен». Согласно схеме «первым пришел - первым обслужен», какое бы задание ни было первым, оно будет отправлено на выполнение. Но в схеме AFCFS, как только задание поступает в систему, оно не будет запланировано до тех пор, пока не будет доступно достаточно процессоров для выполнения соответствующего задания.[3] Когда большое задание поступает в систему и присутствует в начале очереди готовности, но доступно недостаточно процессоров, тогда политика AFCFS будет планировать меньшее задание, для которого доступно достаточно процессоров, даже если это задание находится в конце очередь. Другими словами, эта схема отдает предпочтение меньшим заданиям по сравнению с более крупными заданиями в зависимости от доступности процессора, таким образом, это приведет к увеличению фрагментации системы.[3][4]
Крупнейшая банда первой обслуженной (LGFS)
В приведенной выше схеме выполнения задачи, которые соответствуют увеличению размера задания, помещаются в очередь, причем задачи, принадлежащие самой большой группе, планируются первыми, но этот метод выполнения имеет тенденцию приводить к голодание ресурсов меньшего размера и поэтому непригоден для выполнения в системах со сравнительно небольшим количеством процессоров.[5]
AFCFS и LGFS также должны иметь дело с возможным отказом процессора. В таком случае задачи, выполняемые на этом процессоре, передаются на выполнение другим процессорам. Задачи ожидают в начале очереди на этих процессорах, пока текущий процессор восстанавливается.
Есть два сценария, которые возникают из вышеуказанной проблемы:[5]
- Случай блокировки: процессоры, назначенные для прерванных заданий, блокируются и не могут выполнять другие задания в своей очереди до тех пор, пока задания из поврежденных процессоров не будут очищены.[5]
- Неблокирующий случай: этот случай возникает, когда задания, уже выполняющиеся в процессорах, обрабатываются раньше, а не ожидают возобновления выполнения заблокированных заданий.[5]
Парное планирование банды
Планирование банды при выполнении связанных процессов ввода-вывода сохраняет Процессоры простаивает, ожидая ответов от других процессоров, тогда как незанятые процессоры можно использовать для выполнения задач. Если группа состоит из смеси процессов ЦП и ввода-вывода, поскольку эти процессы мало влияют на работу друг друга, алгоритмы может быть определен таким образом, чтобы одновременно загружать и ЦП, и ввод-вывод и использовать параллелизм. Этот метод представляет идею сопоставления пар групп, одна основанная на вводе-выводе и одна привязанная к процессору. Каждая банда предполагает, что работает изолированно, поскольку использует разные устройства.[6]
Алгоритм планирования
- Общий случай: в общем случае в сети назначается центральный узел для обработки распределения задач и распределения ресурсов. Он хранит информацию в матрице Ousterhout. При строгом групповом планировании за раз выбирается одна строка, после чего планировщик узла планирует процесс в соответствующей ячейке этой строки.[6]
- Парная группа: при планировании парной группы выбираются две строки вместо одной, по одной для каждой группы, связанной с вводом-выводом, и группы ЦП. Распределение заданий между соответствующими процессорами для достижения максимально допустимого параллелизма остается на усмотрение локального планировщика.[6]
Методы синхронизации
Планирование одновременных группировок (CGS)
Параллельное групповое планирование - это хорошо масштабируемый и универсальный алгоритм, предполагающий наличие синхронизатора, использующего внутренние часы каждого узла. CGS в основном состоит из следующих трех компонентов.[7]
- Модуль процессора / памяти (также называемый элементом обработки).
- 2-сторонняя сеть, обеспечивающая связь 1-1.
- Синхронизатор, который выполняет синхронизацию всех PE через постоянный интервал.
Алгоритм синхронизации выполняется в два этапа.[7]
- При изменении нагрузки внешний планировщик создает специальную таблицу времени.
- Затем локальный планировщик следует расписанию, переключаясь между заданиями, которые были распределены между ними внешним планировщиком.
Мы предполагаем существование синхронизатора, который отправляет сигнал всем узлам в кластере с постоянным интервалом. CGS использует тот факт, что наиболее частыми событиями, которые происходят в ПК, являются прерывания таймера, и они используют тот же параметр, что и внутренние часы.[7]
- Инициализируется общий счетчик, который увеличивается каждый раз при обнаружении прерывания и обозначается внутренними часами ОС.
- Все узлы синхронизируются после контрольного интервала «t» и используют внутренние часы отдельных узлов.
- Если по истечении времени t нет расхождения индивидуальных часов узлов и глобальных часов, временной интервал t увеличивается. В противном случае он сокращается.
- Постоянно проверять и обновлять интервал проверки t.
Система планирования SHARE
Система планирования SHARE использует внутреннюю систему часов каждого узла и синхронизируется с помощью Протокол NTP. Особенность планирования реализуется путем сбора заданий с одинаковыми требованиями к ресурсам в группе и их выполнения в течение заранее определенного временного интервала. Незавершенные задания прерываются после того, как временной интервал исчерпан.[8]
Локальная память узла используется как пространство подкачки для предварительно освобожденных заданий. Основные преимущества системы планирования SHARE заключаются в том, что она гарантирует время обслуживания для принятых заданий и поддерживает как пакетные, так и интерактивные задания.
Синхронизация:
Каждая группа процессов, использующих одни и те же ресурсы, отображается на другой процессор. Система SHARE в основном состоит из трех взаимодействующих модулей.[8]
- Глобальный планировщик: этот планировщик указывает локальному планировщику конкретный порядок выполнения их процессов (членов локальной банды).
- Локальный планировщик: после того, как локальному планировщику предоставлены задания для выполнения глобальным планировщиком, он гарантирует, что только один из параллельных процессов выполняется на любом из процессоров в заданном временном интервале. Локальному планировщику требуется переключение контекста, чтобы прервать выполнение задания по истечении его временного интервала и заменить его новым.
- Интерфейс к системе связи: подсистема связи должна удовлетворять нескольким требованиям, которые значительно увеличивают накладные расходы планировщика. В основном они состоят из:
- Эффективность: необходимо раскрывать производительность оборудования межсоединения на уровне клиента.
- Контроль доступа: должен управлять доступом к подсистеме связи.
- Защита и безопасность: межсоединение должно поддерживать разделение процессоров, не позволяя одному влиять на производительность другого.
- Многопротокольный: межсоединение должно иметь возможность отображать различные протоколы одновременно для удовлетворения различных потребностей клиентов.
Критерии упаковки
Новый слот создается, когда мы не можем упаковать задание в доступный слот. В случае открытия нового слота, даже если задание может быть упаковано в доступный слот, тогда доля выполнения, равная единице по количеству используемых слотов, будет увеличиваться. Поэтому для критериев упаковки были разработаны определенные алгоритмы, которые упоминаются ниже:
Алгоритм на основе емкости
Этот алгоритм контролирует емкость слотов и решает, нужно ли открывать новый слот. Есть два варианта этого алгоритма:
1. Первая посадка. Здесь используемые слоты проверяются на емкость в последовательном порядке, затем выбирается первый, имеющий достаточную емкость. Если ни один из доступных слотов не имеет достаточной емкости, открывается новый слот, и элементы обработки (PE) выделяются в слоте в последовательном порядке.[9]
2. Наиболее подходящий. В отличие от первого подбора, используемые слоты сортируются по емкости, но не в последовательном порядке. Выбирается слот с наименьшей достаточной емкостью. Если ни один из используемых слотов не имеет достаточной емкости, то открывается только один новый слот. Как только новый слот открыт, обрабатывающие элементы (PE) распределяются в слоте в последовательном порядке в соответствии с предыдущим алгоритмом.[9]
Алгоритмы, основанные на левом-правом
Этот алгоритм представляет собой модифицированную версию алгоритма наилучшего соответствия. В алгоритме наилучшего соответствия PE распределяются в последовательном порядке, но в этом алгоритме PE могут быть вставлены с обоих направлений, чтобы уменьшить перекрытие между различными наборами PE, назначенными разным заданиям.[9]
1. Слева-справа по размеру. Здесь PE могут быть вставлены в последовательном порядке и в обратном последовательном порядке в зависимости от размера задания. Если размер задания небольшой, PE вставляются слева направо, а если задание большое, PE вставляются справа налево.[9]
2. Слева направо по прорезям. В отличие от предыдущего алгоритма, где выбор основывался на размере задания, здесь выбор зависит от слота. Теперь слоты отображаются как заполняемые, то есть заполняемые слева или справа. PE назначаются заданию в том же порядке. Количество слотов с обеих сторон примерно одинаково, поэтому при открытии нового слота направление указывается на основе количества слотов в обоих направлениях.[9]
Алгоритмы на основе нагрузки
Алгоритмы на основе емкости и алгоритмы на основе левого-правого не учитывают нагрузку на отдельные PE. Алгоритмы на основе нагрузки учитывают нагрузку на индивидуальный PE, отслеживая перекрытие между наборами PE, назначенными разным заданиям.[9]
1. Минимальная максимальная нагрузка. В этой схеме PE сортируются в зависимости от нагрузки на них, которую каждое задание будет иметь на PE. Доступность свободных PE в слоте определяет емкость слота. Предположим, что PE назначены заданию, имеющему темы, PE в порядке загрузки (последний) будет определять максимальную нагрузку, которую может иметь любой PE, доступный в слоте. Выбирается слот, который имеет минимальную максимальную нагрузку на любой PE, и в слоте используется количество наименее загруженных свободных PE.[9]
2. Минимальная средняя нагрузка. В отличие от предыдущей схемы, в которой слоты выбирались исходя из минимальной максимальной нагрузки на PE, здесь слоты выбираются исходя из средней нагрузки на наименее загруженные ПЭ.[9]
Алгоритм на основе друзей
В этом алгоритме PE назначаются кластерами, а не индивидуально. Сначала PE делятся на группы, равные степени двойки. Каждому члену группы будет назначен контроллер, и когда поступит задание размера n, оно будет назначено контроллеру размера 2.[LG 2] (наименьшая степень 2, которая больше или равна n). Контроллер назначается путем сортировки всех используемых слотов, а затем определения групп по 2[LG 2] смежные бесплатные процессоры. Если у контроллера все PE в некоторых слотах свободны, то этому контроллеру будет назначено только вновь поступившее задание. В противном случае открывается новый слот.[9]
Алгоритм на основе миграции
Во всех вышеупомянутых алгоритмах начальная политика размещения фиксирована, и на основе этого PE распределяются задания. Однако эта схема переносит задания из одного набора PE в другой набор PE, что, в свою очередь, улучшает долю выполнения в системе. [9]
Смотрите также
Рекомендации
- Расписание банд, разделение времени на параллельных компьютерах, SC98, ноябрь 1998 г. (резюме)
- Характеристики производительности группового планирования в многопрограммных средах, SC97, ноябрь 1997 г.
- ^ Дрор Дж. Фейтельсон (1996). Схемы упаковки для группового планирования. В Стратегии планирования заданий для параллельной обработки, Springer-Verlag Lecture Notes in Computer Science Vol. 1162, стр. 89-110.
- ^ Feitelson, Dror G .; Рудольф, Ларри (1992). «Преимущества производительности группового планирования для точной синхронизации». Журнал параллельных и распределенных вычислений. 16 (4): 306–318. CiteSeerX 10.1.1.79.7070. Дои:10.1016 / 0743-7315 (92) 90014-э.
- ^ а б c d е Papazachos, Zafeirios C .; Караца, Хелен Д. (август 2010 г.). «Оценка эффективности диспетчеризации пакета групп в гетерогенной распределенной системе». Журнал систем и программного обеспечения. 83 (8): 1346–1354. Дои:10.1016 / j.jss.2010.01.009.
- ^ Зафейриос К. Папазачос, Хелен Д. Караца, «Оценка эффективности составления расписания банд в двухкластерной системе с миграциями», IPDPS, 2009, Симпозиум по параллельной и распределенной обработке, Международный симпозиум по параллельной и распределенной обработке, Международный 2009 г., стр. 1-8, Дои:10.1109 / IPDPS.2009.5161172
- ^ а б c d «Анализ производительности группового планирования в распределенной системе при сбоях процессора» (PDF).
- ^ а б c «Парное планирование банды» (PDF).
- ^ а б c Хёдо, Кадзуки; Козакаи, Ясуюки; Накаяма, Ясуичи (2007). «Реализация параллельного группового планировщика для кластерной системы на базе ПК». Системы и компьютеры в Японии. 38 (3): 39–48. Дои:10.1002 / scj.20458.
- ^ а б Общество, Ieee Computer (1996). Групповое планирование для высокоэффективных распределенных многопроцессорных систем. Frontiers '96. С. 4–. ISBN 9780818675515.
- ^ а б c d е ж грамм час я j «Схемы упаковки для составления расписания банд» (PDF).