154
2.
В программе необходимо использовать критическую секцию. Как
реализовать критическую секцию в рамках системы Linda?
3.
Продумайте детали реализации системы Linda в Linux-кластере.
Укажите возможные узкие места, влияющие на эффективность
выполнения программ.
4.
Необходимо написать программу
для компьютера с общей
памятью. Чему отдать предпочтение: ОрепМР или Linda?
Сравните данные технологии с различных точек зрения.
5.
С использованием системы Linda напишите программу,
реализующую сложение элементов вектора по схеме сдваивания.
6.
Можно ли написать
автоматический конвертор, преобразующий
программы из ОрепМР в систему Linda и наоборот?
7.
Можно ли написать автоматический конвертор, преобразующий
программы из MPI в систему Linda и наоборот?
8.
В распоряжении программистов есть, с одной стороны,
MPI и
ОрепМР, а с другой стороны, компьютеры с общей и
распределенной памятью. Какая технология программирования
какой архитектуре лучше соответствует?
9. Чем отличаются процессы в MPI и в системе Linda?
10.
Что означает в MPI посылка и прием сообщения с блокировкой?
11.
Всем MPI-процессам надо обменяться сообщениями "по кольцу".
Найдите такой
способ организации программы, который бы
гарантировал отсутствие тупиковой ситуации. Как сделать то же
самое, но с использованием только блокирующих операций
MPl_Send и MPl_Recv?
12.
Верно ли, что в коллективных операциях участвуют все
процессы приложения?
13.
Могут ли каким-то образом общаться процессы, принадлежащие
разным коммуникаторам?
155
14.
Верно ли, что никакие два процесса
программы не могут иметь
одинаковые номера?
15.
Сравните технологии программирования MPI и DVM с разных
точек зрения.
16.
Какая взаимосвязь между понятиями виртуальной топологии
процессов в MPI и сетью в трС? Каково назначение этих
конструкций?
17.
Можно ли в MPI-программе учесть возможную неоднородность
вычислительной системы?
18.
Почему в MPI нет механизма критических секций?
19.
Почему
использование
асинхронных
операций
обмена
сообщениями, выполняющихся на
фоне вычислений, вместо
операций с блокировкой необязательно приведет к ускорению
программы?
20.
Можно ли в MPI принять сообщение, не
зная точно номера
посылающего процесса?
21.
Известно, что MPI не гарантирует справедливости в
распределении
приходящих
сообщений.
Как
в
схеме
мастер/рабочие гарантировать регулярную загрузку и регулярное
обслуживание каждого подчиненного процесса?
22.
Как в MPI определить размер буфера, необходимого для приема
сообщения?
23.
Какие особенности программно-аппаратной среды компьютера
могут быть использованы системой поддержки MPI для
эффективного выполнения функции MPI_Startall?
24.
Какое выражение нужно поместить на
место параметра color
функции MPl_Comm_split, чтобы группу из 100 процессов
Do'stlaringiz bilan baham: