154
2.
В программе необходимо использовать критическую секцию. Как
реализовать
критическую секцию в рамках системы Linda?
3.
Продумайте детали реализации системы Linda в Linux
-
кластере.
Укажите возможные узкие места,
влияющие на эффективность
выполнения программ.
4.
Необходимо написать программу для компьютера с общей
памятью. Чему отдать предпочтение: ОрепМР или Linda?
Сравните данные технологии с различных точек зрения.
5.
С использованием системы Linda напишите программу,
реализующую сложение элементов вектора по схеме сдваивания.
6.
Можно ли написать автоматический конвертор,
преобразующий
программы из
ОрепМР в систему Linda и наоборот?
7.
Можно ли написать автоматический конвертор, преобразующий
программы из
MPI в систему Linda и наоборот?
8.
В распоряжении программистов есть, с
одной стороны, MPI и
ОрепМР, а с
другой стороны, компьютеры с общей и
распределенной памятью. Какая технология программирования
какой архитектуре лучше соответствует?
9. Чем отличаются процессы в MPI и в системе Linda?
10.
Что означает в MPI посылка и прием сообщения с блокировкой?
11.
Всем MPI
-
процессам надо обменяться сообщениями "по кольцу".
Найдите такой
способ организации программы, который бы
гарантировал отсутствие тупиковой ситуации. Как сделать то же
самое, но с использованием только блокирующих операций
MPl_Send и MPl_Recv?
12.
Верно ли, что в коллективных операциях участвуют все
процессы приложения?
13.
Могут ли каким
-
то образом общаться процессы, принадлежащие
разным коммуникаторам?
155
14.
Верно ли, что никакие два процесса
программы не могут иметь
одинаковые
номера?
15.
Сравните технологии программирования MPI и DVM с разных
точек зрения.
16.
Какая взаимосвязь между понятиями виртуальной топологии
процессов в MPI и
сетью в трС?
Каково назначение этих
конструкций?
17.
Можно ли в MPI
-
программе учесть возможную неоднородность
вычислительной системы?
18.
Почему в MPI нет механизма критических секций?
19.
Почему
использование
асинхронных
операций
обмена
сообщениями, выполняющихся на фоне вычислений,
вместо
операций с блокировкой необязательно
приведет к ускорению
программы?
20.
Можно ли в MPI принять сообщение, не
зная точно номера
посылающего процесса?
21.
Известно, что MPI не гарантирует справедливости в
распределении
приходящих
сообщений.
Как
в
схеме
мастер/рабочие гарантировать регулярную загрузку и
регулярное
обслуживание каждого подчиненного процесса?
22.
Как в MPI определить размер буфера, необходимого для приема
сообщения?
23.
Какие особенности программно
-
аппаратной среды компьютера
могут быть использованы
системой поддержки MPI для
эффективного выполнения функции MPI_Startall?
24.
Какое выражение нужно поместить на место параметра color
функции
MPl_Comm_split, чтобы группу из 100 процессов
Do'stlaringiz bilan baham: