Да, это сетка. Я был в бизнесе на протяжении многих лет.
Многие из проблем, которые работают на специализированных суперкомпьютеров можно было бы работать на распределенной сетке - у вас есть только потребность в высокоскоростной связи, когда вы должны переместить большие объемы данных между узлами. Многие моделирования использовать столько ядер, как они могут получить выделено столько часов, как они могут получить их выделенных, потому что расчеты относительно отличаются друг от друга, требуют небольших пакетов данных в и из, и может быть параллельно обработке, в сочетании, и послал в качестве нового расчета.
Как правило, они не двигаются вокруг "большие данные" между узлами обработки, хотя они могут быть немного генерации его в качестве вывода. Конечно, это не всегда так ...
EDIT: Есть больше, чем просто несколько примеров - есть буквально сотни приложений сетки. Готово, чтобы сэкономить деньги с помощью приложений, со временем и ресурсами, пожертвованных время добровольцев, работающих под управлением ими. Но предположит, что приложение пришло вместе, что заплатил некоторую тривиальную сумму денег на расчет - как Bitcoin делает - не кажется ли вам значительный резервный вычислительный capactiy будет, как правило, тяготеет к этому приложению?
Я 100% согласны с тем, что справедливый бит приложений, работающих в системах HPC может очень легко работать на сетке, но мы склонны рассматривать эти приложения, как приложения, которые не должны действительно быть запущены на КВД. Пользователи, использующие сетки вычислительных приложений на реальной системе HPC высокой скорости действительно тратить свое финансирование время покупки на такой машине.
Теперь, когда я не согласен на это предполагает получение данных в узлах. Это в конечном итоге принимает довольно большое количество времени на большинстве интернет-соединения, если каждая машина не работает на очень небольшом подмножестве данных. Если подмножество данных является то, что мало, я бы предположил, что сеть будет неэффективной для большинства даже сетки вычислительных задач. Даже сетевые компьютеры, как правило, имеют хорошую основу данных для погрузки барана на каждый узел для запуска вычислений на. Это означает, что центр обработки данных на основе облако будет гораздо более жизнеспособным кандидатом для такого рода вычислений, таких как облако амазонки. Они имеют сетевые соединения, способные принимать наборы данных в количестве причины времени. Я просто не могу видеть, где даже платить пустяковое количество будет более рентабельным, чем покупка время на высокой производительности (или даже низкой производительности) облака. Выход ввода / вывода является одним из основного ЛАВАША.
Теперь, если вы решили производить и хранить все данные локально, вам все равно придется следить за метаданные, так что вы можете сшить его обратно вместе. Это серьезная проблема, и само по себе, как в традиционных высокопроизводительных вычислений, данные просто хранятся на диске. Вы должны проверить данные и restitch его, что может потребовать свой собственный большой ГПЦ только для этого. Данные должны быть собраны где-то. Проверьте исследования на деревьях метаданных. Есть люди, делающие карьеру делают именно это, посмотрите на домашние методы Folding @ в частности. Его огромная проблема для вашей модели.
То, что вы хотите, уже существует, то его называют Кондор. Его очень медленно и была вокруг в течение достаточно долгого времени. Если вы хотите проверить свои приложения на что-то подобное тому, что вы цели, а затем пойти проверить некоторые на Кондор и посмотреть, как они работают. Его основной PITA, хотя, в связи с большим количеством нетрадиционных контрольных точек, что должно быть сделано.