GPU является массовым параллелизмом и очень хороши при решении вычислений, которые не требуют перемещения больших объемов информации или принятие большого количества решений. Процессоры несколько параллельно и очень хороши при решении вычислений, которые требуют перемещение большого количества информации и принятие большого количества решений. Хэш, как это происходит, не требует перемещения больших объемов информации и не требует принятия большого количества решений. Так графические процессоры выиграть.
Графический процессор похож на процессор с 1000 очень ограниченными ядрами.
Ааа. Это объясняет, совсем немного. Утрата тогда, будут понесены алгоритмами де-сериализации. Как АЦП, он должен ввести бутылки шеек, которые требуют скорость обработки, пропорционально объему данных, хэш. Точно так же, эмулирует процессор на GPU, заставим противоположный вопрос, как DAC, я предполагаю, что это будет смещаться каждый бит он должен был перейти в регистры для решения виртуального UART, реализованный для последовательного интерфейса. Я просто предполагаю здесь, так что не стреляйте меня. Я хотел бы взять на себя эти визуализации приложений, имеет виртуальные УАПП для параллельного кода в последовательные интерфейсы и наоборот. Теперь (если я прав до сих пор), я должен задаться вопросом, как по-разному работают FPGA и если они более склонны к импровизации. Я пытаюсь понять, как мобильное устройство (или старый компьютер) может иметь наилучшие условия, чтобы произвести в большое количество хэш лучше, чем один, без конкретной обработки хэша-коды оптимизации (виртуальной или иначе), но по-прежнему быть эффективными при обработке регулярного OS / кода приложения, обращаясь к системной шине, динамическое распределение памяти, обработка прерываний и так далее.
Если говорить с точки зрения, скажем виртуальный UART, посвященный этой оптимизации, мы до сих пор еще бросали хорошие циклы машины после того, как плохо? Имейте в виду, конечно, что код в службе этой задачи, имеет системную память в это распоряжение (я думаю). Где, как мой основной 3D на борту видео, имеет ничтожный 128 мегабайт в памяти DRAM, Вся моя система имеет несколько Gig. С хорошим плотным, чистым, кодом, который динамически вытягивает нужную память в эксплуатацию, у меня нет больше места для гибкого параллельного присваивания, как процессор, который растет дополнительные темы, процесс или что-то? Даже дорогая видеокарта с гигабайтом памяти на борту ограничена его мощность. Если вы реализуете GPU в памяти (если я не ошибаюсь), то каждый экземпляр из его параллельная обработка не требует нового параллельного образ в памяти, но только реализация внутренних часов и адресация входов / выходов виртуального UART как быстро, как это маленькие ноги будут носить его. ОК. Так что мой процессор только 3,7 гига, но мой GPU намного хуже 1 момент что-то. Конечно, можно выжать немного больше вычислительной мощности от 3-4): 1 соотношение скорости обработки, особенно если у меня есть почти в 10 раз больше RAM смещать не в время простоя.
Вы видите, что я говорю? Даже если мощность процессора не что иное, как GPU с точки зрения производительности оборудования, я все еще может иметь гораздо больше ресурсов процессора и оперативной памяти для моделирования (возможно, даже несколько более SMP), чем можно было достичь путем обработки процессора в одиночку, если только мы изолировать горлышко бутылки и виртуализация только компоненты / функциональные возможности, которые дают GPU это преимущество. Динамический ВГПУ, может жевать доступные системные ресурсы и выплюнуть реализацию SMP масштабируемых / адаптируемых часы, ввода / вывода и VUARTs, что даже учитывая, что мой piddly видеокарта может быть лучше в проектировании аппаратных средств, мой виртуальный видео GPU, может быть несколько лучше дали гораздо лучшую внутренний тактовую частоту процессора и одноразовые памяти, доступные это регистры по требованию. Эффективное что-то процессор не может быть (для хеширования), но с точки зрения того, чтобы быть ресурс обогащается, и с динамически делегированию функциональностью и всесторонней универсальностью, похоже, ресурсом недооцененным. Проблема не может быть virtulising не больше архитектуры GPU, чем это необходимо, чтобы изменить назначение достаточно быстрый процессор опережать относительно медленный GPU (или нет GPU). Я могу позволить себе накладные расходы, если положить видеокарту в мою машину не вариант и ВГПУ в основном направлена оптимизация архитектуры GPU, которая может взаимодействовать с процессором и работать лучше, чем процессор пытается грызть хэшей все на своем собственном.
Мое понимание того, как GPU выполняет хэш вычисления или рисует многоугольники, по сравнению с обычной обработкой CPU, призывайте аналогии (возможно, менее чем удовлетворительный), с той разницей между битовой картой (сетками черчения и пиксельным рендерингом) против векторной графики. Последнее вычисление абсолютных координат точек на плоскости, в то время, позже использует минимальные различия между кадрами ведения и оптимальными математическими описаниями линий, плоскостями и взаимосвязью между точками (геометрия), в то время как растровые изображения были предназначены только для описания пикселей и их атрибуты один за другим, так как они были отсканированы на дисплей. Хорошо, Таким образом, процессор может рассчитать векторы и делать те же трюки, но GPU (в моем наивном понимании), был разработан, чтобы описать содержимое данной видеопамяти куска, с помощью геометрических отношений и различий между кадрами и делает результат так же, как тупая электроника будет принимать (т.е. строки развертки и фиксированных значения для каждого пикселя), но подсчитать, что это только потребности знать относительно небольших различий между каждым кадром и отправить информацию, которая будет актуальны. Учитывая типичное сходство между каждым кадром, то разница может быть вычтена и только изменения обновляются при каждом проходе линии сканирования.
Как я понимаю, это сохранение подход к описанию только что изменилось, особенно благоприятный для описания векторных отношений. сокращения данных для всех так много линий, углов, точек и отношения между ними (геометрия). Ты можешь. как я понимаю, описать точку, плоскость или полигон гораздо более эффективно с точки зрения векторов. В качестве типичных видеоизображений содержат много движущихся объектов (или точки зрения их сдвига), которые постепенно, в то время как их точки зрения / позиция изменилась их общую последовательность сохраняется. Общая доля пикселей в каждом кадре и далее, которые должны быть скорректированы, как правило, намного меньшая часть (по сравнению с перерисовывать весь экран), и поэтому их описание в многомерном массиве, упрощается за счет того, что минимальные пиксели должны быть повторно вынесено и инкрементальная степень изменения, а не абсолютных целых значений. В терминах векторов это может быть тривиальным, для цветового кодирования, затенения и трассировки лучей размеров, за исключением. Как я понимаю, современные карты имеют справедливый битую отдельные специализированные схемы и микросхем для обработки поддержки для этого отдельного измерения контекстуальной сложности. Они действительно замечательные и умные устройства на близком рассмотрении. Не то, что процессоры и компьютеры в целом не являются, но эта умная комплементарность, так хорошо разработаны для моделирования и визуализации, сложные 3D поля зрения, за пределами разрешения, требуемого человеческого зрения, это просто чудо, чтобы созерцать.
Осмысливая сложность того, что рисуется на экране, дает некоторое представление о величине, обработки информации, что современные вычислительные сделки с, и умные способы используются для сжатия и минимизировать предварительную обработку избыточной информации. Тем не менее, что это всего лишь часть мощности обработки, скромная настольная коробка. Это заманчиво думать о количестве информации, обрабатываемом всей машина и все эти строками коды, со всеми условными тестами судили, порты считывания, I / O доступа к которым, буферам чтение и записи, в то время как регистры быть заглянули ткнули и mov'ed. Люди могут смотреть на их экране и не только принять все это как само собой разумеющееся, но только предположить, что они видят там, это программа, и это все, что происходит.
Так или иначе. Я отвлекся. Теперь я должен задаться вопросом о будущем потенциале полевых программируемых вентильных матриц и как по-разному они работают. Потенциал есть мобильные устройства с выделенными процессорами, оптимизированными быть адаптированы для любых процессов, в настоящее время, требующих больших ресурсов (будь то процессор, как GPU, как или иначе), интересная линия исследования; дорого, как это может быть для R&D. Интересно, если FPGA может позволить устройству быть столь же эффективным при игре CPU, как GPU в зависимости от потребностей нынешних и динамически регулировать это положение, в соответствии с каждым процессом, соответственно. Я слышал, что некоторые ПЛИС вниз до уровня ниже $ 300 в настоящее время. Также интересно, как появление массивно параллельной обработки гипер-козырьками, как KVM, могут повлиять на потенциал реализации ВГПУ. Потенциал я расследую BTW, это не так много для индивидуального / личного пользования, а для объединения и ПКМ по сетям. Я могу почти вообразить Bitcoin быть фермером (как существующий майнинг), но со многими, многими процессорами, на участие мобильных устройств, все совместное хеширование работу, сервер на основе облачных вычислений ВГПА, развертываются через VPN и использование гипер-козырек, как KVM для балансировки нагрузки. Вопрос о целесообразности, то должен учитывать рычаги производительности, обеспечиваемые всю систему, учитывая ограниченность памяти может быть обработана в центре обработок данных, обслуживающем ВГП, в то время как параллельная обработка хэша мощности обрабатывается гипер-козырек. Будет ли процессор хэширование еще более эффективное в массивно параллельных облаках клиентов, чем своего рода виртуального устройства, эмуляции существенных особенностей GPU? Интересные возможности Methinks. Так или иначе спасибо за информацию. Вы можете узнать так много, просто задавая глупые вопросы умных людей.