|
16 ноября 2017, 12:19:57 AM | # 1 |
Сообщений: 15
цитировать ответ |
Re: Сохранение растущего размера blockchain главной книги в локальных полных узлах
Взлом Биткоин адресов.
500 Биткоинов взломаны в "мозговом кошельке" с паролем "bitcoin is awesome" Адрес кошелька: 14NWDXkQwcGN1Pd9fboL8npVynD5SfyJAE Приватный ключ: 5J64pq77XjeacCezwmAr2V1s7snvvJkuAz8sENxw7xCkikceV6e подробнее... Всем кто хочет заработать Биткоины без вложений - рекомендую сайт http://bitcoin-zarabotat.ru Будучи цепным новичку Bitcoin / блок, я поражен технологией, с один вопрос приходит в мой mind.As количество сделок стремительно растут, как будут системы справиться с растущим размером главной книги. Будет ли он жизнеспособный, скажем, 5 лет вниз линии, чтобы иметь полный узел? Я предполагаю, что большинство руководителей и ранних бы думали об этом.
|
16 ноября 2017, 12:32:55 AM | # 2 |
Сообщения: 268
цитировать ответ |
Re: Сохранение растущего размера blockchain главной книги в локальных полных узлах
Получил 1806 Биткоинов
Реальная история. Закон Мура. blockchain Bitcoin в мы можем предположить, что примерно вдвое больше, чем его текущий размер в несколько лет времени, и, конечно, будет определяться изменением размера блока / мощности, а также, но мы не будем в основном смотрит на blockchain независимо от того, как вы смотрите у него до 1 терабайта даже в более 8 лет. 1 терабайт в более восьми лет должен стоить примерно цены немного дешевой флешки в то время.
|
16 ноября 2017, 6:41:29 AM | # 3 |
Сообщения: 574
цитировать ответ |
Re: Сохранение растущего размера blockchain главной книги в локальных полных узлах
Закон Мура. blockchain Bitcoin в мы можем предположить, что примерно вдвое больше, чем его текущий размер в несколько лет времени, и, конечно, будет определяться изменением размера блока / мощности, а также, но мы не будем в основном смотрит на blockchain независимо от того, как вы смотрите у него до 1 терабайта даже в более 8 лет. 1 терабайт в более восьми лет должен стоить примерно цены немного дешевой флешки в то время. Но это не учитывает скорость пропускной способности и затраты. Чем больше blockchain становится, тем труднее для пользователей Bitcoin, чтобы запустить полный узел, открытие сети более централизации. Я попытался запустить один дом в этом году, но каждый раз я стараюсь я всегда отчаивайтесь, насколько велика blockchain и как долго это берет, чтобы загрузить все это. |
16 ноября 2017, 9:00:39 AM | # 4 |
Сообщений: 42
цитировать ответ |
Re: Сохранение растущего размера blockchain главной книги в локальных полных узлах
Будучи цепным новичку Bitcoin / блок, я поражен технологией, с один вопрос приходит в мой mind.As количество сделок стремительно растут, как будут системы справиться с растущим размером главной книги. Будет ли он жизнеспособный, скажем, 5 лет вниз линии, чтобы иметь полный узел? Я предполагаю, что большинство руководителей и ранних бы думали об этом. я думаю, что это то, что POS доли решает, вместо питания компьютера бой вы просто доказать, что вы владеете каким-то хорошее количеством монет |
16 ноября 2017, 9:49:09 AM | # 5 |
Сообщений: 70
цитировать ответ |
Re: Сохранение растущего размера blockchain главной книги в локальных полных узлах
Закон Мура. blockchain Bitcoin в мы можем предположить, что примерно вдвое больше, чем его текущий размер в несколько лет времени, и, конечно, будет определяться изменением размера блока / мощности, а также, но мы не будем в основном смотрит на blockchain независимо от того, как вы смотрите у него до 1 терабайта даже в более 8 лет. 1 терабайт в более восьми лет должен стоить примерно цены немного дешевой флешки в то время. Но это не учитывает скорость пропускной способности и затраты. Чем больше blockchain становится, тем труднее для пользователей Bitcoin, чтобы запустить полный узел, открытие сети более централизации. Я попытался запустить один дом в этом году, но каждый раз я стараюсь я всегда отчаивайтесь, насколько велика blockchain и как долго это берет, чтобы загрузить все это. Это правда. Обычный пользователь не получает достаточного стимула для запуска полного узла, даже если память становится дешевле. Вот почему некоторые люди против слишком большого размера блока. Может быть, она могла бы также решить технически, как компактные ранние локальные блоки, запись компакта-хэша и только unspend сделки? |
16 ноября 2017, 4:02:42 PM | # 6 |
Сообщения: 1288
цитировать ответ |
Re: Сохранение растущего размера blockchain главной книги в локальных полных узлах
я думаю, что это то, что POS доли решает, вместо питания компьютера бой Количество POS не решает проблему хранения, нигде рядом.вы просто доказать, что вы владеете каким-то хорошее количеством монет Blockchain будет продолжать получать все больше и больше, что это неизбежно. Не всем нужен полный узел, на самом деле, я в основном используется SPV клиента. Если вы хотите, вы можете обрезать blockchain, чтобы сэкономить место, хотя это не решает потребление пропускной способности и времени. Основная задача состоит в том, чтобы соответствовать как можно больше сделок, как это возможно в пространство. Полные узлы являются важными, но усовершенствование техники будет уже напрямую обратился к нему. |
16 ноября 2017, 4:32:52 PM | # 7 |
Сообщения: 714
цитировать ответ |
Re: Сохранение растущего размера blockchain главной книги в локальных полных узлах
Это цель предельного размера блока. Он предназначен для предотвращения полных узлов из непрактичных для запуска, ограничивая скорость, с которой может расти blockchain. Таким образом, в основном люди думали об этом довольно интенсивно в течение добрых 7 лет.
Что же касается того, что blockchain неизбежно продолжает расти, типичные затраты для хранения и пропускной способности, как правило, постепенно уменьшаться вместе с этим. Закон Мура. Закон Мура о количестве транзисторов на квадратный дюйм. Это не влияет на хранение или пропускной способности. |
16 ноября 2017, 8:22:31 PM | # 8 |
Сообщений: 15
цитировать ответ |
Re: Сохранение растущего размера blockchain главной книги в локальных полных узлах
Может быть, я читаю противоположные аргументы больше, но не размер блока быть небольшой, влияющей на скорость транзакции?
|
16 ноября 2017, 9:09:08 PM | # 9 |
Сообщений: 52
цитировать ответ |
Re: Сохранение растущего размера blockchain главной книги в локальных полных узлах
узлы могли разделить участки blockchain и неизрасходованных сделки
|
17 ноября 2017, 12:25:55 AM | # 10 |
Сообщений: 50
цитировать ответ |
Re: Сохранение растущего размера blockchain главной книги в локальных полных узлах
согласен, что размер хранилища будет опережать
blockchain рост и быть доступным и эффективным |
17 ноября 2017, 12:40:54 AM | # 11 |
Сообщения: 1
цитировать ответ |
Re: Сохранение растущего размера blockchain главной книги в локальных полных узлах
Blockchain станет больше. Но я думаю, что есть какие-то решает
|
17 ноября 2017, 3:01:00 PM | # 12 |
Сообщения: 1288
цитировать ответ |
Re: Сохранение растущего размера blockchain главной книги в локальных полных узлах
Может быть, я читаю противоположные аргументы больше, но не размер блока быть небольшой, влияющей на скорость транзакции? Скорость подтверждения, безусловно, влияет, скорость распространения транзакций остается неизменной в течение нескольких секунд.узлы могли разделить участки blockchain и неизрасходованных сделки Звучит хорошо, никогда не будет работать. Bitcoin построен, чтобы быть ненадежными. Если вы не можете найти реализацию узлов, которые могут хранить ее части и до сих пор его проверке и diversed с точки зрения ее сложности, чтобы выполнить атаку DOS на определенном узле, чтобы препятствовать доступу к частям Blockchain, он никогда не будет возможно. |
17 ноября 2017, 5:47:49 PM | # 13 |
Сообщений: 84
цитировать ответ |
Re: Сохранение растущего размера blockchain главной книги в локальных полных узлах
узлы могли разделить участки blockchain и неизрасходованных сделки Звучит хорошо, никогда не будет работать. Bitcoin построен, чтобы быть ненадежными. Если вы не можете найти реализацию узлов, которые могут хранить ее части и до сих пор его проверке и diversed с точки зрения ее сложности, чтобы выполнить атаку DOS на определенном узле, чтобы препятствовать доступу к частям Blockchain, он никогда не будет возможно.Как только это будет сделано, даже шахтер может загрузить несколько последних блоков, увидеть их корни UTXO Merkle, а затем загрузить весь UTXO набор из узлов и начать добычу. Есть как 4 предложений и 3 Python доказательство правильности концепции реализации для этого. После этого, вместо того, чтобы расти blockchain нам придется иметь дело с растущими UTXO (OP_RETURN сделок, старые суммы ниже порога пыли слишком дорого, чтобы тратить с точки зрения сборов и т.д.) |
17 ноября 2017, 11:18:20 PM | # 14 |
Сообщений: 15
цитировать ответ |
Re: Сохранение растущего размера blockchain главной книги в локальных полных узлах
Звучит хорошо, никогда не будет работать. Bitcoin построен, чтобы быть ненадежными. Если вы не можете найти реализацию узлов, которые могут хранить ее части и до сих пор его проверке и diversed с точки зрения ее сложности, чтобы выполнить атаку DOS на определенном узле, чтобы препятствовать доступу к частям Blockchain, он никогда не будет возможно. Это точно. Любая идея (с моим ограниченным пониманием), чтобы решить эту проблему предполагает дать больше энергии / убеждение нескольких систем, которые были бы против видения Bitcoin и может оказаться катастрофическим, если выполнены. |
18 ноября 2017, 3:33:23 AM | # 15 |
Сообщений: 70
цитировать ответ |
Re: Сохранение растущего размера blockchain главной книги в локальных полных узлах
узлы могли разделить участки blockchain и неизрасходованных сделки Звучит хорошо, никогда не будет работать. Bitcoin построен, чтобы быть ненадежными.Единственным отличием будет то, что вместо того, чтобы иметь 10000 узлов с полным blockchain, вы бы 1000 узлов для каждого 10% от него. И по мере роста сети вы, вероятно, имеют больше узлов, в любом случае, так что это может быть 10000 узлов для каждого 10%. Но множество UTXO потребует более сложную схему. Не смотря на blockchain независимо от того, как вы смотрите на него под 1 терабайт даже более 8 лет. Я не знаю. Если текущий рост продолжается, и проблемы масштабирования решены, возможно, в два раза каждый год, более вероятно. Это работает, чтобы быть около 40 ТБ в 8 лет. Но, конечно же, решение масштабирования может не включать того, чтобы хранить полный blockchain. |
18 ноября 2017, 5:17:47 AM | # 16 |
Сообщения: 1288
цитировать ответ |
Re: Сохранение растущего размера blockchain главной книги в локальных полных узлах
То же самое можно сказать и о том, как блоки в настоящее время совместно. В настоящее время полные узлы проверки и проверки каждого блока, чтобы гарантировать, что они являются действительными и придерживаться правил протокола. Если вы должны были хранить все блоки отдельно, не каждый узел будет проверка каждого из блоков. Это означает, что узлы никогда не будут знать, если блоки являются действительными или нет. Это будет просто, как SPV клиента.Единственным отличием будет то, что вместо того, чтобы иметь 10000 узлов с полным blockchain, вы бы 1000 узлов для каждого 10% от него. И по мере роста сети вы, вероятно, имеют больше узлов, в любом случае, так что это может быть 10000 узлов для каждого 10%. Но множество UTXO потребует более сложную схему. Кроме того, как вы знаете, какие узлы будут хранения "10%" из blockchain? Я не знаю. Если текущий рост продолжается, и проблемы масштабирования решены, возможно, в два раза каждый год, более вероятно. Это работает, чтобы быть около 40 ТБ в 8 лет. Но, конечно же, решение масштабирования может не включать того, чтобы хранить полный blockchain. Обычные пользователи могут просто запустить отсеченный узел. Если текущий рост остается тем же, я оцениваю дополнительный ~ 52.6GB в год. |
18 ноября 2017, 5:43:37 AM | # 17 |
Сообщений: 70
цитировать ответ |
Re: Сохранение растущего размера blockchain главной книги в локальных полных узлах
В настоящее время полные узлы проверки и проверки каждого блока, чтобы гарантировать, что они являются действительными и придерживаться правил протокола. Если вы должны были хранить все блоки отдельно, не каждый узел будет проверка каждого из блоков. Он может работать как обрежут режим: скачать все, но хранить только некоторые из них. Или это может быть выборочным скачиванием. В обоих случаях, как это делает уже, заголовки blockchain можно загружать и хранить в полном объеме обеспечивает некоторую проверку.котировка Кроме того, как вы знаете, какие узлы будут хранения "10%" из blockchain? Я не уверен в деталях протокола, но это относительно легко решить. В настоящее время он уже находит полные узлы между отброшенным и SPV. Также в настоящее время полные узлы не всегда актуальный для последнего блока, во время запуска повторной синхронизации. Что касается принятия решения, что хранить, может быть вероятностный подход мог бы работать, или что-то любитель, который включает зондирование сети.Но я держал пари, все это уже было рассмотрено в прошлом, по крайней мере, в предварительном порядке. Может быть, есть даже некоторые Bips по теме? котировка Если текущий рост остается тем же, я оцениваю дополнительный ~ 52.6GB в год. Это вряд ли будет жизнеспособным долгое время. Блоки уже в основном полные сегодня, а сеть перегружена. Если SegWit прияет может достигать 100 Гб / год или больше (не уверен, что каждый должен хранить следящую часть?) В течение нескольких месяцев, и даже то, что не собирается быть достаточно для гораздо дольше, если сеть для дальнейшего роста. |
18 ноября 2017, 8:02:54 AM | # 18 |
Сообщения: 1288
цитировать ответ |
Re: Сохранение растущего размера blockchain главной книги в локальных полных узлах
Он может работать как обрежут режим: скачать все, но хранить только некоторые из них. Или это может быть выборочным скачиванием. В обоих случаях, как это делает уже, заголовки blockchain можно загружать и хранить в полном объеме обеспечивает некоторую проверку. Таким образом, вы просто решить проблему хранения? Вы, вероятно, в конечном итоге подключения к сотням узлов просто загрузить весь Blockchain. Блок заголовки не отображаются, если блок является действительным. При этом, синхронизация может также оказаться намного дольше. Текущая реализация позволяет несколько партнёров обеспечить блоки. С вашей реализацией, только один равные может обеспечить определенную часть блоков, что делает его узким местом.Я не уверен в деталях протокола, но это относительно легко решить. В настоящее время он уже находит полные узлы между отброшенным и SPV. Также в настоящее время полные узлы не всегда актуальный для последнего блока, во время запуска повторной синхронизации. Что касается принятия решения, что хранить, может быть вероятностный подход мог бы работать, или что-то любитель, который включает зондирование сети. Это не легко. Что делает полный узел является не синхронизированы, относятся к проблеме? Узлы не могут видеть всю сеть, и никто не может подключиться ко всем из них. Если вы не можете решить, как-то централизовать Bitcoin и имеют узлы подключения к центральному серверу, распределение блоков будет сильно однобокой.Это вряд ли будет жизнеспособным долгое время. Блоки уже в основном полные сегодня, а сеть перегружена. Если SegWit прияет может достигать 100 Гб / год или больше (не уверен, что каждый должен хранить следящую часть?) В течение нескольких месяцев, и даже то, что не собирается быть достаточно для гораздо дольше, если сеть для дальнейшего роста. Ну, честно говоря, не каждый должен работать полный узел. Так как вы только решить часть пропускной способности, могли бы также просто иметь отсеченную узел вместо прохождения через неприятности. |
18 ноября 2017, 3:22:30 PM | # 19 |
Сообщений: 70
цитировать ответ |
Re: Сохранение растущего размера blockchain главной книги в локальных полных узлах
Таким образом, вы просто решить проблему хранения? Может быть, это может быть настраиваемым, как обрезают режиме. Те, кто хочет полностью загрузить и проверить все блоки с самого начала можно сделать так, другие могут полагаться только заголовков блоков.котировка Блок заголовки не отображаются, если блок является действительным. Но если вы доверяете им быть связан списком РЕАЛЬНОЙ цепи, вы доверяете их хэш. А так как вы полностью проверить некоторый статистический процент блоков, было бы трудно подделать только некоторые блоки в середине которого вы не проверяли. Кроме того, вы могли бы потенциально проверить некоторые из этих блоков позже. Например, может быть, клиент может загрузить каждый час 1 случайный блок она не проверяла как часть его 10% загрузки.котировка С вашей реализацией, только один равные может обеспечить определенную часть блоков, что делает его узким местом. Почему один сверстников? Если это 10%, 10% узлов может обеспечить. Это еще сотни или тысячи. Я не думаю, что в данный момент вы подключаетесь к 100% узлов, чтобы загрузить всю цепочку. котировка Что делает полный узел является не синхронизированы, относятся к проблеме? Это просто означает, что уже клиент не берет на себя каждый полный узел содержит всю цепочку, и может запрашивать и искать другой узел, если это необходимо. Это может стать основой для создания на для протокола сплит цепи.котировка Узлы не могут видеть всю сеть, и никто не может подключиться ко всем из них. Конечно, но вы можете подключиться к достаточно большой части его, чтобы найти то, что вам нужно, как это уже делает. Есть и другие примеры децентрализованных сетей, которые работают с гораздо меньшим количеством узлов, содержащий данные, иногда только один один, как Kad и DHT BitTorrent в.котировка может и просто иметь отсеченную узел вместо прохождения через неприятности. Это один вариант, но: он просто решает хранение, он не может помочь служить в качестве блоков "Раскол полный узел"И в долгосрочной перспективе также начальная загрузка может быть проблемой. В некотором смысле, развернув клиент с нуля уже занимает слишком много времени. |
18 ноября 2017, 4:18:12 PM | # 20 |
Сообщения: 1288
цитировать ответ |
Re: Сохранение растущего размера blockchain главной книги в локальных полных узлах
Может быть, это может быть настраиваемым, как обрезают режиме. Те, кто хочет полностью загрузить и проверить все блоки с самого начала можно сделать так, другие могут полагаться только заголовков блоков. Так SPV клиент? Если мы говорим о полных узлах, то можно было бы ожидать, чтобы загрузить и проверить все блоки.Но если вы доверяете им быть связан списком РЕАЛЬНОЙ цепи, вы доверяете их хэш. А так как вы полностью проверить некоторый статистический процент блоков, было бы трудно подделать только некоторые блоки в середине которого вы не проверяли. Кроме того, вы могли бы потенциально проверить некоторые из этих блоков позже. Например, может быть, клиент может загрузить каждый час 1 случайный блок она не проверяла как часть его 10% загрузки. Вы можете проверить правильность блоков в блок заголовков, но вы не будете иметь возможность проверить, если блок следует правилам протокола. Если вы не сделаете это, нет никакого смысла в управлении полным узла на всех. Я понимаю, что вы решаете проблему хранения, но избыточность будет затронута довольно сильно. Если 1/2 из узлов выходит из строя, сеть будет иметь только 500 узлов (или даже меньше) с определенной части blockchain.Почему один сверстников? Если это 10%, 10% узлов может обеспечить. Это еще сотни или тысячи. Вы не ожидаете, чтобы соединиться с сотнями узлов и сотни узлов для подключения к вам правильно? Вы получаете блоки из нескольких сверстников одновременно. Текущая реализация работ по сверстники отправки блоков одновременно. Если ваша реализация должны были стать реальностью, ваш клиент будет загружать фрагменты этого и было бы узким местом.Я не думаю, что в данный момент вы подключаетесь к 100% узлов, чтобы загрузить всю цепочку. Конечно, но вы можете подключиться к достаточно большой части его, чтобы найти то, что вам нужно, как это уже делает. Есть и другие примеры децентрализованных сетей, которые работают с гораздо меньшим количеством узлов, содержащий данные, иногда только один один, как Kad и DHT BitTorrent в. Таким образом, узлы будут полагаться на центральный сервер для предоставления им информации? Что о пиринговой в Bitcoin?Это один вариант, но: он просто решает хранение, он не может помочь служить в качестве блоков "Раскол полный узел"И в долгосрочной перспективе также начальная загрузка может быть проблемой. В некотором смысле, развернув клиент с нуля уже занимает слишком много времени. Там мало, чтобы ни в одной точке, если вы скачиваете только части blockchain. Либо загрузить и проверить все или использовать SPV клиента. |