Vitalik 迴應馬斯克:區塊鏈可拓展性的提升並不簡單

買賣虛擬貨幣

前段時間,特斯拉創始人馬斯克發推表示,狗狗幣在理想情況下可將區塊確認時間加快10倍、將區塊大小增加10倍,並降低手續費用100倍,然後它將輕鬆獲勝。

這個表態引起了加密行業很多KOL的批評,以太坊創始人Vitalik今日也撰文談及此事,表示簡單地提升區塊鏈網路引數會導致更多的麻煩,並詳細闡述了區塊鏈網路提升效能所需要面對的問題與限制,故此鏈捕手對本文進行了翻譯,並作出不影響願意的刪減。

作者|Vitalik Buterin

編譯|Alyson

你能將區塊鏈的可擴充套件性推進多遠?正如馬斯克希望的那樣,你能否真正實現「將區塊確認時間縮短10倍,將區塊大小增加10倍並將手續費降低100倍」,而又不會導致極端的中心化並損害使區塊鏈的基本屬性?如果沒有,你能走多遠?如果你更改共識演算法怎麼辦?更重要的是,如果你更改技術以引入諸如ZK-SNARK或分片之類的功能,會發生什麼情況?

事實證明,無論分片與否,都有重要且相當微妙的技術因素限制了區塊鏈的擴充套件性。在許多情況下,都有解決方案,但是即使有了解決方案,也存在侷限性。這篇文章將探討這些問題中的許多問題。

01

節點需要足夠分散

在凌晨2:35,你會收到來自世界另一端合夥人的緊急電話,他幫助你管理礦池(或者可能是質押池)。從大約14分鐘前開始,你的合夥人就告訴你,你的礦池和其他幾個人從仍然承載著79%網路的區塊鏈中分離出來。根據你的節點,多數鏈的區塊是無效的。這裡出現了餘額錯誤:關鍵區塊似乎錯誤地將450萬枚額外代幣分配給了一個未知地址。

一個小時後,你正在與其他兩個小礦池進行電報聊天。你最終看到有人將一個連結貼上到一條推特上,其中包含一條已釋出的訊息。這條推文的開頭是「宣佈新的鏈上可持續協議發展基金」。

到了早上,在推特與社羣論壇上的爭論無處不在。但是到那時,這450萬枚代幣中的很大一部分已經在鏈上轉換為其他資產,並且進行了數十億美元的DeFi交易。79%的共識節點,以及所有主要的區塊鏈探索者和輕錢包的節點都遵循了這一新鏈條。也許新的開發者基金將為某些發展提供資金,或者也許所有這些都被領先的交易所吞併。但是,不管結果如何,該基金在所有意圖和目的上都是既成事實,而普通使用者則無力反擊。

這可以在你的區塊鏈上發生嗎?你所在區塊鏈社羣的精英可能協調得很好,包括礦池、區塊瀏覽器和託管節點。他們很可能都在同一個電報頻道和微信群組中。如果他們真的想對協議規則進行突然更改以促進自己的利益,那麼他們可能會這樣做。要使這種協同的社會攻擊無效,唯一可靠的方法是透過被動防禦,而這個群體實際上是分散的:使用者。

想象一下,如果使用者正在執行驗證區塊鏈的節點,然後自動拒絕破壞協議規則的區塊(即使超過90%的礦工或利益相關者支援),故事將會如何發展。如果每個使用者都執行一個驗證節點,那麼攻擊很快就會失敗:一些礦池和交易所會在這個過程中分叉出來,看起來相當愚蠢。

但是,即使一些使用者執行驗證節點,攻擊也不會讓攻擊者大獲全勝;相反,它會導致混亂,不同的使用者會看到不同的區塊鏈檢視。至少,隨之而來的市場恐慌和可能持續的分裂將極大地減少攻擊者的利潤。駕馭這樣一場曠日持久的衝突的想法本身就會阻止大多數襲擊。

Paradigm研究合夥人Hasu的推特

如果你有一個由37個節點執行程式和80000個被動偵聽程式組成的社羣來檢查簽名和阻止區塊頭,則攻擊者獲勝。如果你的社羣中每個人都執行一個節點,那麼攻擊者就會失敗。我們不知道針對協同攻擊的群體免疫力的確切閾值是多少,但有一件事是絕對清楚的:更多的節點是好的,更少的節點是壞的,我們肯定需要幾十個或幾百個以上的節點。

02

節點工作的限制在哪裡?

為了最大限度地增加可以執行節點的使用者數,我們將重點放在常規的消費類硬體上。完整節點處理大量事務的能力存在三個關鍵限制:

計算能力:安全執行一個節點的CPU所需的百分比是多少?

頻寬:考慮到當前網際網路連線的現實情況,一個區塊可以包含多少個位元組?

儲存:我們可以要求使用者儲存多少GB磁碟?另外,它必須多快才能被讀取?(即可以使用硬碟嗎,還是我們需要固態硬碟?)

許多人錯誤地認為,使用「簡單」技術可以使區塊鏈擴充套件多遠,這是由於對這些數字過於樂觀。我們可以逐一審視以下三個因素:

1)計算能力

錯誤的答案:100%的CPU能力可以花在塊驗證上。

正確答案:大約有5-10%的CPU能力可用於塊驗證。

限制比例如此之低的主要原因有四個:

我們需要一個安全邊際來覆蓋DoS攻擊的可能性(攻擊者為利用程式碼弱點而進行的交易比常規交易需要更長的處理時間);

節點離線後需要能夠同步區塊鏈。如果我斷開網路一分鐘,我應該能夠在幾秒鐘內趕上;

執行節點不應很快耗盡電池電量,使所有其他應用程式變慢;

節點還需要執行其他非區塊生產任務,主要圍繞在p2p網路上驗證和響應傳入的事務和請求。

請注意,直到最近,大多數對「為什麼只有5-10%?」 的解釋專注於一個不同的問題:由於PoW區塊是隨機出現的,因此驗證區塊所花費的時間較長,會增加同時建立多個區塊的風險。

有許多解決此問題的方法(例如,Bitcoin NG或僅使用權益證明機制)。但是這些修補程式不能解決其他四個問題,因此它們無法像許多人最初認為的那樣在可拓展性方面帶來巨大的收益。

並行性也不是萬能的。通常,即使是看似單執行緒的區塊鏈客戶端也已經並行化:簽名可以由一個執行緒驗證,而執行則由其他執行緒完成,並且有一個單獨的執行緒在後臺處理事務池邏輯。而且,越接近所有執行緒100%的使用率,執行節點所消耗的能量就越多,並且抵禦DoS的安全邊際也越低。

2)頻寬

錯誤的答案:如果我們每2-3秒就有10 MB的資料塊,那麼大多數使用者的網路速度都> 10 MB /秒,因此他們當然可以處理。

正確答案:也許我們可以每12秒處理1-5 MB的塊,雖然很難。

如今,我們經常聽到關於網際網路連線可以提供多少頻寬的廣告統計資料:通常聽到100 Mbps甚至1 Gbps的數字。但是,由於以下幾個原因,宣傳的頻寬資料和實際頻寬之間存在很大差異:

「Mbps」是指「每秒數百萬個位元」,一個位元是一個位元組的1/8,因此需要將宣傳的位元數除以8才能得到宣傳的位元組數;

就像所有公司一樣,網際網路提供商經常說謊;

總是有多個應用程式使用相同的網際網路連線,因此節點無法佔用整個頻寬;

p2p網路不可避免地會帶來其自身的開銷:節點經常會多次下載並重新上傳同一區塊(更不用說在包含在區塊中之前透過mempool廣播的事務)。

當Starkware在2019年進行實驗時,他們首次釋出了500 kb的區塊,這是因為交易gas成本的降低首次使這種可能性成為可能,實際上有幾個節點無法處理該大小的區塊。

自那以後,區塊鏈處理大型資料塊的能力已得到提高,並將繼續提高。但無論我們做什麼,我們仍遠不能天真地獲得以MB/秒為單位的平均頻寬,說服自己我們可以接受1s的延遲,並能夠擁有如此大小的資料塊。

3)儲存

錯誤答案:10TB。

正確答案:512G。

正如你可能猜到的那樣,這裡的主要論點和其他地方一樣:理論和實踐之間的區別。理論上,你可以在亞馬遜上購買8 TB的固態硬碟。實際上,用來寫這篇部落格文章的膝上型電腦有512 GB,如果你讓人們去買自己的硬體,他們中的許多人會變得懶惰(或者他們買不起800美元的8TB固態硬碟),而使用中心化的供應商。

而且,即使你可以將區塊節點安裝並執行到一些儲存磁碟上,高水平的活動也很容易迅速燒燬磁碟,迫使你不斷地購買新磁碟。

此外,儲存大小決定了新節點能夠聯機並開始參與網路所需的時間。現有節點必須儲存的任何資料都是新節點必須下載的資料。初始同步時間(和頻寬)也是使用者執行節點的主要障礙。在寫這篇部落格時,同步一個新的geth節點花了我大約15個小時。

03

分片區塊鏈的風險

如今,在以太坊區塊鏈中,執行一個節點已經對許多使用者構成挑戰。因此,我們遇到了瓶頸。核心開發人員最關心的問題是儲存大小。因此,目前,在解決計算和資料瓶頸方面的努力,甚至是對共識演算法的更改,都不太可能導致大量的gas limit增加。即使解決了以太坊最大的突出DoS漏洞,也只能使gas limit增加20%。

解決儲存大小問題的唯一方法是無狀態和狀態到期。無狀態性允許一類節點在不維護永久性儲存的情況下驗證區塊鏈。狀態到期會清楚最近未訪問的狀態,從而迫使使用者手動提供續訂的證明。

這兩種路徑都已經使用了很長的時間,並且關於無狀態性的概念驗證實現也已經開始。這兩項改進相結合,可以極大地緩解這些擔憂,併為大幅提高gas limit開啟空間。但是,即使在實施了無狀態和狀態到期之後,gas limit可能也只能安全地增加大約3倍,直到其他限制開始占主導地位為止。

分片從根本上繞過了上述限制,因為它將區塊鏈上包含的資料與單個節點需要處理和儲存的資料解耦。它們使用先進的數學和密碼技術來間接驗證區塊,而不是節點透過親自下載和執行來驗證區塊。因此,分片區塊鏈可以安全地擁有非分片區塊鏈無法達到的交易吞吐量水平。這確實需要大量的密碼學智慧來建立高效而簡單的完全驗證方式,成功地拒絕無效區塊,但這是可以做到的:理論已經很成熟,基於規範草案的概念驗證已經在進行中。

以太坊正計劃使用二次方分片,因為節點必須能夠處理單個分片和信標鏈(必須為每個分片執行一定數量的管理工作),所以總可拓展性受到限制。如果分片太大,節點將無法再處理單個分片,如果分片太多,節點將無法再處理信標鏈。這兩個約束的乘積形成了上限。可以想象,透過進行立方分片甚至指數分片,可以走得更遠。在這樣的設計中,資料可用性抽樣肯定會變得複雜得多,但這是可以做到的。但是,以太坊不會比二次曲線走得更遠。原因是,交易分片實際上無法實現額外的可拓展性增益,除非其他風險變得非常高。

那麼這些風險是什麼?

1)最小使用者數

可以想象,只要有一個使用者願意參與,非分片區塊鏈就可以執行。分片區塊鏈不是這樣的:沒有一個節點可以單獨處理整個區塊鏈,因此需要足夠的節點來一起處理。如果每個節點可以處理50個TPS,而區塊鏈需要處理10000個TPS,那麼鏈上至少需要200個節點才能執行。

如果該區塊鏈在任何時間出現少於200個節點的情況,那要麼節點無法跟上區塊鏈,要麼節點無法檢測到無效區塊,或者可能會發生許多其他不良情況,這具體取決於節點軟體的安裝方式。

如果分片區塊鏈的容量增加10倍,則最小節點數也將增加10倍。那麼,你可能會問:為什麼我們不從一點點容量開始,在看到大量使用者湧入時再增加容量;而如果使用者數減少,則減少容量?因此我們能掌握實際需要它的部分。

這裡有一些問題:

區塊鏈本身無法準確地檢測到有多少個唯一節點,因此這將需要某種治理來檢測和設定分片數量。超出容量限制很容易成為分裂和衝突的源頭。

如果許多使用者突然意外退出,該怎麼辦?

增加分叉啟動所需的最小節點數,會使得抵禦惡意收購變得更加困難。

幾乎可以肯定,最低節點數最好不超過1000。因此,似乎很難證明具有超過數百個分片的區塊鏈是合理的。

2)歷史可檢索性

使用者真正珍視的區塊鏈的重要屬性是永久性。當公司破產或失去維護該生態系統的能力時,儲存在伺服器上的數字資產將在10年後被清除。另一方面,以太坊上的NFT是永久存在的。

是的,人們將在2371年仍在下載和檢索你的加密貓。

但是一旦區塊鏈容量過高,儲存所有這些資料就會變得更加困難。如果某個時刻遇到了很大的風險,歷史的某些部分中將沒有人來儲存。

量化這種風險很容易。以區塊鏈的資料容量(MB /秒)為單位,乘以30即可得到每年以TB為單位儲存的資料量。當前的分片計劃的資料容量約為1.3 MB /秒,因此約為40 TB /年。如果將其增加10倍,則將變為400 TB /年。

如果我們希望資料不僅可以訪問,而且可以方便地到達,則還需要後設資料(例如,解壓rollup事物),因此每年需要4 PB,或者10年後需要達到40 PB。這是大多數分片區塊鏈可以安全獲得的合理上限。

因此,看起來在這兩個維度上,以太坊分片設計實際上已經大致瞄準了相當接近合理的最大安全值。引數可以增加一點,但不能增加太多。

04

總結

嘗試擴充套件區塊鏈的方法有兩種:基本的技術改進和簡單的增加引數。首先,增加引數聽起來很有吸引力:如果你在餐巾紙上進行數學運算,就很容易說服自己,家用膝上型電腦每秒可以處理數千筆交易,不需要ZK-SNARK、rollups或分片。不幸的是,這種方法從根本上有缺陷,其中有很多微妙的原因。

執行區塊鏈節點的計算機無法耗費100%的CPU容量來驗證區塊鏈;他們需要很大的安全邊際來抵抗意外的DoS攻擊,他們需要備用容量來執行諸如在記憶體池中處理的事務。並且使用者不希望在計算機上執行節點以使該計算機無法同時用於任何其他應用程式。

頻寬同樣也有開銷:10 MB / s的連線並不意味著你每秒可以擁有10 MB的塊,每12秒最多可能有1-5 MB的塊,與儲存相同。增加執行節點的硬體配置並將節點的執行限制在特定參與者上並不是解決方案。對一個要去中心化的區塊鏈來說,普通使用者能夠執行節點並且擁有一種執行節點的常見活動文化是至關重要的。

基本的技術改進肯定是起作用的。當前,以太坊的主要瓶頸是儲存容量,無狀態性和狀態到期可以解決此問題,並允許將其增加多達約3倍(但不能超過300倍),因為我們希望執行一個節點比現在變得更容易。分片的區塊鏈可以進一步擴充套件,因為分片的區塊鏈中沒有單個節點需要處理的交易。

但即便如此,容量還是有限制的:隨著容量的增加,最低節點數也會增加,而歸檔鏈的成本(如果沒有人費心管理歸檔鏈,資料丟失的風險上升)也會增加。

但是我們不必太擔心:這些限制足夠高,我們可以在區塊鏈完全安全的情況下每秒處理超過一百萬筆交易。但要做到這一點,而不犧牲區塊鏈的去中心化,還需要付出努力。

免責聲明:

  1. 本文版權歸原作者所有,僅代表作者本人觀點,不代表鏈報觀點或立場。
  2. 如發現文章、圖片等侵權行爲,侵權責任將由作者本人承擔。
  3. 鏈報僅提供相關項目信息,不構成任何投資建議

推荐阅读

;