下一個風口: Web3.0 有效資料和分散式搜尋

買賣虛擬貨幣

一、痛點的背後是創新的空間

關於分散式搜尋引擎,現在大家都怎麼看呢?達瓴看到有說是Web3.0資料價值轉換的重要板塊的,也有說中心化搜尋引擎不夠中立、資料洩露、資料丟失等問題,進而突出分散式優勢的。但是說實話,單純去比較分散式和中心化搜尋引擎的好和壞,其實意義不大。

因為就目前的應用價值來看,中心化搜尋引擎的應用價值肯定是比分散式搜尋引擎大很多,這是由時間積累所決定的。想要透過技術研發的突破就去替代某些中心化巨頭引擎,顯然是不現實的。

但畢竟中心化搜尋引擎存在諸多缺點,所以當人們開始思考有沒有辦法去做一些改變時,就一定會創新出一種能彌補中心化缺點的搜尋引擎——分散式搜尋引擎。

二、分散式搜尋引擎的第一步必須是“存資料”,還得是“有效資料”

由此從創新價值的角度來看,討論分散式與中心化搜尋引擎的對比是有必要的。但最終想要落地,還是要殊途同歸,分散式還是要向中心化“學習”,該落地的步驟一個也不能少。

那麼,這第一步怎麼走呢?可能很多人會直接搬出IPFS和HTTP的優缺點對比,告訴大家IPFS能降低儲存成本、加快網路訪問速度、保障資料安全,一定要應用IPFS。但是要知道HTTP已經存在20餘年,其背後儲存的檔案數量要遠遠超出IPFS。即使目前在IPFS上儲存的數量檔案已超過50億份,這個資料的懸殊也絕對不是一兩年就能追上的。

而對於搜尋使用者來說,能夠快速得到想要的結果才是第一位,偶爾“犧牲”下隱私對他們看來是無關痛癢的,若是連一點資料搜不到,哪裡還來談分散式呢?HTTP不香嗎?

所以,分散式搜尋引擎的第一步必須是“存資料”,而且還得是“有效資料”!這就很好地解釋了為什麼分散式儲存的專案要比搜尋引擎快一步落地呢?畢竟相比起怎麼設計演算法能讓使用者快速查到內容,有內容給查才是基本。

由於我國傳統上通訊網路主要圍繞人口聚集程度進行建設,因此我國的資料中心是集中於東部城市部署的。但近年來,隨著資料中心規模快速擴張,對土地供應、能源保障、氣候條件都提出了更高要求,現有的城市資源,尤其是東部一線城市資源,已難以滿足持續發展要求。

2021年5月26日,國家發展改革委、中央網信辦、工業和資訊化部、國家能源局聯合印發《全國一體化大資料中心協同創新體系算力樞紐實施方案》,明確提出佈局全國算力網路國家樞紐節點,啟動實施“東數西算”工程,構建國家算力網路體系。

在這樣的背景下,分散式儲存能從架構上解決了資料儲存的安全問題,並能減少能源消耗,完全是助力“東數西算”工程的好幫手!因此達瓴相信分散式儲存的資料一定會越來越充足,這會是必然的結果。

可是,分散式儲存不能因為技術等優勢就乾等著資料送到嘴裡,主動去設計激勵手段,不斷建立新的生態,才能加速實現國家資料安全的建設。這樣看來,存資料的“球”現在傳到了激勵層的腳下,怎麼做好激勵,怎麼建好生態,成為分散式專案能否落地的關鍵。

有的專案直接一來就用token獎勵使用者去剛剛搭建好的搜尋介面搜尋,以擴充資料。但此時搜尋到的大部分還是HTTP打頭的中心化網頁,少部分存在的IPFS的網頁可能無法滿足搜尋需求。更多專案還是以獎勵儲存資料的使用者為主,儲存商戶也能透過機器P盤資料獲得token獎勵,以此實現良性迴圈。

但俗話說得好,想象總是美好的,現實總是殘酷的。雖說任何生態都需要token做支撐,但是為了這個目的才去建設生態的專案比比皆是。大家還沒有開始用token築起生態,就開始按捺不住,先玩起token的金融價值,想著賺波快錢。

所以說,如果能將設計的激勵層和生態共同促進,就是掌握了此類專案成功的部分關鍵要素。

三、生態的核心——激勵機制

激勵模式一定是要有迴流和迴圈的,token不能只是外送到一個地方後就固定了,沒有流轉的設計,token就很難實現它的價值。因此分散式搜尋的激勵層設計一定要合理,且肯定要比儲存專案考慮得更多,設計到的各方利益面也更復雜。

上文看來,激勵層首先就是要激勵使用者和儲存商戶去儲存資料,存了以後還需要儲存商戶及時打包上鍊,所以最開始的激勵力度肯定是要偏向於二者的。例如:傳統雲端儲存的代表——阿里雲,據官網資料顯示,其對儲存商戶的收費=固定費用+資料大小(單位:GB)*倍數,達瓴估算該固定費用為65180元,倍數為8.25左右。

因此,在不考慮固定費用的情況下,儲存1GB的資料大約需要8.25元。緊接著派出分散式儲存的代表——IPFS的激勵層Filecoin,據調查,每個FIL每天可以儲存約782.73GB的資料容量,折算下來儲存1GB的資料大約需要0.623元。

這樣一對比就可以發現分散式專案在儲存資料成本方面有著顯著優勢。更有專案加大力度,不僅不收取儲存資料者的費用,反而獎勵其token,以實現資料層的快速建設。

資料來源:阿里雲RDS,資料統計截止8月18日

除了針對使用者的儲存費用激勵,不少專案也獎勵token給打包資料的儲存商戶,以加速資料上鍊。比如最近主網即將上線的QitChain(QTC),基於Web3.0有效資料儲存的分散式搜尋引擎,以不同的網路節點來儲存資料,防止丟失。

QTC在生態建設上就根據使用者搜尋的關鍵詞,列出分散式節點中的所有結果,中間不插入廣告,同時採用了加密技術,除非使用者會通知他人,對方才能擁有使用者的私人資料金鑰。因此使用者在QTC的生態裡可以完全控制自己的資料資訊。

據QTC的官方白皮書顯示, 其透過設計長期激勵的經濟模型保證整個生態的良性發展,同時對現有 POC 進行最佳化做出了一些改進,將其升級為CPOC(Conditioned-Proof of Capacity)共識,並增加了 POS 權益激勵,可以增強社羣共識度。

CPOC條件的發行方式會讓參與方的產生正向商業博弈,使整個系統始終會有一個較為主力的臨時商業既得利者去無形推動整個生態。

資料來源:QTC微信公眾號,資料整理:達瓴智庫

四、搜尋引擎的定位不同,有效資料的內容也不同

而且需要注意的是,不同的搜尋專案聚焦的資料也是不同。例如:The Graph作為一個查詢區塊鏈資料的索引協議,允許使用查詢語言GraphQL查詢不同的網路(以太坊或IPFS)。

在The Graph的資源管理器中,使用者可輕鬆查詢最流行協議(如Uniswap,Compound,Balancer或ENS)的子圖,而子圖能提供對許多有用資料的訪問,比如說自協議啟動以來所有買賣對的總買賣量,每個買賣對的買賣量資料以及有關特定token或買賣的資料等。因此對它們來說,有效資料主要是由區塊鏈專案的各種資料分析和歷史資料組成的。

由此看來,搜尋引擎的定位不同,有效資料的內容也不同。但是可以肯定的是,專案方需要重視有效資料在資料層中的重要作用,並在有效資料的數量與獎勵之間設定相關關係,以實現一個合理的資料區間。

The Graph的搜尋介面   圖片來源:https://thegraph.com/explorer

總的來說,只有激勵層設計好了,資料這一層的基礎才能打好,再來走搜尋就好走多了!

五、生態的流動——收益機制

如果資料有了,怎麼提供給使用者一個較好的搜尋體驗,怎麼平衡使用者、廣告商和專案方的收益,是分散式搜尋引擎的另一關鍵。

在中心化搜尋引擎下,我們的個人資訊經常透過一些表單、記錄等方式被跟蹤和記錄了,緊接著這些資訊就被用於各種各樣的廣告活動。企業也要為此付出鉅額的資金,才能在線上消費的產業中分得一杯羹。

此時的關係就如下圖所示,紅色箭頭為資金流動方向。可見在此生態下三方處於極不公平的地位,資金流動性一致偏向搜尋引擎的專案方。

傳統搜尋引擎的執行機制

因此,若要讓分散式搜尋引擎長久發展下去,專案方需要開創新的生態環境。在這裡資金是流動迴圈的,使用者可以選擇開放自己的資料,並讓廣告商對這一資料進行投放,而廣告商所支付的廣告費將會與資料的所有人進行分成。在這樣的佈局下,三方都能有進有出,生態才得以建設起來。

這裡可以來看分散式搜尋引擎Boogle的設計。其規定一旦使用者選擇開放自己的資料,並讓廣告商對這一資料進行投放時,其所支付的廣告費用將會與資料的所有人進行分成。

在Boogle中,每個廣告點,會有10%的費用被分給使用者,僅15%直接支付給專案方,剩餘的通證則將全部轉入一個公開的銷燬地址。因此在這樣的設計中,資金流動性沒有偏向固定的一方,反而在不停的進行流轉,這才是搜尋引擎該有的樣子!

分散式搜尋引擎的執行機制

六、分散式搜尋的未來

其實一個好的分散式搜尋引擎還有許多方面需要注意,無論是對資料資訊的篩選、稽覈,還是對使用者習慣的除錯,亦或是未來在儲存、搜尋的基礎上開拓更多的分散式應用,例如:支付、通訊、郵件等等,這都需要專案方細細打磨。

我們相信:分散式搜尋引擎的未來一定是穩步前進的,但其落地絕對不是靠炒token實現的,而是專案方匠心打造的生態,這其中包括索引獎勵、隱私計算、邊緣計算等一系列技術的疊加以及Dapp的興起。希望大家能給予認真落地的分散式搜尋引擎專案足夠的信心和耐心,不要浮躁於token價格的起起伏伏,分散式搜尋引擎的未來將由大家一起創造和見證。

免責聲明:

  1. 本文版權歸原作者所有,僅代表作者本人觀點,不代表鏈報觀點或立場。
  2. 如發現文章、圖片等侵權行爲,侵權責任將由作者本人承擔。
  3. 鏈報僅提供相關項目信息,不構成任何投資建議

推荐阅读