Polkadot Bulletin Chain 如何为身份基础设施撑起存储底座
作者PaperMoon 团队2015 年 Juan Benet 提出 IPFSInterPlanetary File System星际文件系统时用的是一个相当浪漫的命题“让信息不再依附于某一台服务器”。Web2 的文件通过location在哪台机器上来寻址IPFS 通过content hash内容本身的指纹来寻址。只要内容还在网络中某处存在它就永远可以被找到。十年过去了IPFS 确实已经成为 Web3 开发的默认拼图之一几乎每一个 NFT 项目、每一个去中心化前端、每一个链上内容协议都会在某个环节用到它。但几乎每一个 Web3 开发者也都用过 Pinata。Pinata 是一家专门做 IPFS “pinning” 的中心化服务商。你在 IPFS 上发了一张图如果没有人pin钉住它这张图很可能几天后就在网络里消失了因为 IPFS 默认节点有权随时回收自己的存储。去中心化的内容寻址加上完全自愿的存储经济结果就是数据在理论上永不丢失在实践中却随时可能消失。于是十年来大多数 Web3 项目用的都是这样一个变形 IPFS内容寻址是去中心化的但数据持久化其实是靠一两家中心化公司兜底的。2026 年Polkadot 上线的Bulletin Chain给了这个老问题一个新答案把 IPFS 塞进一条链让谁来存、存多久、凭什么存这三件事全部变成链上可验证的参数。这不是又一个 IPFS 前端也不是和 Filecoin、Arweave 的正面竞争——它的定位更锋利是 Polkadot 身份基础设施的专用存储底座。这篇文章想聊清楚三件事IPFS 十年没解决的结构性问题是什么Bulletin Chain 到底怎么把 IPFS “装进链里”以及为什么这条链恰恰是 Polkadot 身份基础设施DID Proof of Personhood的关键一块拼图。一、IPFS 的十年尴尬去中心化寻址中心化持久要看懂 Bulletin Chain先得看懂 IPFS 一直没能靠自己解决的那个结构性问题。IPFS 的技术设计其实非常优雅。它把网络上的任意一块内容——文本、图片、视频——哈希成一个叫CIDContent Identifier的字符串任何人只要持有这个 CID就能向 IPFS 网络请求这块内容而不用关心它具体存在哪台机器上。这种内容即地址的范式绕开了 HTTP 那种必须知道服务器在哪的旧模式。但它留了一个致命的开放题没解凭什么让某个节点愿意长期为你存储这份内容IPFS 本身没有给出答案。它的协议层只定义了如何发现和传输内容没有定义谁有义务保存内容。默认情况下每个节点只保存自己下载过、并且没过期的数据节点可以随时清理本地缓存。这就导致了一个很戏剧性的结果只要没人钉住你的数据它在 IPFS 网络里的生存时间可能比一条微信朋友圈还短。过去十年这个问题催生了两种主流解决思路路线一中心化 pinning 服务商。代表是 Pinata、Infura、Cloudflare IPFS。它们的本质是我替你付钱在我的服务器上保留一份。方便、便宜、开发体验好——但 Web3 项目用了它等于把永不丢失的承诺压在了一家公司的商业续航上。路线二专门的去中心化存储协议。代表是Filecoin在 IPFS 之上加一套代币激励和存储证明和Arweave用一次性付费买永久存储。它们都在尝试用原生代币激励来取代中心化 pinning。但这两条路线都偏向长期、大容量、档案级的场景对于只需要两周、一周甚至一天的数据成本效率并不理想。Bulletin Chain 的切入点恰恰就在这两条路线都没覆盖的灰色地带——短期的、可过期的、和身份强相关的链上数据。二、Bulletin Chain 做了什么把 IPFS 的经济缺口嵌进链里Bulletin Chain 是 Polkadot 生态里的一条系统链system chain但和通常意义上的业务链不同它的职责极其单一——只做一件事存储有时效性的数据。它的设计哲学可以用一句话概括把 IPFS 作为数据传输层把链作为经济激励层把 TTL生存时间变成区块高度上的一个硬编码参数。具体怎么做到的几个关键设计数据走链上交易进入但物理存储走 IPFS。开发者通过transactionStorage.store这个 extrinsic 把数据写上链链会给数据生成一个可查询的索引底层存储则通过 IPFS 的 Bitswap 协议在节点之间传输和缓存。链提供这份数据真实存在过的共识IPFS 提供怎么把它传给你的效率。每条数据有固定的生命周期。按当前设计数据写入后大约保留两周约 201,600 个区块 × 6 秒到期后自动从链上移除——节点不再有义务保留。这解决了 IPFS 最核心的经济题——存多久这件事第一次变成了一个确定性参数而不是开发者跟 pinning 服务商讨价还价的结果。节点即 IPFS 服务器。Bulletin Chain 的每一个验证人节点同时也是一个标准的 IPFS 节点会把链上数据通过 Kademlia DHT 发布到公共 IPFS 网络中。这意味着外部任何 IPFS 客户端——包括完全不了解 Polkadot 的那种——都可以用标准 IPFS 方式读到 Bulletin Chain 上的数据。对现有的 Web3 前端来说这是一种无痛迁移的兼容路径。网络参数为 IPFS 查询做了针对性优化。比如把底层 libp2p 的空闲连接超时从默认的 10 秒拉长到 1 小时——这是一个很小但很懂场景的细节IPFS 客户端发起的查询往往是稀疏而长时间的短超时会把它们挤掉。如果你愿意用一句直白的话总结——Bulletin Chain 做的就是把 IPFS 这十年最薄弱的经济层补上了。它不是在重新发明存储协议而是给 IPFS 装了一个它本该有的链上结算机制。三、为什么偏偏是两周身份数据的生命周期看到这里你可能会问为什么 Bulletin Chain 不做永久存储也不做一小时就删偏偏选了两周这样一个不上不下的数字答案要回到这条链最核心的服务对象——身份基础设施。Polkadot 过去一年在身份这一层动作很密集DIDDecentralized Identifiers去中心化身份标识、Proof of Personhood人格证明、DotID新身份注册服务、以及 OmniAvatar 这类链上身份层项目。这些系统共同构成了 Polkadot 正在搭的身份底座。而身份数据和其他数据有一个非常特殊的属性——它需要被验证但不需要被永久保留。举几个具体的场景你会理解人格证明的挑战-应答数据用户需要在某个验证会话里提交一段语音、一张照片或一个签名挑战。这些数据必须在验证期间被全网验证人可访问、可审计但验证完成后它们就变成了一段隐私风险极高的冗余信息继续留在链上是负担而非价值。一次性凭证one-time credentials比如你用身份证明领取一个 DAO 空投。凭证需要在分发期内可用发完就应该过期作废。临时 KYC 证据某些合规场景需要证明这个用户通过了 KYC但具体的 KYC 原始材料没必要永久上链。传统的做法是把这些数据扔到中心化服务器或者 Pinata 上然后靠我们承诺会删来安慰用户。这个承诺的可验证性是零。Bulletin Chain 把到期必删从一个承诺变成了一个协议层的硬性保证——任何人都可以通过跑节点亲自验证这件事。两周这个窗口是一个经过权衡的折中值足够让最复杂的身份验证流程多方交叉验证、争议期、数据比对完成也足够短保证不会变成又一个数据一旦上链就永恒的系统。换句话说——Bulletin Chain 不是一条普通的 IPFS 链它是 Polkadot 身份基础设施专门需要的那种可审计、可过期、可公开发现的存储层。四、和 Arweave、Filecoin 的关系不是竞争是分工讨论一个新的存储方案绕不开一个问题——它和现有的去中心化存储明星有什么不同简单把三者放一起比较Arweave的定位是永久存储。一次性付费存完给你一个不会过期的地址。适合档案、历史记录、NFT 元数据这种刻上石头就别动的场景。但它不适合身份数据因为永远不删本身就是身份数据的反面。Filecoin的定位是可协商的长期存储。通过存储矿工和存储订单的市场机制让需求方和供给方匹配。适合大容量、中长期月/年级的冷数据。但它的最小单位和成本结构对我只要存一张人脸两周这种需求并不友好。Bulletin Chain的定位是短期、确定性、身份优先的临时存储。它用两周这个硬编码 TTL 把自己限制在了一个特定生态位里——不做档案、不做大容量冷存储、不和 Arweave 在永久上竞争而是补上 Web3 存储栈里最缺的那一段——需要上链但不需要永久的数据。这是一个非常健康的生态位选择。过去几年 Web3 存储赛道经常陷入一个协议想解决所有问题的陷阱Bulletin Chain 是少见的、从一开始就说清楚我不做什么的项目。更值得注意的是它和 Arweave/Filecoin 其实可以协同工作一条完整的身份流水线完全可以用 Bulletin Chain 存两周的验证数据把最终的、脱敏后的身份断言存进 Arweave 做永久备案——两种存储协议各司其职。五、对开发者意味着什么重新审视你的 Pinata 账单最后落到最实际的一个问题——如果你是正在 Polkadot 生态里构建应用的开发者Bulletin Chain 的上线对你意味着什么三个具体动作值得考虑第一重新审视你的 Pinata / 第三方 IPFS 账单。如果你的应用里有短生命周期的数据用户动态、评论、临时凭证、会话元数据这些数据其实没必要付费 pinning 在第三方服务器上。迁到 Bulletin Chain 既能省下这笔账单又能把去中心化前端这句营销话说得更硬——因为你真的不再依赖任何单一公司来保存这些数据。第二重新思考哪些数据值得上链。过去你可能出于成本考虑把本该上链的内容放到了链下。Bulletin Chain 把上链但不永久这个中间选项摆到了桌上。用户的头像、一段自我介绍的语音、一段视频签名——这些过去绝对不敢放到中继链上的富媒体内容现在可以以非常低的成本在链上短期存在获得区块链级别的可验证性。第三如果你在做身份相关应用优先考虑它。如果你的产品涉及 DID、PoP、KYC、凭证发放等身份相关环节Bulletin Chain 是目前 Polkadot 生态里最合适的存储层。它的权限模型通过 PoP 链的authorize_preimage机制授权数据写入就是为身份类应用设计的绕过它去找其他存储方案大概率要自己重复造一部分轮子。一个经验法则如果你问自己这份数据需不需要被保留两周以上答案是不需要的那部分基本都可以迁到 Bulletin Chain。这个边界比过去想得要宽得多。小结去中心化这件事最难的从来不是在技术上能否去中心化而是在经济上能否可持续地去中心化。IPFS 十年来给 Web3 留下的最大教训就是一个协议如果只定义了怎么传数据而没定义谁付钱存数据它最终一定会被中心化 pinning 服务收编。Bulletin Chain 的价值不在于它发明了什么新的存储技术而在于它把 IPFS 这十年一直缺的那个激励层用 Polkadot 区块链补上了。更聪明的是它没有去做一条全能存储链而是瞄准了一个非常具体的生态位——Polkadot 身份基础设施需要的那种可验证、可过期、可公开发现的存储层。对开发者来说这是 Polkadot 生态里第一次可以真正说出我们的 dApp 里没有 Pinata这句话的一条链。对整个 Web3 来说它可能给出了一个关于IPFS 到底应该怎么用的迟到了十年的答案——不是把它当成一个独立协议而是把它当成一条链的存储后端。Web3 存储赛道从来不缺宏大叙事——“永远不灭的图书馆”去中心化版 AWS S3“人类所有知识的备份”。Bulletin Chain 是一个相反的故事它承认数据有生命周期承认去中心化需要代价承认一个协议不能解决所有问题。这种小而锋利的设计哲学也许比任何宏大叙事都更像 Web3 真正该走的路。