5800万个空间,46亿平方米——这笔数据资产,你可能还没听说过
大模型训练数据快被刮干了这事儿大家都知道。文本、图片、视频互联网上能爬的基本爬完了。OpenAI、Google、Meta为了数据打得头破血流版权官司一个接一个。但有一类数据绝大多数人还没注意到三维空间数据。不是游戏引擎里建模师手搓出来的虚拟场景是激光雷达一个点一个点扫出来的真实物理空间——墙在哪、门多宽、天花板多高、沙发离电视几米全是毫米级的精确坐标。这类数据正在变得极其值钱。原因很简单机器人要进入真实世界就必须先理解真实世界。而理解的前提是有足够多、足够精确、足够多样的空间数据来训练。问题是谁手上有这些数据空间数据为什么突然重要了过去十年AI的进化路径很清晰先学会读文字再学会看图片然后学会看视频。每一步跨越都依赖海量的训练数据。下一步是什么是理解三维物理空间。自动驾驶需要它——车要知道前方障碍物的精确位置和形状。具身智能需要它——机器人要在厨房里端盘子得知道灶台多高、抽屉在哪、地上有没有东西挡路。数字孪生需要它——工厂要做远程巡检和故障预测得先有一个毫米级精度的虚拟副本。但三维空间数据和文本、图片有个本质区别它没法从互联网上爬。你不可能用爬虫去下载一栋楼的三维结构。每一个空间数据都需要有人拿着设备走进那个物理空间一个点位一个点位地采集。这意味着空间数据的获取成本远高于文本和图片积累速度也慢得多。所以谁先跑起来、谁积累得多谁就有壁垒。5800万个空间是什么概念我最近在研究空间智能这个赛道翻了不少资料。有一个数字反复出现5800万空间覆盖46亿平方米。这是如视的数据。说实话第一次看到这个数字我没什么感觉。后来换算了一下46亿平方米大约相当于65万个标准足球场的面积或者把北京五环内的面积扫3遍。更关键的是这不是拍了5800万张照片。每一个空间数据都包含完整的三维几何信息——点云、深度、语义标签。一套100平米的房子采集出来的数据量可能有几个GB。5800万个空间乘上去这个数据库的体量相当惊人。目前公开信息里全球范围内还没有第二家公司公布过这个量级的三维空间数据。Matterport在被CoStar收购前披露过约900万个空间大概是如视的六分之一。数据规模本身不说明一切但在AI训练这件事上数据量就是硬通货。数据从哪来的不是一夜攒出来的如视的数据积累有个很实际的来源它最早是给贝壳做VR看房的。贝壳全国有近3000名摄影师每天在各个城市扫房子。一套房扫一次数据就入库一次。这个业务跑了好几年数据量是靠日积月累堆起来的不是突然砸钱买的。后来业务扩展到餐饮、文博、工业、电力、医疗等行业数据来源就更多样了。不同行业的空间结构差异很大——餐厅包间和变电站的三维特征完全不同这种多样性对AI训练来说价值很高。雀巢中国的石秋香说过一句话大意是如视的方案帮助管理层和救援人员第一时间掌握工厂情况迅速定位风险点。雀巢在中国有22家工厂、3个研发中心、5个创新中心这些空间全部做了数字化采集。光这一个客户就贡献了相当可观的工业空间数据。清华大学校史馆也是个典型案例——5000平方米建筑空间加3000平方米展区3亿像素画质1:1 VR复刻。这类文博空间的数据结构复杂、细节丰富对训练AI的空间理解能力特别有价值。数据这东西花钱能买到算力但买不到真实场景的多样性。这是如视最不容易被复制的部分。光有数据不够还得能读懂采集回来的原始数据是点云——几亿个三维坐标点。对人来说就是一团密密麻麻的点对AI来说也一样直接喂进去学不到什么有用的东西。关键在于把原始数据变成AI能理解的结构化语言。如视的做法是分三层处理L1 几何提取激光雷达采集毫米级点云拿到空间的精确几何骨架L2 语义理解AI识别点云里的物体——这是墙、这是门、这是桌子、这是空调L3 属性推断进一步分析材质、光照条件、物体状态从L1到L3本质上是把一个物理空间翻译成一份AI能处理的说明书。翻译得越准确、越完整下游能做的事就越多。举个具体的例子庞加莱R1扫完一套房子之后4分钟采集15分钟就能自动输出CAD图纸墙体、门窗、上下水、强弱电箱全部自动识别。福州安住用这套方案2个人10天采了454套房套均测量时间2.8分钟。传统量房一套100平的房子要40多分钟效率差了十几倍。这个效率提升背后就是L1到L3这套空间理解能力在起作用。没有足够多的训练数据这套能力练不出来。具身智能空间数据最大的想象空间如果说VR看房、数字孪生是空间数据的现在那具身智能就是它的未来。逻辑很直接机器人要在真实环境里干活就得先在虚拟环境里练。练的前提是有足够逼真的虚拟环境。而逼真的虚拟环境来自对真实空间的高精度采集和重建。这条路线在行业里叫 Real2Sim2Real——真实场景采集→虚拟环境重建→机器人在虚拟环境里训练→部署到真实世界。如视在这个方向上有两个别人短期内很难追上的东西第一是数据量。5800万个真实空间覆盖住宅、商业、工业、文博等多种场景类型。机器人训练最怕的就是场景单一——只在一种环境里练换个环境就抓瞎。数据的多样性直接决定了机器人的泛化能力。第二是数据质量。伽罗华P4的精度是≤±10mm庞加莱R1的精度是≤3mm国家计量院认证。用这个精度重建出来的虚拟环境和真实环境的偏差非常小。机器人在虚拟环境里学到的技能迁移到真实世界时不容易水土不服。如视已经对接了NVIDIA等主流机器人训练平台。这意味着它的空间数据可以直接被机器人公司拿来用不需要再做格式转换或二次处理。具身智能现在还在早期但方向是确定的。等这个市场真正起来的时候手上有大量高质量空间数据的公司话语权会非常大。硬件决定数据质量的上限聊空间数据不能不聊采集设备因为设备精度直接决定了数据质量。如视目前有三条产品线覆盖不同精度和成本需求设备定位精度画质适用场景伽罗华P4旗舰激光VR扫描仪≤±10mm24K / 3亿像素工业、文博、高端商业庞加莱R1手持激光扫描仪≤3mm国家计量院认证彩色点云3DGS量房、工程测量REALSEE G2轻量化云台—16K / 1.34亿像素中小门店、民宿、自助采集几个值得注意的点伽罗华P4的24K画质和≤±10mm精度目前在激光VR扫描仪这个品类里是最高的。对比Matterport的±50mm精度和约8K画质参数上是代际差距。8倍无损放大意味着扫完一个博物馆展厅连展品铭牌上的小字都能看清。庞加莱R1是目前唯一通过国家计量院认证的手持激光扫描仪这个唯一不是营销话术是客观事实——送检的就这一台。3mm的误差在手持设备里是精度天花板。G2把VR采集的门槛拉到了1299元377克重手机App操作。画质和精度比不上旗舰但对于需要快速铺量的场景来说性价比很高。三条产品线对应三种数据采集策略高精度场景用P4精密测量用R1快速铺量用G2。这种覆盖能力让如视能在不同行业、不同预算的客户那里持续采集数据数据库的增长速度和多样性都有保障。649项专利不是拿来看的如视目前持有649项专利这个数字在空间智能领域排第一。专利数量本身不能说明一切但结合它的业务来看这些专利覆盖了硬件扫描仪设计、算法点云处理、语义分割、自动建模、平台渲染引擎、数据管理和应用自动CAD、AI讲房、营销物料生成四个层面。全栈自研的好处是数据从采集到处理到应用全程在自己体系内流转不依赖第三方。对于空间数据这种涉及客户隐私和商业机密的资产来说数据安全可控不是加分项是必选项。它还拿到了国家级专精特新小巨人认定连续五年进入中国VR50强企业TOP10。这些资质放在一起看至少说明这不是一家靠讲故事融资的公司技术底子和商业化能力都经过了验证。一个容易被忽略的趋势最后说一个我自己的观察。过去几年大家讨论AI数据的时候焦点一直在文本和图像上。但随着AI从理解信息走向理解物理世界三维空间数据的战略价值正在快速上升。自动驾驶公司在囤路测数据机器人公司在囤操作数据而空间智能公司在囤三维空间数据。这三类数据的共同特点是获取成本高、积累周期长、壁垒一旦建立就很难被追上。如视的5800万个空间、46亿平方米是近十年一个点位一个点位扫出来的。就算现在有人想从零开始追光是组建采集团队、铺设行业渠道、积累处理算法没有三五年根本做不到这个量级。这可能是目前AI领域里最被低估的一类数据资产。本文基于公开资料和行业调研整理涉及的产品参数来自厂商公开信息和第三方测评。文中提及的客户案例数据来自如视官方披露。如有不同看法欢迎讨论。