https://univtac.github.io/Githubhttps://github.com/univtac/UniVTAC本篇论文中使用了几款视触觉传感器1.通过在仿真环境中采集视触觉传感器的相关数据RGB、Marker、Depth等训练一个基于ResNet-18 骨干网络作为共享编码器得到一个预训练权重encoder/checkpoints/resnet18/20251128-125750/best.pth2.在ACT模型训练时backbone中使用resnet18时加载基于触觉训练的预训练权重encoder/checkpoints/resnet18/20251128-125750/best.pth用实际真机采集的触觉RGB图像作为输入。官方默认ACT使用的resnet18权重加载的是默认的权重UniVTAC中预训练权重下载运行仓库提供的数据和权重下载https://github.com/univtac/UniVTAC/blob/main/data/download.sh该脚本会通过 ModelScope 下载 byml2024/UniVTAC 数据集其中包含了预训练权重文件。