今年,索尼日本首次亮相后,准备将Mocopi(该公司基于智能手机的可穿戴运动跟踪系统)引入美国市场。虽然价格略有上涨,但它仍然是建立整个动作捕捉工作室或将房间布满传感器的更经济实惠的选择。
动作捕捉技术是将现实生活中表演者的动作记录下来,并应用于虚拟角色的关键工具,它不仅简化了计算机生成角色的动画过程,还能实现更逼真和细致的动作。
随着虚拟YouTuber等的日益普及,过去几年出现了更实惠的动作捕捉解决方案探索潮,索尼也加入了这一行列,推出了Mocopi。
Mocopi仅依赖于六个运动跟踪器,它们看起来很像苹果的AirTags,但有一点颜色,每个跟踪器都配备了一个用于跟踪物理运动的3DoF加速度计和一个用于跟踪其在3D空间中的方向的3DoF角速度传感器。
Mocopi所有的跟踪器都可以使用单根USB电缆在一个携带箱中同时充电,并通过磁性连接到表演者手腕、脚踝、臀部和头部的带子或夹子上,标签确保它们始终连接到正确的身体部位。同时,每个Mocopi可跟踪器通过蓝牙将其位置数据传输到配套的手机应用程序,用户可以通过该应用程序控制虚拟角色,这些数据也可以通过WiFi实时共享到PC上,以控制其他应用程序中的计算机生成角色,如VRChat,或通过已经可用的软件开发工具包用于其他应用程序。
Mocopi将于7月14日开始向美国客户发货,售价为449美元,这比使用HTC Vive等完整的虚拟现实系统要便宜得多,因为考虑到用于捕捉位置数据的单个跟踪器和基站,HTC Vive的成本可能高达数千美元。尽管Mocopi系统每秒只捕捉50Hz的数据,但你可以期待更昂贵的解决方案具有更高的准确性。它的价格也不如SlimeVR等解决方案便宜,后者以100Hz的速度捕捉数据,通过完全基于WiFi的通信系统最大限度地减少延迟,并且六个跟踪器的只需190美元,是Mocopi看起来可以将整个动作捕捉解决方案放入你的口袋中。
好文章,需要你的鼓励
人工智能芯片初创公司SiMa Technologies宣布其第二代系统级芯片平台MLSoC Modalix正式出货,专为多模态物理AI工作负载设计。该芯片可嵌入机器人、工业设备和车辆等设备中,支持运行大语言模型、卷积神经网络等多种AI算法。芯片采用低功耗设计,能在边缘设备上直接处理传感器数据并运行AI模型,无需依赖云端处理,有效降低延迟。
浙江大学和阿里巴巴团队开发Memp框架,为智能体构建程序性记忆能力。该系统通过构建、检索、更新三个模块,让智能体从过往经验中学习,显著提升任务成功率50%,执行效率提升一半。更重要的是,强模型的记忆可传递给弱模型,实现经验共享。这项研究为构建具有持续学习能力的智能系统开辟新路径。
西雅图AI研究机构Ai2发布MolmoAct 7B,这是首个动作推理模型,能让机器人在执行任务前进行"思考"和规划。该模型可将自然语言指令转化为3D空间中的运动轨迹,通过1800万样本在256个H100芯片上训练完成。在SimPLER基准测试中达到72.1%的任务成功率,超越了谷歌、微软等公司的同类模型。
卡内基梅隆大学开发的LightSwitch技术能让3D物体在任意光照环境下呈现真实外观,解决了传统重光照方法速度慢、效果不真实的问题。该技术采用材质感知和多视角一致性机制,将计算时间从数小时压缩至几分钟,在电影制作、游戏开发、虚拟现实等领域具有广阔应用前景。