无法实现, 200米的距离光速走一个来回就1.34 us, 摄像头帧率不够的。
但是可以用三角测距法来实现,也就是你说的视差。此方法除了因为需要一定长度的基线,导致体积偏大以外,测量精度上不输ToF,且容易DIY,主要是要编写图像处理算法。
如果使用线状激光器还可以一次性测一个横截面上的距离分布,或者使用类似kinect 1代和苹果face ID的伪随机光斑,甚至可以一次性对全视野进行深度测量。
自己DIY基于ToF的摄像头测距技术难度会非常大,实际上现在市面上的ToF相机使用的像素阵列跟普通摄像头技术上完全不是一个东西, 而且也不是直接测量激光飞行时间。一般是用间接方法测TX / RX相位差,可参考:XXXXXXXXXXXXXXXXXXXXXXXXXXXXXX/azure-depth-platform/understanding-indirect-tof-depth-sensing/;或者是用单光子探测器(SPAD)阵列: XXXXXXXXXXXXXXXXXXXXXXXXXXX/document/9264255。这两种都不是DIY条件下能搞定的。
时段 | 个数 |
---|---|
{{f.startingTime}}点 - {{f.endTime}}点 | {{f.fileCount}} |