你这段话表明你根本不知道AI是怎么训练的,也是也前面diss你驾驶员的视觉无法接入AI训练的理由之一。事实上,AI训练并不依赖人类的视觉。你总是站在人类的视觉角度思考就太片面了。AI是根据数据发生的因果概率进行训练的,只要是数据,都可以用来训练AI,文字、语音、图片和视频都可以,当然,雷达传感器的信号也可以。但说实话,目前制约雷达传感器应用和AI训练的最大问题是分辨率太低,或者如果高分辨率的价格太高,所以它提供的数据比视频更难训练而已。
其实雷达和视频信号本质都一样,都是对无线电波的采集和处理,只是目前处理视频信号的技术发展的更久更成熟而已。但综合雷达信号和视频信号的方案比纯视觉方案肯定是更有潜力的,因为这是多波段感知,对于不同物品和场景信息采集更全面更真实,因此理论上也更可靠。现在特斯拉推崇纯视觉的唯一原因是节省成本,一方面目前视觉单像素的成本比雷达要低非常多,另一方面基于视频信号的AI训练技术也成熟所以成本也更低。但这一切并不代表纯视觉优于雷达+视觉的方案,更不存在说雷达信号不能用AI训练的问题。就像人类凭视觉可以感受世界,但蝙蝠用超声波一样可以感受周围环境,其对环境的适应能力完全不亚于人类。另外,特斯拉选的方向不一定是正确的方向,至少不是唯一正确的方向。不要迷信,更不要盲从。学会思考很重要。
关注数量超出限制,
请先删除部分内容再尝试