姜岳🗄🙁升回到家后,感觉胸前好像压了一块石头,茶饭懒餐。
他一直在不停地思考一个问题,为什么在试🁃🁃验场,人们用肉眼一眼就能看出来机器人的伪装?而机器人确不能。
其实,在试验场,不管机器人是否改变伪装的形式,单个也好、聚集也好,我们人类都🆀能轻松看出来。就好像我们看见一🐧🂒匹正吃草的马以后,我们也能辨认飞奔的马、打滚的马。
这还是因为我们☃☔⚱的大脑捕捉到了很多机器人捕捉不到的特征。
也🕾就是说,我们还🀵🁊🄈是需要在识别单个机器人特征上下功夫。如果能抓住机器人⚻🖪🕚足够多的特征,不管他怎么伪装,都能一眼识破。
想到这里儿,姜岳升觉得应该彻底改变思路,把重点放在机器人外观特征的建模上,而不是放在🏇😁⚀环境建模上,环境是千变万化的,我们建模的速度不🎋可能跟得上环境的变化,而我们的目标是机器人、不是环境,只要抓住机器人足够多的特征,就可以以不变应万变。
他突然想起了AI大模型,于是在手机🐖⛜上打开AI大模型终端,输入:请问,监控是如何区分人和其他运动🇳🜥物体的?
很快,大模型的答案来了:
第🕾一、识别轮廓特征,包括十个方位的轮廓特征;
第🕾二、识别结构特征,包括肢体😠🂴📄部位的相对位置特征和比例特征;
第三、识别♐运动特征,🃰包括站立、走、跑的特征;
第四、识别面部特征,包括瞳🇭🛶♒孔距离、两耳宽度、鼻尖眉梢🜘🏆距离;
第五、识别运动轮廓特征,包括双腿摆动角度、双腿与躯干角度、双臂角度、双臂与躯干角度;
第六、识别运动结构特🃰征,包括头部、上臂、腿部位置关系;
看到了大模型上的描述,姜岳升立刻有了主意,因为机器人的结构是模仿人类制造的,识别人的这些特🚢🕁🆦征大多数是可以直接移植过来的。只需🛓🛹♭要让机器人能够准确地区别人类和机器人不就行了吗?
想到这里,他进入了AI大模型的编程入🞟🕝口,输入:“请编写区分人和其他运动物体的程序”