针对未知相机标定及目标3D几何模型,研究机器人无模型视觉伺服定位方法.引入状态空间,建立机器人“视觉空间-运动空间”雅可比非线性映射的状态方程和观测方程,提出神经网络联合卡尔曼滤波雅可比预测算法,网络在线动态补偿系统近似误差与参数估计误差,实现最小均方差条件下的雅可比预测;以李雅普诺夫稳定性准则构建雅可比预测的无模型图像视觉伺服控制方案,避免了相机标定和目标建模.“眼在手”六自由度机器人定位比较实验表明,图像空间特征轨迹平滑稳定在相机视场中,笛卡尔空间机器人末端运动平稳,无震荡回退,定位精度在1