文献链接:EEG‑Driven AR‑Robot System for Zero‑Touch Grasping Manipulation

使用KIMI2翻译了一遍:

作者:Junzhe Wang¹, Jiarui Xie², Pengfei Hao³, Cheng Liu⁴, Yi Cai⁵*
日期:2025-09-25
版本:arXiv:2509.20656v1 [cs.RO]


摘要

可靠的大脑-机器人接口(BCI)为人机交互提供了一条直观、无需动手的通道,对运动障碍人士尤为珍贵。然而,现有 BCI-机器人系统仍面临三大顽疾:

  • EEG 信号嘈杂不稳
  • 目标选择预设死板
  • 研究止步仿真,缺乏闭环实测

为此,我们提出闭环 BCI-AR-机器人框架:以运动想象(MI)解码脑意,以增强现实(AR)作神经反馈,以机器视觉引导机械臂完成零接触抓取。14 通道 EEG 耳机完成个体化 MI 标定;手机端 VST-AR 界面实现多目标导航并给出方向一致的即时反馈,稳住信号;机械臂融合解码决策与眼在手视觉位姿估计,自主抓取。实验结果:

  • MI 训练准确率 93.1 %,平均信息传输率(ITR)14.8 bit/min
  • AR 神经反馈显著抬升持续控制指数(SCI = 0.210),ITR 冲至21.3 bit/min
  • 闭环抓取成功率 97.2 %,效率可人,用户掌控感爆棚

一句话:AR 反馈让 EEG 控制稳如老狗,本框架把零接触抓取从论文搬进现实,为助老助残开启新范式。

关键词:人机交互;脑-机接口;增强现实;运动想象;辅助机器人


一、引言

人机交互(HRI)乃辅助机器人、遥操作、拟人系统之魂[1–3]。对重度运动障碍者而言,脑-机接口(BCI)不动一丝肌肉即可“心想事成”[4]。非侵入式 BCI安全、便携、低成本而备受青睐[5],然其信息传输率(ITR) 向来拉胯[6]。其中,脑电(EEG)毫秒级时序分辨率、随身带、无创伤成为扛把子[7];稳态视觉诱发电位(SSVEP)运动想象(MI) 已可在实时任务中解码意图[8–9]。

传统 EEG 系统把视觉刺激丢在独立显示器上,多目标任务时用户需来回扫视屏幕与 workspace,注意力切来切去,体验碎成渣[11]。增强现实(AR) 横空出世,把虚拟指令叠进真实世界,一眼锁定, cognitive load 骤降[12–13]。

然并卵,现存 BCI-AR 框架大多刺激-命令映射写死,对环境变化“面瘫”,且只跑仿真,真机闭环凤毛麟角。AR 分视频透视(VST)光学透视(OST)两类:VST 用手机/平板即插即用;OST 则靠昂贵头显。EEG 耳机叠加 OST 头显,压头、移位、信号漂移[18–20],一言难尽。于是,手持 VST-AR 成为“真香”选择。

本文闭环 BCI-AR-机器人系统,首次把 MI-EEG、AR 神经反馈、眼在手视觉抓取揉成一条绳,并在实体机械臂上跑通。用户纯靠动脑,即可在凌乱桌面上想抓谁抓谁,无需任何手动 remap。主要贡献如下:

  1. 端到端闭环:EEG 意图 → AR 选择 → 机器人抓取,数字-物理无缝衔接
  2. 动态交互:AR 实时反馈方向一致,多目标切换稳准快
  3. 鲁棒抓取:眼在手标定 + 逆运动学,换台机械臂也能用
  4. 零接触亲民:全程无手操作,助残场景即插即用

二、方法

A. 系统总览

系统架构见图 1,分四大模块:

  1. EEG 意图解码:MI 生成{左,右,抬}三指令,漫游 AR 界面。
  2. AR 多目标交互:手机 VST-AR 把虚拟块在实物上,方向一致的微摆反馈稳住 MI 信号。
  3. 网络通信层:OSC/HTTP 零延迟,把 AR 选中 ID 丢给机器人。
  4. 眼在手视觉抓取:臂端 RGB 相机扫ArUco 码,PnP 解算位姿,逆运动学生成四段航点,自主抓取。

B. BCI & AR 目标选择

  • 每物体贴ArUco 码,AR 端渲染同色虚拟块箭头
  • 用户 MI“左/右”时,整排虚拟块同步轻摆,箭头指向邻靶,想象→视觉闭环强化 EEG。
  • MI“抬”即锁定,AR 块高亮+抖动作正反馈,ID 发机器人。
  • 机械臂自校验ArUco,确保AR 选中 == 物理存在

C. 眼在手标定

  • 臂端相机内参 K、畸参 D 离线标定。
  • 离线手-眼标定得 ETC(相机→末端),在线 FK 给 BTE(末端→基座)。
  • 物体基座位姿:BTO = BTE · ETC · CTO
  • 位姿时域指数滑动平均 + 中值滤波,抗抖动。

D. 抓取合成与执行

四航点策略:

  1. 上方: clearance 高度 +Zoffset
  2. 接近:预抓点 +Zapproach
  3. 抓取:补偿夹爪长度 −Zgripper
  4. 抬升:验证高度 +Zlift

速度分层:空行程高速,逼近低速,夹住即抬。若重投影误差过大 or 标签被挡,重检 or 搜圈,失败则安全回退。一旦 MI 确认,全程无人手干预,真・零接触。


三、实验

A. 装置

  • EEG:Emotiv EPOC X,14 导,128 Hz
  • AR:Unity-Android 手机,VST
  • 机械臂:MyCobot 280Pi,6-DOF,两指夹爪,树莓派 4B
  • 视觉:臂端 RGB 相机,ArUco 码
  • 主控 PC:跑 EEGLab + Python,OSC 0 延迟

B. 被试

3 名健康成人(2 男 1 女,22–24 岁),零 BCI 经验,裸考即上阵。

C. 系统标定流程

  1. 离线 MI 训练:左/右/抬/静四类,每类 12–16 轮,实时条形反馈
  2. 个体滤波:8–16 Hz,μ/β 带功率特征,线性分类器。
  3. 在线 AR:MI 指令驱动虚拟块,方向一致微摆
  4. 机器人:收到 ID → 视觉重确认 → IK → 四航点抓取。

D. 实验 1:MI 指令训练

  • 准确率 93.1 %,误激活 8.3 %,决策时 4.69 s
  • ITR 14.8 bit/min,μ、β 带 ERD/ERS 显著,可用!

E. 实验 2:AR 神经反馈消融

四条件被试内交叉

  1. 无 AR
  2. 静态高亮
  3. 伪反馈(方向乱摆)
  4. 方向一致神经反馈

结果:

条件 准确率 决策时 FPR ITR
无 AR 75.6 % 3.88 s 0 % 11.9
静态 76.2 % 3.76 s 0 % 9.3
伪反馈 81.0 % 4.16 s 11.1 % 15.7
神经反馈 96.9 % 4.00 s 2.8 % 21.3

SCI:神经反馈 0.210碾压其余三组(p < 0.05)。方向一致的 AR 微摆就是定海神针

F. 实验 3:闭环真机抓取

  • 40×40 cm 桌,随机摆 3–5 物件,每人 12 试,随机序
  • 成功率:97.2 %(仅 1 次 EEG 误分类)。
  • 全程平均耗时 39.9 s:选靶 15.2 s → 规划 9.4 s → 执行 15.3 s。
  • NASA-TLX:精神负荷 81.7掌控感 6.0/7,疲劳可接受。

四、讨论

A. 可行 & 有效

三实验层层递进,证明:
低通道 EEG + 手机 AR + 轻量机械臂 即可在日常桌面完成零接触抓取闭环稳、准、快

B. 系统亮点

  • AR 方向一致反馈 把 MI 信号从漂移中拽回
  • 眼在手 ArUco 方案便宜抗造,换机器人零重写
  • 全链路自动,用户只负责想,其余交给代码

C. 局限 & 展望

  • 被试少 → 后续大样本
  • 消费级 EEG → 引入多模态(fNIRS、EMG);
  • ArUco 标签 → 无标记检测(YOLO-pose);
  • 固定抓取 → 深度学习自适应抓策略。

五、结论

本文提出并验证MI-EEG + AR 神经反馈 + 视觉抓取闭环零接触框架:
脑有所思,AR 有所指,机器人有所动
实验结果显示,该方案在准确率、ITR、成功率、用户体验全面在线,为辅助机器人人机共生开辟了一条接地气的新丝路。未来,我们将扩大样本、升级算法、扔掉标签,让系统走出实验室,飞入百姓家


参考文献(节选)

[1] A. Mohebbi, “Human-robot interaction in rehabilitation and assistance: a review,” Curr. Robot. Reports, 2020.
[5] N. Veena & N. Anitha, “A review of non-invasive BCI devices,” Int. J. Biomed. Eng. Technol., 2020.
[8] E. Piciucco et al., “SSVEP for EEG-based biometric identification,” BIOSIG, 2017.
[18] H. Si-Mohammed et al., “Towards BCI-based interfaces for AR,” IEEE TVCG, 2020.
[21] H. Zeng et al., “Closed-loop hybrid gaze-BMI with AR feedback,” Front. Neurorobot., 2017.


核心概念定义

在分析该系统前,需要明确几个核心概念。

EEG (Electroencephalography, 脑电图) 是一种记录大脑皮层电活动的技术,通过测量脑电信号可以反映用户的意念活动。

Motor Imagery (MI, 运动意象) 指用户在脑中想象特定动作的心理活动,系统通过 EEG 信号捕捉这种意念。

AR (Augmented Reality, 增强现实) 技术将虚拟信息叠加到真实环境中,

本系统利用 AR 提供neurofeedback (神经反馈),让用户在视觉上实时感知自己意念控制的结果,从而辅助调节意念。

Zero-Touch Grasping Manipulation 表示用户无需手部操作即可通过意念直接控制机器人抓取物体,这种交互方式强调潜意识参与和非显性控制。

Neurofeedback 是指系统将 EEG 信号状态以视觉或其他形式实时反馈给用户,帮助其调整意念以控制外部设备,实现闭环控制。

智能交互是指系统或产品能够感知用户状态与行为、理解用户意图与上下文、并基于此做出自适应响应,从而优化交互效率和用户体验的交互方式。这类交互不仅依赖输入输出界面,更强调系统与用户的认知、情感和行为闭环。

把“感知—理解—响应”当成三个模块看,确实很容易被认为是平平无奇的“分裂式框架”,但实际上它背后蕴含着非常丰富、可深究的理论联系和实践价值。

首先,有个名词叫认知,在直觉上,认知是大脑对进入的信息进行编码、储存、转换与输出的过程,包括注意、知觉、记忆、推理、决策等。这是最传统、也是最“显性”的认知定义。

这是经典认知科学里对认知定义,把心智视为信息处理系统(Information Processing System)。

这是经典的教科书级别的定义,不过时(如 Eysenck & Keane《Cognitive Psychology》、Anderson《Cognitive Psychology and Its Implications》)(待看)

因为它直接源于 1950–1980 年的“认知革命”(Cognitive Revolution)核心理论体系,在此之前,心理学由 行为主义(Behaviorism) 主导,强调刺激-反应(S-R),拒绝讨论“内部心理过程”。

1950–1960 年,心理学与计算机科学、语言学共同推动了“认知革命”。这一观点最早由 George Miller(记忆容量,米勒定律)、Ulric Neisser(认知心理学之父)、Newell & Simon(问题解决与符号处理) 等人确立。

Ulric Neisser(1967)《认知心理学》 Cognitive Psychology

第一章开篇便指出:

“认知涉及对进入的信息进行获取、保持、转换与使用。”

这是认知科学史上第一本系统的认知心理学教材,被视为诞生标志。

Anderson(1980–2000)《认知心理学及其启示》 Cognitive Psychology and Its Implications

长期作为全球使用最广的认知科学教材,反复强调:

“认知本质上是信息加工(information processing)。”

Eysenck & Keane《认知心理学》

结构即按信息加工模块组织:注意 → 感知 → 记忆 → 判断与决策。

这类教材几乎都按 信息流动路径 来写,因此可以直接说: 这是“教科书级”定义。

直至现在“大脑是计算机/黑客帝国”这种如果把人类认知等同于计算机信息处理,会导致怎样的存在论灾难,忽略了身体形态甚至是有意的说法,可以说一脉同源。

在对存在论灾难的讨论中,我们看到Neo的觉醒,他的意义、主体性、意志、选择、信仰、爱,在强人工智能模拟的围城里仍冲出来了。

总结下,经典认知科学对认知的基本假设是

  1. 大脑是计算机
  2. 心智是内部符号操作
  3. 感知是输入,行动是输出
  4. 身体和环境是可忽略的“外设”

不得不说,这些假设十分成功,催生了符号主义范式的AI(把智能看成规则、逻辑、推理、知识库,认为只要符号和规则完备,就能实现智能,但现在的AI(深度学习)不再遵守这些假设,是统计式的表示),智能可计算、智能可拆解。

在此后,除了经典认知科学,还有其他学科界定了认知。

在具身智能里,认知并非只发生在大脑里,而是在大脑、身体与环境三者,认知依赖身体,认知是行为驱动的,认知是扎扎实实地嵌入环境中的。

  1. 认知依赖身体(人类概念结构根源于身体经验(image schemas)) “前进=进步”源自身体空间运动,有的文化,向右的趋势代表未来;“情绪高低”源自身体竖直姿态感受(让人弯腰驼背,会增加悲伤与无力感!!!);“接触=理解”源自手部操作经验(这个概念难以掌握;你点到我了;摸清楚情况了)

  2. 认知是行为驱动的(感知并非对世界的被动记录,而是对行动可能性的主动探索。没有行动没有感知) 我们看到“可以抓取的杯子”,不是光谱信息,而是“可操作性(affordance)”,手部动作改变视觉输入,因此感知本身是行动的一部分

  3. 认知嵌入环境(认知系统与环境形成不可分割的耦合(enactive coupling)) 环境是认知系统的外部存储;世界本身提供结构,减少大脑内部计算成本;行动与环境反馈构成自组织系统

当然,“具身”里还因身体到底占据认知的多大比重而划分成不同派别,如弱认知、强认知、激进认知。但是,这带来了一个问题:理论边界不清晰,什么算具身?算到什么程度?

对“具身”来说,近年的兴起算得上巧合,尤其是机器人方面。

本系统BCI虽说算不上是经典的具身,但其中的“闭环、感知–行动耦合、身体信号”使它具有强烈的具身特征,比如运动意象的反馈需要视觉、触觉、运动皮层的参与,身体在大脑中的神经结构被当作为控制介质使用。

先用经典认知科学分析本系统

  1. 感知用户(Perceiving the User)(也就是智能交互系统使用哪些方式捕捉用户的信息)(输入)

EEG等信号可被视作用户模糊的意图信号,但对于系统来说,这些信号更大意义上是可分类的输入特征向量。 <!– 在认知科学与人因学中,用户状态可以分为生理、心理、行为三个层面。智能交互系统通过传感器捕捉这些信息:

生理感知:如 EEG、心率、皮肤电反应(EDA)等指标,可反映用户的注意力、认知负荷、情绪状态等潜意识活动。

理论依据:Cognitive Load Theory(Sweller, 1988)表明,认知负荷可通过生理指标推测。EEG 信号的特定频段(如 α、β、μ 波)与运动意象或集中状态相关,支持潜意识层面交互控制。

行为感知:通过动作捕捉、眼动追踪、手势识别等,系统理解用户当前操作模式。

理论依据:Affordance Theory(Gibson, 1979)说明,用户动作与环境交互是潜意识感知的结果,智能交互系统可以利用这些动作信号进行预测。

环境与上下文感知:传感器获取空间、温度、光线、噪声等信息,结合用户状态判断最适交互方式。

理论依据:Situated Cognition Theory(Brown, Collins, & Duguid, 1989)指出,认知是情境依赖的,智能交互需要考虑用户环境以提高自然性。 –>

  1. 理解行为与意图(Understanding User Behavior)(也就是智能交互系统)(处理)

因为EEG等 本身只是波形噪声,对计算机来说没有意义,它在系统里会把原始信号转换成离散的代表动作的符号,并控制查询这些动作符号对应状态空间的哪些位置,以便输出动作序列(体现智能 = 在符号状态空间中搜索—)。

  1. 自动响应(Adaptive System Response)(输出到外设)

用具身认知分析本系统:

以下惓惓不会分析(抄AI的,日后再想)

EEG 意图信号是身体经验的间接表达,而非全然抽象。虽然用户没有直接手部动作,但 motor imagery 本身就是基于手部动作的神经再现,研究显示大脑在想象动作时会激活与真实抓取高度重叠的运动皮层区域(premotor 和 M1 区),因此用户的身体经验仍然部分被调动,只是通过脑信号传递而非手部直接执行。这与具身认知所强调的“认知依赖身体经验”在形式上是一致的,只是身体执行被技术中介延伸

AR 提供的抓取目标与手部动作的映射、以及 neurofeedback 的实时更新,为用户创造了新的感知—行动闭环。虽然用户无法通过伸手试探直接接触物体,但 AR overlay 和视觉反馈成为“扩展感知的替代途径”,部分实现了具身认知中的行动驱动感知,只是感知通路被扩展到脑—AR—机器人链路。

机器人在现实环境中执行抓取,AR 显示结果并提供神经反馈,这种设计允许用户的意念与物理动作和环境状态产生间接耦合。与传统抓取不同,用户通过意念—视觉—机器人—物理环境形成的系统,是一种“扩展身体—环境耦合”,可以视为具身认知的变体——只是认知的身体通路从直接手—眼—肌肉延展到脑信号—虚拟反馈—机器动作

问题:

  1. 系统要求用户通过“思维”激活概念,但真实世界中“抓取”是身体驱动的概念:这造成认知负担,大脑必须人主动想象去激活经验,而不是由身体自然触发?
  2. 用户无法通过身体调整视觉输入,例如移动头部、改变观察角度、伸手试探,因此“抓取可行性”变成静态图像+AR Overlay,极度贫瘠?
  3. 真实世界中,感知是在移动手、眼、身体的过程中动态产生的。而这里,感知是由系统预先渲染好喂给用户的?

系统有开环闭环分类,这里的闭环不仅仅是反馈控制,而是潜意识学习循环,用户无需显式思考就能提高操作精度,这和传统 HCI 的显性命令执行截然不同。

传统 HCI (《The Psychology of Human–Computer Interaction》(Card, Moran, & Newell,1983)待看)更偏向经典认知的工程化落地,因为它要解决的工程问题,本质上就是“如何把用户输入变成系统输出”,这天然适配“心智=信息处理器”的框架,比如用户点击了哪里,输入了什么,界面反馈什么,反馈如何表现能减少用户的错误。

潜意识体现与容错设计分析

在 EEG‑AR‑Robot 系统中,潜意识体现主要通过 连续反馈闭环(continuous feedback loop) 和 信号平滑/投票机制(signal smoothing & majority voting)来实现。从交互设计的角度,这意味着用户不必显性监控每一次 EEG 采样结果,也无需精确计算每一步意念动作的结果,而系统通过短时间内的平均或多数判定自动过滤异常信号,形成自然的“行为—反馈—调整”循环。在操作过程中,用户通过 AR neurofeedback 可视化自己意念对机器人动作的影响,视觉上即时看到“手爪张开/闭合、抓取成功”的变化,这种 可感知的、低认知负荷反馈让潜意识能够自动调整意念控制策略,类似用户在游戏中通过肌肉记忆逐渐掌握操作,而无需刻意思考每个步骤。

容错设计在交互层面体现在几个方面。首先,系统对 EEG 信号的噪声与瞬时波动具有天然容忍,通过多帧采样和动作确认机制,用户即使偶尔意念偏离,机器人仍能保持动作稳定,减少用户挫败感。其次,训练阶段提供 渐进式任务,从简单的“张开/闭合”动作到复杂抓取动作,用户的操作习惯和意念映射逐步内化,形成隐性学习(implicit learning),这是典型的潜意识参与式交互。最后,零接触抓取设计本身减少了手部操作失误带来的风险,相当于在物理交互上为用户提供了安全缓冲,从而降低心理负荷。

不自然或高认知负荷问题分析

尽管系统有利用潜意识闭环,但仍存在一些不够自然或高认知负荷的问题。 首先是疲劳,完全依赖刻意思维的 Motor Imagery 控制模式要求用户持续集中精神想象动作,这超出潜意识自然操作范围,容易产生疲劳,这也是技术上无法避免的问题。其次,AR neurofeedback 高密度视觉信息会增加注意力负荷,潜意识难以高效处理过多信息,长时间使用易导致疲劳和操作错误。此外,复杂动作一次性完成的控制任务超出短期记忆和潜意识处理能力,连续多步操作容易分散注意力并降低控制精度。

优化交互方案设计思路

针对上述问题,可提出一套潜意识友好、低认知负荷的交互方案。

加入 多模态反馈,在保持基本视觉反馈的同时,增加轻微触觉振动提示抓取状态及音效提示操作完成或错误,使潜意识可自然获取操作确认而无需高强度视觉关注。

在感知环节,AR neurofeedback 不应只是静态信息图层,而要强化直觉化与多模态感知。用户的潜意识学习依赖快速、低负荷的反馈,所以视觉提示可以简化为清晰动作状态指示(比如手爪张开/闭合用颜色渐变或形态变化表示),同时结合轻微触觉振动或空间音效提示抓取成功与失败。这种多感官信号让用户在不刻意思考的情况下自然调整意念,潜意识层面“读懂”系统状态。

以下几点AI想的,主要是针对实验流程上的优化和对系统的初始设置。

在行动环节,系统应允许用户选择不同层级的意念复杂度,而非完全二值化操作。例如用户可以先控制“抓/不抓”,当熟练后再加入抓取力度、手腕旋转等可选意念子动作。这相当于分块动作控制,让潜意识逐步内化操作规律,同时降低认知负荷。另一种策略是引入微动作辅助(轻触、手势、眼动)作为意念的“触发放大器”,不必完全依赖脑电信号,就能自然形成 sensorimotor 反馈,增强操作信心。

(对于系统)对于多步或复杂任务,实施 分块操作,将任务拆分为 1–2 个动作的子步骤,每步完成后通过闭环反馈确认,再进入下一步操作,降低瞬间认知负荷。为进一步降低试错成本,引入 虚拟预演与缓冲机制,意念控制动作先在虚拟环境中模拟,通过 AR 或触觉确认后再驱动实际机器人,操作偏差可即时撤销,避免物理损坏。