Furo:
搭载语音、触摸人机互动交互模块,能够自动人体感应,并具备丰富的脸部表情,实现语音交互过程中的唇形匹配与表情互动,可实现在环境中自建地图导航定位功能,可通过USB连接搭载多种外设产品。
外观采用人形外观设计,具有明显的头部、双目、身体、手臂。
交互系统: 采用语音信号和触摸屏双系统来进行信息的输入输出。主触摸屏为32 英寸的 LCD 显示器,分辨率为1920X1080。
语音交流: 提供基于语音识别引擎与人声发音引擎。语音交互功能支持中文普通话语言及英文。 语音交互内容可以通过对话编辑器进行编辑。
人体感应:通过人脸识别等技术进行人体感知,能从前方 4 米左右的距离感知客户的靠近,并且在靠近距离接近 1 米左右时候,能触发机器人进行主动接近客户并跟踪伴随客户的功能。 能进行主动打招呼、讲解等工作。
表情系统:通过一块 9.7 英寸的彩色 LCD 头部显示器进行拟人化的智能脸部表情显示。提供超过 10 种的脸部表情,包括:高兴激动,惊讶疑惑,沮丧无奈,自信,生气,害羞等。
肢体动作 :可提供±30°的颈部左右转动,身体姿态的左右转动。这些动作设计合理,安全性高。
移动系统 :移动以轮式驱动系统为主,提供 0.46 米/秒的运动速度,可进行 360°自由旋转。
pepper
外观为人形
配备语音识别、姿态关节、情绪识别,可与人互动交流,可综合考虑周围环境,积极主动地作出反应。
可通过视野系统来察觉人表情。
通过语音识别系统识别人的语音语调以及特定表现人类强烈感情的字眼。
情感引擎将面部表情、语音语调和特地字眼量化处理,通过量化评分最终做出对人类积极或者消极情绪的判断,并用表情、动作、语音与人类交流、反馈,甚至能够跳舞、开玩笑。
支持通过Wi-Fi接入云端服务器。
可通过SDK根据自己所想对机器人部署和个性化设定,并可扩展其应用实现。
人机交互力反馈遥操作机器人系统
HD²高清触觉设备是高精度六自由度触觉系统,用于高级研究触觉和机器人。结合Quanser强大的控制设计环境,它为虚拟医疗模拟器和遥感操作等各种新兴应用提供了灵活的开发测试平台。
应用领域:触觉控制、阻抗控制、主/从操作控制、遥操作控制、并行/冗余机械手、运动学与动态建模、运动(位置/速度)控制和力控制、力/速度观测器、位置和力跟踪、系统辨识、多变量控制设计。
开放架构的触觉遥操作机器人系统
Omni™Bundle是引入与机器人和触觉相关的中级和高级控制概念和理论的一种经济高效且安全的方法。将Geomagic Touch™(以前的SensAble Phantom Omni)触觉设备与QUARC®控制软件和全面的Quanser开发的课程相结合,可让学生轻松将课程理论转化为实践经验。
以在Matlab/Simulink中利用Matlab强大的控制工具箱和数据分析、信息融合功能,对该机器人进行各种复杂控制算法研究。
可模拟医疗康复训练、远程医疗手术、空间带触觉遥控操作等相关控制过程。
除了可以研究触觉装置的相关控制理论,本身还可以作为一个普通多连杆装置,进行多连杆机械装置的动力学、运动学、轨迹跟踪、姿态控制、阻抗控制等方面的研究。
可以与6自由度机械臂组合为随动装置,可针对外科手术中的遥操作随动、遥操作力反馈问题开展研究;通过算法设计、控制器设计实现随动的高精度,并实现高精度力的矢量反馈。
可以用于网络控制、力反馈控制、随动控制等相关的教学、研究工作。