麻省理工科技评论(MIT Technology Review)报导,圣地亚哥加州大学研究团队打造一组接口,可以在斑胸草雀发出声音之前约 30 毫秒,先知道牠们要唱什么声音。 根据科学家在学术网站 bioRxiv 刊登的报告指出,他们直接译码鸟大脑的神经活动来合成声音。
研究团队还包括阿根廷鸟类专家 Ezequiel Arneodo,他将该系统称为「神经活动复杂、自然的沟通信号译码器」的第一个原型,类似方法可能推展到人脑接口。 由于鸟类的发声位置与人类讲话方式类似,是科学家研究记忆与认知的实验对象,且鸟类的歌声很复杂,就像人类语言,都是学习而来,像斑胸草雀就是从长辈那边学到如何唱歌。
目前在人体实验的大脑界面,主要是追踪人们想象手臂运动所发出的神经信号,此信号可以移动机器人或指引光标来打字,但这样的头盔或脑部植入概念实际运作方式还不清楚。 但不是不可能,如同加州大学团队在清醒的鸟类中使用硅电极测量感觉运动核的神经元电颤动,透过软件译码来合成声音。 感觉运动核是鸟类下达唱歌指令的地方。
实验采用的神经网络软件是一种机器学习技术,研究人员将神经激发模式和实际歌声写入程序,以及歌声停止、启动和频率的变化,训练软件来匹配,即他们所谓的神经到歌曲的频谱映像。 该团队的最大创新是结合鸟类唱歌方式的物理模型,来简化大脑到发出声音的过程。
鸟没有人类的声带,而是在喉咙一个振动表面上喷射空气,称为 syrinx。 鸟类是非常重要的研究模型,Elon Musk 的神经科技公司 Neuralink 首先雇用的就是鸟类科学家。 报导认为,圣地亚哥加州大学科学家将焦点放在大脑对肌肉下达指令后的肌肉运动方式,比读取思想更实际。