日本团队成功驯化大鼠神经元,首次在活体脑细胞上实时运行AI算法。
4 月 7 日消息,日本东北大学与未来大学联合研究团队近日在活体神经计算领域取得突破性进展。据科技媒体 Tom's Hardware 于 4 月 5 日发布的独家报道,该团队成功利用大鼠皮层神经元构建出首个可自主生成复杂时序信号的“闭环储备池计算”系统——这一成果标志着生物神经组织正从被观测对象,转向可编程、可训练的新型计算基质。
该系统将活体神经元、高密度微电极阵列与定制化微流控芯片深度集成,实现了真正意义上的“在体式”实时机器学习。尤为关键的是,它无需持续外部信号输入即可完成周期性与混沌波形的学习与再生,例如正弦波、三角波、方波乃至三维洛伦兹混沌吸引子轨迹。这已远超传统神经接口中“解码—执行”的被动范式,迈入了“学习—生成—自维持”的主动计算新阶段。
技术突破的核心,在于对神经网络拓扑结构的精密物理干预。研究团队采用 PDMS(聚二甲基硅氧烷)微流控薄膜,将神经元胞体精准限制在 128 个微型微孔中,并通过可控微通道构建格型与分层两类连接架构。这一设计直击生物学神经培养中的经典难题:无约束条件下,离体神经元极易陷入全局同步振荡,丧失信息处理所需的动力学多样性。实验数据证实,物理约束使神经元两两相关性从失控状态的 0.45 骤降至 0.12,网络有效维度显著提升——这不是简单的“抑制噪声”,而是主动“ sculpting(塑造)”计算潜力。
测试结果令人振奋:格型网络在所有目标波形任务中表现最优,不仅能稳定生成周期为 4 秒、10 秒和 30 秒的规则波形,更在洛伦兹吸引子轨迹逼近任务中实现学习阶段预测信号与目标信号相关性超 0.8。东北大学教授山本英明指出:“活体神经元网络不仅是生物学系统,更可作为新型计算资源。”这句话看似简洁,实则蕴含范式转移的重量——它暗示我们正站在一个临界点上:未来计算机的“芯片”,或许不再仅由硅基晶体管构成,也可能由千百个跳动的真实神经元编织而成。
当然,冷静看待仍是科学报道的底线。当前系统仍面临现实瓶颈:训练终止后,自主运行期间误差随时间推移明显累积;反馈环路约 330 毫秒的延迟,使其难以响应毫秒级动态变化——这对真实脑机交互场景而言,仍是不可忽视的鸿沟。值得强调的是,这类延迟并非源于算法缺陷,而根植于生物神经传导的固有物理极限与硬件接口间的耦合损耗。因此,团队提出“专用硬件降延迟”的路径极为务实:与其强求生物系统提速,不如优化人—机界面本身——这恰恰体现了跨学科研究中最珍贵的清醒与克制。
展望未来,该技术向脑机接口与神经假体设备延伸的应用图景清晰可见。若能将此类可训练生物计算单元嵌入植入式装置,或将催生新一代“共生型”假肢——它不单执行指令,更能随用户神经习惯持续自适应演化。不过我们也需警惕概念过热:距离临床应用,尚需跨越长期稳定性、免疫兼容性、大规模神经集成及伦理审查等多重高山。但无论如何,4 月 5 日这篇论文所开启的,已不只是实验室里的又一项技术验证,而是一把正在撬动计算哲学根基的杠杆。