现在的位置: 首页资讯>正文

谷歌AI7天可完成人类10万小时标注任务

2018年07月18日 作者: 暂无评论 474+ 0

昨日,《Nature Methods》刊登了谷歌新论文《High-Precision automated reconstruction of neurons with flood-filling networks》,称其构建的AI系统将帮助神经科学家更好的理解大脑结构和功能。

映射神经系统的生物网络结构属于计算密集型的连接组学(Connectomics)研究范畴。人脑包含大约860亿个通过100亿个突触联网的神经元,对单个立方毫米神经元进行成像可以产生超过1000TB的数据。

幸运的是,AI可以提供帮助。

谷歌研究人员表示,发表在《Nature Methods》上的新论文《High-Precision automated reconstruction of neurons with flood-filling networks》或将有助于神经科学家更好地理解大脑的结构及其功能。谷歌和德国研究中心马克斯普朗克研究所( Max Planck Institute)合作开展了该研究项目。

就像米开朗基罗工作室里的一块大理石一样,神经元的真实形态被困在所有周围空间和其他纠缠神经元的数据中。神经科学家必须手动查看图像,识别神经元切片,并指定计算机中的每一个变成3D模型。谷歌估计,每个样品都是只有1毫米的立方体,完成对全部样品的标注需要10万小时。然而他们所研发的AI经过七天训练,就能完成相同的任务。

传统算法在追踪神经节的过程中,使用边缘检测算法识别神经节之间的边界,然后使用wateshed或graph cut等算法将未被边界分割的图像像素组合在一起。谷歌和马克斯普朗克研究所的研究人员则提出了一种模拟生成神经网络的“floor-filling Networks”模型,将两个步骤结合起来,新算法从特定像素位置开始生长,并使用循环卷积神经网络(Recurrent convolutional neural network,RCNN)不断填充一个区域,进而预测哪些像素和初始像素属于同一物体。

谷歌研究人员不是第一个将机器学习应用于连通组学的人,早在今年三月,英特尔与麻省理工学院计算机科学和人工智能实验室就合作开发了新一代脑图像处理管道。不过谷歌研究人员表示,他们的算法比以前的深度学习技术准确度提高一个数量级。该论文的共同作者Viren Jain表示,这个项目的突破在于教AI一次追踪一个神经元结构,而不是试图同时追踪每个神经元。

为了严格量化准确性,该团队提出了“预期运行长度(ERL)”的测量概念:在大脑的3D图像中给定一个随机神经元,测量算法在出错之前可以跟踪神经元在多远的距离。据研究团队称,在对100万立方微米的斑胸草雀进行脑部扫描时,该模型的表现比以前使用相同数据集的其他深度学习算法“好得多”。

▲ERL算法追踪鸣鸟脑部的一个神经元

▲斑胸草雀,常用于脊椎动物脑、行为和演化研究

“这个项目真正影响的是可以完成的神经科学研究的数量,”Viren Jain告诉Quartz,“能够以全面的方式研究大脑中神经元的实际模式是历史上神经科学家所无法实现的。”

Viren Jain和该论文的另一位主要作者Michal Januszewski在一篇博客中写道:“通过将这些自动化结果与修复剩余错误所需的少量额外人力相结合,研究人员现在能够研究鸣鸟连接组,以尝试确定斑胸草雀如何学会唱歌曲。”

除了发表论文之外,研究团队还在Github上发布了其模型的TensorFlow代码,以及面向可视化数据集的WebGL 3D软件。他们计划在未来进一步完善该系统,使突触解决过程完全自动化,并“为马克斯普朗克研究所和其他地方的项目做出贡献。”

原文地址 http://www.eeboard.com/news/3d-40/

搜索"爱板网"加关注,每日最新的开发板、智能硬件、开源硬件、活动等信息可以让你一手全掌握。推荐关注!
【微信扫描下图可直接关注】

发表评论

相关文章

英特尔人工智能——在各种应用场景中为英特尔客户带来最高的回报

如今人工智能 (AI) 的发展迎来了令人振奋的时刻。曾经只有具备深厚专业知识积累的公司才有可能使用人工智能,但短短几年后,随着软件工具、生态系统和硬件开发的日趋成熟,越来越多的公司开...

深度学习已死?完全夸大其词,深度学习是AI发展的下一个阶段

英特尔副总裁在受访时表示,“深度学习已死”这类报道完全属于夸大其词,深度学习是AI发展的下一个阶段,英特尔预计在2020年将深度学习技术应用在日用品和可穿戴设备上。

还以为人工智能打幌子忽悠人忽悠人?Mate 20其实已经用上AI

1950 年,为了分辨机器是拥有自创的思想,还是精心设计的程序,英国数学家、逻辑学家 Alan Turing 「煞费苦心」地提出了著名的「图灵测试」;而半个世纪以后的今天,生活和工作被人工智能概...

一文带你读懂人工智能结合边缘计算格局

近日,华为和比特大陆纷纷发布了针对边缘计算的新芯片产品。华为的Ascend系列采用达芬奇架构,其中Ascend 310功耗8W算力8TOPS正是针对边缘计算市场。而之后比特大陆发布的BM1682和BM1880也是...

AI将如何改变IoT架构

物联网副总裁卢托斯坦斯基(Lou Lutostanski)表示,Avnet未来主义者表示,人工智能(AI)和物联网(IoT)将比工业革命和数字革命加起来更深刻地改变商业和社会,我们现在开始看到这个世界可能如何...