北京:
中国科学院自动化研究所周五表示,中国科学家团队已经建立了一种基于内部复杂性的新型大脑启发网络模型,以解决传统模型面临的挑战,例如计算资源的高消耗。
构建更通用的人工智能,使模型具有更广泛、更通用的认知能力,是当前人工智能发展的关键目标之一。
自动化研究所研究员李国奇表示,目前大型模型使用的流行方法是基于规模定律构建更大、更深、更广泛的神经网络,这可以被称为基于“外部复杂性”实现通用智能的方法。
然而,这种方法面临着诸如不可持续的计算资源和能源消耗以及缺乏可解释性等挑战。
另一方面,人类大脑有大约1000亿个神经元和近1000万亿个突触连接,每个神经元都有丰富多样的内部结构。但是人类大脑的能量消耗只有20瓦左右。
受大脑神经元动力学的启发,来自自动化研究所和清华大学、北京大学等其他研究机构的科学家们采用了一种“内部复杂性”的方法来实现通用智能。
他们的实验验证了内部复杂性模型处理复杂任务的有效性和可靠性,为将神经科学的动态特性融入人工智能提供了新的方法和理论支持,也为优化和提高人工智能模型的实际性能提供了可行的解决方案。
这项研究最近发表在《自然计算科学》杂志上。
中国科学院自动化研究所周五表示,中国科学家团队已经建立了一种基于内部复杂性的新型大脑启发网络模型,以解决传统模型面临的挑战,例如计算资源的高消耗。
构建更通用的人工智能,使模型具有更广泛、更通用的认知能力,是当前人工智能发展的关键目标之一。
自动化研究所研究员李国奇表示,目前大型模型使用的流行方法是基于规模定律构建更大、更深、更广泛的神经网络,这可以被称为基于“外部复杂性”实现通用智能的方法。
然而,这种方法面临着诸如不可持续的计算资源和能源消耗以及缺乏可解释性等挑战。
另一方面,人类大脑有大约1000亿个神经元和近1000万亿个突触连接,每个神经元都有丰富多样的内部结构。但是人类大脑的能量消耗只有20瓦左右。
受大脑神经元动力学的启发,来自自动化研究所和清华大学、北京大学等其他研究机构的科学家们采用了一种“内部复杂性”的方法来实现通用智能。
他们的实验验证了内部复杂性模型处理复杂任务的有效性和可靠性,为将神经科学的动态特性融入人工智能提供了新的方法和理论支持,也为优化和提高人工智能模型的实际性能提供了可行的解决方案。
这项研究最近发表在《自然计算科学》杂志上。
有话要说...