首页 | 新闻 | 新品 | 文库 | 方案 | 视频 | 下载 | 商城 | 开发板 | 数据中心 | 座谈新版 | 培训 | 工具 | 博客 | 论坛 | 百科 | GEC | 活动 | 主题月 | 电子展
返回列表 回复 发帖

面向Linux的十大开源人工智能工具

面向Linux的十大开源人工智能工具

目前,人工智能是科技界不断发展的领域之一,主要侧重于构建软硬件,以便在医疗、教育、安全、制造、银行及其他众多领域解决日常生活中的挑战。我们在本文中将介绍几款面向Linux生态系统的顶尖开源人工智能工具。
下面列出了为支持人工智能设计和开发的诸多平台,你可以在Linux及其他许多操作系统上使用。切记:介绍顺序不分先后。
1.DeepLearningForJava(Deeplearning4j)
Deeplearning4j是一种商用级、开源、即插即用的分布式深度学习库,面向Java和Scala编程语言。它是专门为商业相关应用设计的,并与分布式CPU和GPU上的Hadoop和Spark整合起来。
DL4J采用Apache2.0许可证发布,它提供了GPU支持,以便在AWS上进行扩展,并且适用于微服务架构。
2.Caffe
是一种模块化、表达式的深度学习框架,以速度见长。它采用BSD2-Clause许可证发布,已经支持研究、初创公司原型以及视觉、速度和多媒体之类的工业应用等领域的几个社区项目。
主页链接:http://caffe.berkeleyvision.org/
3.H20
是一种开源、快速、可扩展的分布式机器学习框架,另外该框架还有各种各样的算法。它支持更智能化的应用,比如深度学习、梯度提升、随机森林、广义线性建模(比如逻辑回归和弹性网络)以及其他更多。
这是一种面向企业的人工智能工具,用于利用数据做决策,它让用户能够使用更快速、更准确的预测建模,从数据获取洞察力。
主页链接:http://www.h2o.ai/
4.MLli
是一种开源、易于使用、高性能的机器学习库,是作为ApacheSpark的一部分开发的。它实际上易于部署,可以在现有的Hadoop集群和数据上运行。
MLlib还随带一系列算法,可用于分类、回归、推荐、聚类、生存分析及更多方面。重要的是,它可以用在Python、Java、Scala和R等编程语言中。
主页链接:https://spark.apache.org/mllib/
5.ApacheMahout
Mahout是一种开源框架设计工具,用于构建可扩展的机器学习应用程序,它拥有如下三大功能:
提供简单、可扩展的编程工作环境。提供诸多预包装算法,支持Scala+ApacheSpark、H20以及ApacheFlink。包括Samaras,这是一种向量数学试验型工作环境,拥有类似R的语法。
主页链接:http://mahout.apache.org/
6.开放神经网络库(OpenNN)
OpenNN也是一种用C++编写的开源类库,面向深度学习,它用于构建神经网络。然而,它最适合经验丰富的C++程序员以及机器学习技能出色的人员。它的特点就是拥有深度架构和高性能。
主页链接:http://www.opennn.net/
7.Oryx2
Oryx2是最初的Oryx项目的延续,它是在ApacheSpark和ApacheKafka上开发的,重新设计了Lambda架构,不过专门面向实时机器学习。
这是个应用开发平台,还随带协作过滤、分类、回归和聚类等方面的某些应用程序。
主页链接:http://oryx.io/
8.OpenCyc
OpenCyc是一种开源门户网站,通向世界上最大、最全面的一般知识库和常识推理引擎。它包括大量的Cyc术语,这些术语用一种精确设计的本体来排列,支持这些领域的应用:
丰富领域建模特定领域专家系统文本理解语言数据整合、人工智能游戏及其他
主页链接:http://www.cyc.com/platform/opencyc/
返回列表