证据深度学习 “所有模型都是错误的,但是某些模型(知道何时可以信任它们)是有用的!” -乔治·博克斯(改编) 该存储库包含用于重现的代码(如所发布的),以及更通用的代码,以利用证据学习来训练神经网络,以直接从数据中学习不确定性! 设置 要使用此软件包,必须首先安装以下依赖项: python(> = 3.7) 张量流(> = 2.0) pytorch(支持即将推出) 现在,您可以安装以开始为模型添加证据层和损失! pip install evidential-deep-learning 现在,您可以直接在现有tf.keras模型管道( Sequential , Functional或model-subclassing )的一部分中直接使用此包: >>> import evidential_deep_learning as edl 例子 要使用证据深度学习,必须将模型的最后
2025-09-12 16:24:15 9.6MB deep-learning neural-network tensorflow pytorch
1
球形文字嵌入 在NeurIPS 2019中发布的用于Spherical Text Embedding的源代码。代码结构(尤其是文件读取和保存功能)改编自。 要求 GCC编译器(用于编译源c文件):请参阅有关的。 预训练的嵌入 我们在上提供了经过预训练的JoSE嵌入。 与诸如Word2Vec和GloVe之类的欧几里德嵌入不同,球形嵌入不一定受益于高维空间,因此,首先从低维嵌入开始可能是一个好主意。 运行代码 我们提供了一个shell脚本run.sh来编译源文件和训练嵌入。 注意:在准备训练文本语料库时,请确保文件中的每一行都是一个文档/段落。 超参数 注:建议使用默认的超参数,尤其是阴性样品(数量-negative )和损失函数保证金( -margin )。 调用不带参数的命令以获得超参数及其含义的列表: $ ./src/jose Parameters: -train
2025-09-11 16:32:18 10.76MB word-embeddings unsupervised-learning
1
《Learning Spark》是关于Apache Spark的入门书籍,它为读者提供了一个非常全面的指南来了解并掌握Spark这一强大的大数据处理框架。本书涵盖了Spark的核心概念,包括基础、数据处理、与存储系统的交互以及如何在Spark中进行数据分析。下面,我们将详细介绍书中提到的知识点。 Apache Spark是一个开源的集群计算系统,它提供了比传统Hadoop MapReduce更快的数据处理速度,并且在内存计算方面表现得更加优异。Spark的设计初衷是为了简化大数据的分析工作,其核心特性包括分布式数据集(RDD)、对实时数据流的处理(Spark Streaming)、大规模机器学习算法(MLlib)以及图计算(GraphX)等。 Spark的统一堆栈(A Unified Stack)包括以下几个组件: 1. Spark Core:提供了Spark的基本功能,包括任务调度、内存管理以及故障恢复等,其它的组件都是建立在Spark Core之上的。 2. Spark SQL:允许用户执行SQL查询,同时支持各种数据源,是处理结构化和半结构化数据的重要组件。 3. Spark Streaming:对实时数据流进行计算处理,提供了与核心Spark API类似的高级API。 4. MLlib:提供了一系列机器学习算法和工具,用于构建预测模型。 5. GraphX:是Apache Spark中用于图计算的库,它提供了操作图和执行图计算的API。 书中提到,Spark的使用者众多,包括一些大型公司和研究机构,它们利用Spark进行数据科学任务和数据处理应用。关于数据科学任务,Spark能够帮助用户进行数据探索、统计分析、特征提取等。数据处理应用方面,Spark则擅长执行ETL(提取、转换、加载)操作,数据仓库查询和日志分析等。 此外,书中还回顾了Spark的发展史,提到了Spark的版本和发布历史,以及它与Hadoop的关系。Hadoop曾经是大数据处理的事实标准,但Spark在性能上有所超越,并且能够更好地利用内存资源。 在如何开始使用Spark的章节中,作者指导读者如何下载Spark,熟悉其Python和Scala的交互式shell,以及核心概念。书中还介绍了如何初始化SparkContext,这是与Spark集群进行交互的入口点。 关于RDD编程,该书详细解释了RDD是什么以及如何创建RDD,并介绍了转换(Transformations)和行动(Actions)操作,这些都是编程Spark时的基础概念。懒惰评估(Lazy Evaluation)是Spark的一个关键特性,它意味着Spark不会立即执行计算,而是构建一个计算图,只在需要最终结果时才执行计算。此外,本书还介绍如何将函数传递给Spark,并分别针对Python、Scala和Java语言给出了示例。 处理键值对(Key-Value Pairs)的章节揭示了在Spark中处理分布式的键值对数据的重要性。在这一章节中,作者阐述了如何创建和操作Pair RDDs,包括转换操作、聚合和分组数据、执行连接(Joins)、排序和分区等。此外,也讨论了自定义分区器(Custom Partitioners)的作用以及它们如何影响数据的分布和处理性能。 加载和保存数据的章节解释了Spark支持的各种数据格式,例如文本文件、JSON、CSV/TSV、序列文件和对象文件等。Spark能够读写Hadoop支持的多种文件系统,比如HDFS和本地文件系统。书中还涉及了压缩的使用、支持各种数据库的读写操作,例如Elasticsearch、MongoDB、Cassandra、HBase,以及通过Java Database Connectivity (JDBC) 连接关系型数据库。这些内容为读者提供了把Spark用于生产环境中数据处理的全景视图。
2025-09-01 11:04:06 1.45MB Learning Spark
1
该存储库是将Litestream作为库嵌入Go应用程序中的示例。 Litestream API不稳定,因此将来升级时可能需要更新代码。 Litestream作为库此存储库是将Litestream作为库嵌入Go应用程序中的示例。 Litestream API不稳定,因此将来升级时可能需要更新代码。 安装要安装,请运行:go install。 现在,您应该在$ GOPATH / bin中有一个litestream-library-example。 用法此示例应用程序使用AWS S3,并且仅提供-bucket配置标志。 它将从环境变量中提取AWS凭证,因此您需要设置这些凭证:
2025-08-07 15:29:07 24KB Golang Learning Tutorial
1
deep learning 中文版 ,带书签
2025-07-26 23:04:11 30.63MB 深度学习
1
深度学习(Deep Learning)是人工智能领域的一个重要分支,它主要关注如何通过计算机模拟人脑神经网络的方式进行学习和预测。这个压缩包包含了两份关于深度学习的重要资源:一本是中文版的《深度学习》(Deep Learning 中文版 2017.3.15.pdf),另一本是英文原版的《deep learning.pdf》。这两本书籍都是由深度学习领域的先驱者,包括Yoshua Bengio、Ian Goodfellow和Aaron Courville等人编著的。 1. **神经网络基础**:深度学习的核心是神经网络,它是由许多个处理单元(神经元)按照一定层次结构组成的计算模型。这些神经元通过权重连接,形成多层的网络结构,每一层对输入数据进行一次转换,逐层提取特征。 2. **反向传播算法**:在训练神经网络时,反向传播算法是关键。它通过计算损失函数相对于每个参数的梯度,来更新网络中的权重,以最小化预测结果与真实值之间的误差。 3. **卷积神经网络(CNN)**:在图像识别和计算机视觉任务中,卷积神经网络表现出色。CNN利用卷积层提取图像特征,并通过池化层降低数据维度,实现高效处理。 4. **循环神经网络(RNN)**:对于序列数据如文本和语音,循环神经网络可以捕获时间依赖性。RNN的特点在于其具有记忆单元,允许信息在时间步之间流动。 5. **长短时记忆网络(LSTM)**:为了解决标准RNN在处理长序列时的梯度消失问题,提出了LSTM,它增加了门控机制,能更好地保持和遗忘长期依赖信息。 6. **生成对抗网络(GAN)**:GAN是深度学习中的创新应用,由生成器和判别器两部分组成,通过对抗性训练,可以生成逼真的新样本。 7. **深度强化学习(DRL)**:将深度学习与强化学习结合,使智能体能够通过与环境交互学习最优策略,例如在AlphaGo中击败世界围棋冠军。 8. **深度学习框架**:实现深度学习通常需要借助如TensorFlow、PyTorch或Keras等开源框架。这些框架提供了高级API,简化了模型构建和训练过程。 9. **模型优化**:深度学习模型的优化涉及超参数调整、正则化、批量归一化、学习率调度等方法,以提高模型的泛化能力和训练速度。 10. **分布式训练**:对于大规模数据集和复杂模型,分布式训练是必要的。通过多GPU或多节点并行计算,可以加速训练过程。 这两本书不仅介绍了深度学习的基本概念,还涵盖了最新的研究进展和技术应用,是初学者和专业人士深入理解深度学习的宝贵资源。阅读过程中,读者可以通过对照中文版和英文版,加深对理论的理解,同时提升英文阅读能力。
2025-07-26 23:01:27 85.9MB deep learnin
1
这是一本关于astroML的书,全名为Statistics, Data Mining, and Machine Learning in Astronomy,用python写的Machine Learning for Astrophysics。
2025-07-26 21:45:14 102.53MB 机械学习 python
1
《Learning Spark》与《图解Spark核心技术与案例实战》两本书是深入了解和学习Apache Spark的重要资源,它们分别从英文和中文角度提供了丰富的Spark知识。Spark作为一个分布式计算框架,以其高效、易用和多模态处理能力在大数据处理领域备受推崇。 《Learning Spark》是Spark的官方入门教材,由Databricks的团队编写,详细介绍了Spark的核心概念和技术。这本书分为多个部分,首先讲解了Spark的基础,包括Spark架构、RDD(弹性分布式数据集)以及Spark Shell的使用。接着,深入讨论了DataFrame和Dataset API,这是Spark 2.x引入的重要特性,使得数据处理更加高效且类型安全。此外,书中还涵盖了Spark SQL、Spark Streaming、MLlib(机器学习库)和GraphX(图处理)等模块,为读者提供了一个全面的Spark视角。 《图解Spark核心技术与案例实战》则是面向中文读者的Spark指南,通过图形化的方式和实际案例,让读者更直观地理解Spark的工作原理和应用。书中的案例涵盖了数据处理的各个阶段,如数据加载、转换、聚合以及结果输出。书中详细解析了Spark作业的执行流程,包括Stage划分、Task调度以及 Shuffle过程,这些是理解Spark性能优化的关键。此外,书中还涉及了Spark与Hadoop、Hive等其他大数据组件的集成,以及如何在实际项目中运用Spark进行数据挖掘和分析。 Spark的核心技术主要包括以下几个方面: 1. RDD:作为Spark的基本数据抽象,RDD提供了容错性和并行计算的能力。通过创建和操作RDD,用户可以实现分布式计算任务。 2. DataFrame和Dataset:这两种API是Spark SQL的一部分,提供了更高级别的抽象,使得数据处理更加方便,同时也支持SQL查询。 3. Spark SQL:Spark SQL将SQL与Spark的编程模型融合,允许用户通过SQL语句或DataFrame/Dataset API来处理结构化数据。 4. Spark Streaming:Spark Streaming提供了一种处理实时数据流的方法,它将数据流划分为微批次,然后使用Spark的核心API进行处理。 5. MLlib:Spark的机器学习库,提供了各种常见的机器学习算法,如分类、回归、聚类和协同过滤,并支持管道和模型选择。 6. GraphX:Spark的图处理库,用于处理和分析图形数据,支持图算法的实现。 7. 性能优化:Spark支持动态资源调度、宽依赖优化、Shuffle管理、数据本地性等策略,以提高计算效率。 通过这两本书的学习,读者可以系统地掌握Spark的核心概念和技术,了解如何在实践中应用Spark解决大数据问题,无论是数据分析、实时流处理还是机器学习,都能找到相应的解决方案。同时,对于想要深入研究Spark的开发者,这两本书也提供了丰富的参考资料和实践指导。
2025-07-24 16:41:44 56.27MB spark 核心技术 案例实战
1
吴恩达的机器学习课程主要包括两门,一门是在Cousera上的《机器学习》,另一门是他在斯坦福大学教授的《CS229: Machine Learning》。 Cousera上的《机器学习》课程侧重于概念理解,而不是数学推导。这门课程重视联系实际和经验总结,吴恩达老师列举了许多算法实际应用的例子,并分享了他们入门AI时面临的问题以及处理这些难题的经验。这门课程适合初学者,课程内容可以在Cousera网站上在线观看,需要注册后可申请免费观看。 斯坦福大学的《CS229: Machine Learning》课程则更加偏好理论,适合于有一定数学基础的同学学习。这是吴恩达在斯坦福的机器学习课程,历史悠久,仍然是最经典的机器学习课程之一。 机器学习是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。它专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。它是人工智能的核心,是使计算机具有智能的根本途径。 如需更多吴恩达机器学习课程相关内容,可以登录Coursera官网和B站查看课程介绍。
2025-07-23 12:27:49 48.01MB 机器学习
1
用于人类活动识别的深度学习(和机器学习) CNN,DeepConvLSTM,SDAE和LightGBM的Keras实施,用于基于传感器的人类活动识别(HAR)。 该存储库包含卷积神经网络(CNN)[1],深度卷积LSTM(DeepConvLSTM)[1],堆叠降噪自动编码器(SDAE)[2]和用于人类活动识别(HAR)的Light GBM的keras(tensorflow.keras)实现。 )使用智能手机传感器数据集, UCI智能手机[3]。 表1.在UCI智能手机数据集上的五种方法之间的结果摘要。 方法 准确性 精确 记起 F1分数 轻型GBM 96.33 96.58 96.37 96.43 CNN [1] 95.29 95.46 95.50 95.47 DeepConvLSTM [1] 95.66 95.71 95.84 95.72 SDAE [
2025-07-15 10:34:57 1.84MB machine-learning deep-learning keras lightgbm
1