Welcome to the fifth edition of Elasticsearch Cookbook targeting Elasticsearch 8.x. It's a long journey (about 12 years) that I have been on with both Elasticsearch and readers of my books. Every version of Elasticsearch brings breaking changes and new functionalities, and the evolution of already present components is a continuous cycle of product and marketing evolution.
2022-06-27 13:04:43 7MB Elasticsearch Elasticsearch.8.
1
Beginning iPhone Development with Swift 5: Exploring the iOS SDK, 5th Edition (True PDF)
2022-06-24 20:56:43 22.21MB iOS Swift
1
Beginning iPhone Development with Swift 5: Exploring the iOS SDK, 5th Edition (ePUB)
2022-06-24 20:56:07 22.23MB iOS Swift
1
适用机型: ThinkPad X1 Carbon 5th Gen (MTM: 20HQ,20HR,20K3,20K4) 文件太大本站不能上传,故上传到阿里云盘。 因阿里云盘不能分享IOS格式的文件,下载镜像文件后需要删除文件的后缀名.txt 恢复U盘制作教程:http://tools.lenovo.com.cn/doc/detail/id/1446/html
2022-06-23 22:00:49 559B 联想原厂系统
适用机型: ThinkPad X1 Carbon 5th Gen (MTM: 20HQ,20HR,20K3,20K4) 文件太大本站不能上传,故上传到阿里云盘。 因阿里云盘不能分享IOS格式的文件,下载镜像文件后需要删除文件的后缀名.txt 恢复U盘制作教程:http://tools.lenovo.com.cn/doc/detail/id/1446/html
2022-06-23 22:00:48 560B 联想原厂系统
中文翻译Introduction to Linear Algebra, 5th Edition 8.2节 1 假设我们知道了关于基底 v 1 , . . . , v n :的 T (v 1 ), . . . , T (v n ),我们也就知道了所有 T (v)。 2“T 对应矩阵”的 j 列源于将 T 运用到输入基向量 v j 。 3 按输出基底 w 写作 T (v j ) = a 1j w 1 + · · · + a mj w m 。这些 a ij 成为列 j。 4 若输入与输出基 = I n×n 与 I m×m 的列,则 T (x) = Ax 对应的矩阵是 A。 5 当基变为 v 与 w 时,相同 T 对应的矩阵由 A 变为 W −1 AV 。 6 最佳基底:V = W = 特征向量与 V, W = 奇异向量,得出对角 Λ 与 Σ。 下一页为每个线性变换 T 指派了一个矩阵。对于普通列向量,输入 v 在 V = R n 中且输出 T (v) 在 W = R m 中。这个变换对应的矩阵 A 将会是 m × n 的。我们在 V 及 W 中选择的基将决定 A。 R n 及 R m 的标准
2022-06-16 09:09:36 246KB 线性代数 数学
1
中文翻译Introduction to Linear Algebra, 5th Edition 8.1节 仅交流学习 1 线性变换 T 将向量 v 变成向量 T (v)。线性要求 T (cv + dw) = cT (v) + dT (w) 注意 T (0) = 0, 所以 T (v) = v + u 0 非线性。 2 输入向量 v 与输出 T (v) 可以在 R n 或矩阵空间或函数空间中。 3 若 A 是 m × n 的,则 T (x) = Ax 是从输入空间 R n 到输出空间 R m 的线性变换。 ∫ x df + 4 导数 T (f ) = 是线性的。积分 T (f ) = f (t)dt 是它的伪逆。 dx 0 5 两个线性变换的乘积 ST 仍然是线性的: (ST )(v) = S(T (v))。 当一个矩阵 A 乘以一个向量 v 时,它将向量 v 变换为另一个向量 Av。输入 v,输出 T (v) = Av。 变换 T 遵循着与函数相同的思想。输入一个数 x,输出 f (x)。对某一个向量 v 或某一个数 x,我们乘 上矩阵或求函数值。更深层次的目标是一次考虑所有向量 v。
2022-06-03 20:05:40 959KB 综合资源 线性代数
1
经典通信教材 数字通信 第五版 英文原版 Proakis 通信入门
2022-05-28 21:11:22 25.18MB Digital Communicatio
1
中文翻译Introduction to Linear Algebra, 5th Edition 7.4节,仅用于交流学习! 1 一个典型的方阵 A = U ΣV T 分解为 (旋转)(拉伸)(旋转)。 2 几何展示了 A 如何将圆上的向量变换为椭圆上的向量 Ax。 3 A 的范数是 ∥A∥ = σ 1 。这个奇异值是它的最大增长因子 ∥Ax∥ / ∥x∥。 4 极分解将 A 分解成 QS:旋转 Q = U V T 乘上拉伸 S = V ΣV T 。 5 伪逆 A + = V Σ + U T 使列空间中的 Ax 还原到行空间中的 x。 SVD 将一个矩阵分成三步:(正交矩阵) × (对角矩阵) × (正交矩阵)。普通的言语就能表达其背后的几 何:(旋转) × (拉伸) × (旋转)。U ΣV T x 从旋转到 V T x 开始。其次 Σ 将向量拉伸到 ΣV T x,然后 U 将其旋转至 Ax = U ΣV T x。以下是其图像。
2022-05-24 14:07:48 677KB 综合资源 线性代数
1
中文翻译Introduction to Linear Algebra, 5th Edition 7.3节,仅用于交流学习! 本节阐述 SVD 在统计学与数据分析中的一个主要应用。我们的示例将来源于人类遗传、面部识别 及金融。问题在于理解一个大的数据矩阵(= 测量值) 。对 n 个样本的每一个,我们测量 m 个变量。数 据矩阵 A 0 具有 n 列和 m 行。 通过图像,A 0 的列是 R m 里的 n 个点。在我们减去各行的平均值后得到 A,其 n 个点通常沿着 一条直线或接近一个平面(或 R m 的其它低维子空间)聚集。这条直线或平面或子空间是什么? 允许我从一个图片而不是数字开始。对于如年龄和身高的 m = 2 个变量,其 n 个点位于 R 2 平面。 减去平均年龄和平均身高来中心化数据。假设 n 个中心化后的点沿某条直线聚集,那线性代数如何找 出那条直线呢?
2022-05-18 19:08:04 1.38MB 综合资源 线性代数
1