中文翻译Introduction to Linear Algebra, 5th Edition 1.1节 线性组合在这个学科中非常重要!有时我们想要一个特定的组合,具体选择 c = 2 和 d = 1 来产 生 cv + dw = (4, 5)。其它时候我们想要 v 与 u 的所有组合(来自所有的 c 与 d)。 向量 cv 沿一条直线放置。当 w 不在那条直线上时,组合 cv + dw 充满整个二维平面。从四维空 间中的 4 个向量 u, v, w, z 开始,它们的组合 cu + dv + ew + fz 可能充满整个空间——但并不总是 这样。向量和它们的组合可能位于一个平面上或一条直线上。 第 1 章解释了这些中心思想,一切都建立在这些思想上。我们从能够合理绘制的二维向量与三维 向量开始。然后我们移入更高的维度。线性代数真正令人印象深刻的特点是如何流畅地将这一步引入 n 维空间。即使不可能画出十维的向量,你脑海中的画面也会保持是正确的。 这是本书将要通往的地方(进入 n 维空间)。第一步是 1.1 节和 1.2 节的运算。然后是在 1.3 节概 述了 3 个基本思想。
2022-07-14 16:08:55 859KB 线性代数 数学
1
中文翻译Introduction to Linear Algebra, 5th Edition 8.3节 1 使用新输入基 Bin 与新输出基 Bout,每个矩阵 A 变成 B −1 out ABin。 2 Bin = Bout =“A 的广义特征向量”得出若尔当型 J = B−1AB。 3 傅里叶矩阵 F = Bin = Bout 将每个循环矩阵对角化(利用 FFT)。 4 正弦与余弦,勒让德与切比雪夫多项式:这些都是函数空间很好的基。 这是本书重要的一节。我担心大多数读者会跳过他——或读不到这里。前几章通过解释基底的概念做 了铺垫。第 6 章介绍了特征向量 x 以及第 7 章找出了奇异向量 v 与 u。这两个是赢家,但其它许多选 择是很有价值的。 首先是 8.2 节的纯代数,然后是优良基。输入基向量将是 Bin 的列。输出基向量将是 Bout 的列。 Bin 和 Bout 总是可逆的——基向量均无关! 纯代数 若 A 是变换 T 在标准基下的矩阵,则 B−1 out ABin是在新基下的矩阵。 (1) 标准基向量为单位矩阵的列:Bin = In×n 与 Bout = Im×m。现在
2022-07-10 16:07:29 227KB 线性代数 数学
1
Welcome to the fifth edition of Elasticsearch Cookbook targeting Elasticsearch 8.x. It's a long journey (about 12 years) that I have been on with both Elasticsearch and readers of my books. Every version of Elasticsearch brings breaking changes and new functionalities, and the evolution of already present components is a continuous cycle of product and marketing evolution.
2022-06-27 13:04:43 7MB Elasticsearch Elasticsearch.8.
1
Beginning iPhone Development with Swift 5: Exploring the iOS SDK, 5th Edition (True PDF)
2022-06-24 20:56:43 22.21MB iOS Swift
1
Beginning iPhone Development with Swift 5: Exploring the iOS SDK, 5th Edition (ePUB)
2022-06-24 20:56:07 22.23MB iOS Swift
1
中文翻译Introduction to Linear Algebra, 5th Edition 8.2节 1 假设我们知道了关于基底 v 1 , . . . , v n :的 T (v 1 ), . . . , T (v n ),我们也就知道了所有 T (v)。 2“T 对应矩阵”的 j 列源于将 T 运用到输入基向量 v j 。 3 按输出基底 w 写作 T (v j ) = a 1j w 1 + · · · + a mj w m 。这些 a ij 成为列 j。 4 若输入与输出基 = I n×n 与 I m×m 的列,则 T (x) = Ax 对应的矩阵是 A。 5 当基变为 v 与 w 时,相同 T 对应的矩阵由 A 变为 W −1 AV 。 6 最佳基底:V = W = 特征向量与 V, W = 奇异向量,得出对角 Λ 与 Σ。 下一页为每个线性变换 T 指派了一个矩阵。对于普通列向量,输入 v 在 V = R n 中且输出 T (v) 在 W = R m 中。这个变换对应的矩阵 A 将会是 m × n 的。我们在 V 及 W 中选择的基将决定 A。 R n 及 R m 的标准
2022-06-16 09:09:36 246KB 线性代数 数学
1
中文翻译Introduction to Linear Algebra, 5th Edition 8.1节 仅交流学习 1 线性变换 T 将向量 v 变成向量 T (v)。线性要求 T (cv + dw) = cT (v) + dT (w) 注意 T (0) = 0, 所以 T (v) = v + u 0 非线性。 2 输入向量 v 与输出 T (v) 可以在 R n 或矩阵空间或函数空间中。 3 若 A 是 m × n 的,则 T (x) = Ax 是从输入空间 R n 到输出空间 R m 的线性变换。 ∫ x df + 4 导数 T (f ) = 是线性的。积分 T (f ) = f (t)dt 是它的伪逆。 dx 0 5 两个线性变换的乘积 ST 仍然是线性的: (ST )(v) = S(T (v))。 当一个矩阵 A 乘以一个向量 v 时,它将向量 v 变换为另一个向量 Av。输入 v,输出 T (v) = Av。 变换 T 遵循着与函数相同的思想。输入一个数 x,输出 f (x)。对某一个向量 v 或某一个数 x,我们乘 上矩阵或求函数值。更深层次的目标是一次考虑所有向量 v。
2022-06-03 20:05:40 959KB 综合资源 线性代数
1
经典通信教材 数字通信 第五版 英文原版 Proakis 通信入门
2022-05-28 21:11:22 25.18MB Digital Communicatio
1
中文翻译Introduction to Linear Algebra, 5th Edition 7.4节,仅用于交流学习! 1 一个典型的方阵 A = U ΣV T 分解为 (旋转)(拉伸)(旋转)。 2 几何展示了 A 如何将圆上的向量变换为椭圆上的向量 Ax。 3 A 的范数是 ∥A∥ = σ 1 。这个奇异值是它的最大增长因子 ∥Ax∥ / ∥x∥。 4 极分解将 A 分解成 QS:旋转 Q = U V T 乘上拉伸 S = V ΣV T 。 5 伪逆 A + = V Σ + U T 使列空间中的 Ax 还原到行空间中的 x。 SVD 将一个矩阵分成三步:(正交矩阵) × (对角矩阵) × (正交矩阵)。普通的言语就能表达其背后的几 何:(旋转) × (拉伸) × (旋转)。U ΣV T x 从旋转到 V T x 开始。其次 Σ 将向量拉伸到 ΣV T x,然后 U 将其旋转至 Ax = U ΣV T x。以下是其图像。
2022-05-24 14:07:48 677KB 综合资源 线性代数
1
中文翻译Introduction to Linear Algebra, 5th Edition 7.3节,仅用于交流学习! 本节阐述 SVD 在统计学与数据分析中的一个主要应用。我们的示例将来源于人类遗传、面部识别 及金融。问题在于理解一个大的数据矩阵(= 测量值) 。对 n 个样本的每一个,我们测量 m 个变量。数 据矩阵 A 0 具有 n 列和 m 行。 通过图像,A 0 的列是 R m 里的 n 个点。在我们减去各行的平均值后得到 A,其 n 个点通常沿着 一条直线或接近一个平面(或 R m 的其它低维子空间)聚集。这条直线或平面或子空间是什么? 允许我从一个图片而不是数字开始。对于如年龄和身高的 m = 2 个变量,其 n 个点位于 R 2 平面。 减去平均年龄和平均身高来中心化数据。假设 n 个中心化后的点沿某条直线聚集,那线性代数如何找 出那条直线呢?
2022-05-18 19:08:04 1.38MB 综合资源 线性代数
1