中文翻译Introduction to Linear Algebra, 5th Edition 1.3节 另一个视角改变至关重要。到目前为止,数 x 1 , x 2 , x 3 已知。右手边的 b 未知。我们通过将 A 与 x 相 乘来求出差分向量。现在我们设想 b 为已知然后我们找 x。 旧问题:计算线性组合 x 1 u + x 2 v + x 3 w 来求 b。 新问题:u, v, w 的哪种组合产生一个特定向量 b? 这是逆问题——求能得出期望输出 b = Ax 的输入 x。你以前见过这个问题,它作为一个关于 x 1 , x 2 , x 3 的线性方程组。方程右手边是 b 1 , b 2 , b 3 。我现在要解方程组 Ax = b 来求 x 1 , x 2 , x 3
2022-08-02 09:07:52 126KB 数学 线性代数
1
中文翻译Introduction to Linear Algebra, 5th Edition 1.2节 第一节放弃了讲向量相乘。现在我们继续来定义 v 与 w 的“点积” 。这个乘法包含单独的积 v 1 w 1 和 v 2 w 2 ,但它并不止于此。这两个数加起来得出一个数 v · w。 以下是几何部分 (向量长度及它们夹角的余弦)。 v = (v 1 , v 2 ) 与 w = (w 1 , w 2 ) 的点积或者说内积是数 v · w: v · w = v 1 w 1 + v 2 w 2 . (1) 例 1 向量 v = (4, 2) 与 w = (−1, 2) 点积为零: [ ] [ ] 点积为 0 4 −1 · = −4 + 4 = 0。 垂直向量 2 2 在数学中,0 总是一个特别的数。对于点积,它意味着这两个向量是垂直的。它们的夹角是 90 ◦ 。当我 们在图 1.1 中画出它们时,我们见到了一个矩形(不仅仅是任一平行四边形)。垂直向量最清晰的例子 是沿 x 轴的 i = (1, 0) 与沿 y 轴向上的 j = (0, 1)。再一次地,点积为 i · j = 0 + 0
2022-07-31 20:05:43 984KB 线性代数 数学
1
中文翻译Introduction to Linear Algebra, 5th Edition 1.1节 线性组合在这个学科中非常重要!有时我们想要一个特定的组合,具体选择 c = 2 和 d = 1 来产 生 cv + dw = (4, 5)。其它时候我们想要 v 与 u 的所有组合(来自所有的 c 与 d)。 向量 cv 沿一条直线放置。当 w 不在那条直线上时,组合 cv + dw 充满整个二维平面。从四维空 间中的 4 个向量 u, v, w, z 开始,它们的组合 cu + dv + ew + fz 可能充满整个空间——但并不总是 这样。向量和它们的组合可能位于一个平面上或一条直线上。 第 1 章解释了这些中心思想,一切都建立在这些思想上。我们从能够合理绘制的二维向量与三维 向量开始。然后我们移入更高的维度。线性代数真正令人印象深刻的特点是如何流畅地将这一步引入 n 维空间。即使不可能画出十维的向量,你脑海中的画面也会保持是正确的。 这是本书将要通往的地方(进入 n 维空间)。第一步是 1.1 节和 1.2 节的运算。然后是在 1.3 节概 述了 3 个基本思想。
2022-07-14 16:08:55 859KB 线性代数 数学
1
中文翻译Introduction to Linear Algebra, 5th Edition 8.3节 1 使用新输入基 Bin 与新输出基 Bout,每个矩阵 A 变成 B −1 out ABin。 2 Bin = Bout =“A 的广义特征向量”得出若尔当型 J = B−1AB。 3 傅里叶矩阵 F = Bin = Bout 将每个循环矩阵对角化(利用 FFT)。 4 正弦与余弦,勒让德与切比雪夫多项式:这些都是函数空间很好的基。 这是本书重要的一节。我担心大多数读者会跳过他——或读不到这里。前几章通过解释基底的概念做 了铺垫。第 6 章介绍了特征向量 x 以及第 7 章找出了奇异向量 v 与 u。这两个是赢家,但其它许多选 择是很有价值的。 首先是 8.2 节的纯代数,然后是优良基。输入基向量将是 Bin 的列。输出基向量将是 Bout 的列。 Bin 和 Bout 总是可逆的——基向量均无关! 纯代数 若 A 是变换 T 在标准基下的矩阵,则 B−1 out ABin是在新基下的矩阵。 (1) 标准基向量为单位矩阵的列:Bin = In×n 与 Bout = Im×m。现在
2022-07-10 16:07:29 227KB 线性代数 数学
1
Welcome to the fifth edition of Elasticsearch Cookbook targeting Elasticsearch 8.x. It's a long journey (about 12 years) that I have been on with both Elasticsearch and readers of my books. Every version of Elasticsearch brings breaking changes and new functionalities, and the evolution of already present components is a continuous cycle of product and marketing evolution.
2022-06-27 13:04:43 7MB Elasticsearch Elasticsearch.8.
1
Beginning iPhone Development with Swift 5: Exploring the iOS SDK, 5th Edition (True PDF)
2022-06-24 20:56:43 22.21MB iOS Swift
1
Beginning iPhone Development with Swift 5: Exploring the iOS SDK, 5th Edition (ePUB)
2022-06-24 20:56:07 22.23MB iOS Swift
1
中文翻译Introduction to Linear Algebra, 5th Edition 8.2节 1 假设我们知道了关于基底 v 1 , . . . , v n :的 T (v 1 ), . . . , T (v n ),我们也就知道了所有 T (v)。 2“T 对应矩阵”的 j 列源于将 T 运用到输入基向量 v j 。 3 按输出基底 w 写作 T (v j ) = a 1j w 1 + · · · + a mj w m 。这些 a ij 成为列 j。 4 若输入与输出基 = I n×n 与 I m×m 的列,则 T (x) = Ax 对应的矩阵是 A。 5 当基变为 v 与 w 时,相同 T 对应的矩阵由 A 变为 W −1 AV 。 6 最佳基底:V = W = 特征向量与 V, W = 奇异向量,得出对角 Λ 与 Σ。 下一页为每个线性变换 T 指派了一个矩阵。对于普通列向量,输入 v 在 V = R n 中且输出 T (v) 在 W = R m 中。这个变换对应的矩阵 A 将会是 m × n 的。我们在 V 及 W 中选择的基将决定 A。 R n 及 R m 的标准
2022-06-16 09:09:36 246KB 线性代数 数学
1
中文翻译Introduction to Linear Algebra, 5th Edition 8.1节 仅交流学习 1 线性变换 T 将向量 v 变成向量 T (v)。线性要求 T (cv + dw) = cT (v) + dT (w) 注意 T (0) = 0, 所以 T (v) = v + u 0 非线性。 2 输入向量 v 与输出 T (v) 可以在 R n 或矩阵空间或函数空间中。 3 若 A 是 m × n 的,则 T (x) = Ax 是从输入空间 R n 到输出空间 R m 的线性变换。 ∫ x df + 4 导数 T (f ) = 是线性的。积分 T (f ) = f (t)dt 是它的伪逆。 dx 0 5 两个线性变换的乘积 ST 仍然是线性的: (ST )(v) = S(T (v))。 当一个矩阵 A 乘以一个向量 v 时,它将向量 v 变换为另一个向量 Av。输入 v,输出 T (v) = Av。 变换 T 遵循着与函数相同的思想。输入一个数 x,输出 f (x)。对某一个向量 v 或某一个数 x,我们乘 上矩阵或求函数值。更深层次的目标是一次考虑所有向量 v。
2022-06-03 20:05:40 959KB 综合资源 线性代数
1
经典通信教材 数字通信 第五版 英文原版 Proakis 通信入门
2022-05-28 21:11:22 25.18MB Digital Communicatio
1