**ETL(提取、转换、加载)是数据处理的核心流程,尤其在大数据分析和商业智能领域中至关重要。在这个“ETL-Project: 来自Kaggle的Art History数据的ETL项目”中,我们将深入探讨如何利用Jupyter Notebook工具处理艺术历史数据,从而揭示隐藏在海量艺术作品背后的洞察力。** **一、提取(Extract)** 1. **数据源获取**:我们需要从Kaggle下载Art History数据集。Kaggle是一个知名的竞赛平台,同时也提供了丰富的公开数据集供研究和学习。 2. **数据预处理**:在Jupyter Notebook中,我们可以导入必要的Python库,如`pandas`和`numpy`,以读取、查看和理解数据的基本结构。这包括检查数据的缺失值、重复项以及数据类型。 3. **数据清洗**:在提取过程中,我们可能需要处理脏数据,例如缺失值的填充、异常值的处理、非结构化数据的标准化等。 **二、转换(Transform)** 1. **数据转换**:根据业务需求,可能需要将原始数据转换为更适合分析的格式。例如,日期字段可能需要解析成日期时间对象,文本数据可能需要进行词干提取或词袋模型转换。 2. **特征工程**:创建新的特征以增强模型的解释性和预测能力,比如计算年龄分布的中位数或计算作品的平均尺寸。 3. **数据规约**:对于大型数据集,通过降维技术(如主成分分析PCA)减少数据的复杂性,同时保持足够的信息。 4. **数据归一化与标准化**:确保不同特征在同一尺度上,提高模型的稳定性和效率。 **三、加载(Load)** 1. **数据库存储**:将处理后的数据加载到关系型数据库(如MySQL、PostgreSQL)或非关系型数据库(如MongoDB)中,以便后续的查询和分析。 2. **数据仓库**:如果项目涉及商业智能,数据可能会被加载到数据仓库(如Redshift、BigQuery),以便进行快速的OLAP(在线分析处理)操作。 3. **云存储**:为了方便协作和备份,可以将数据存储在云服务(如Amazon S3、Google Cloud Storage)上。 **四、Jupyter Notebook的运用** 1. **交互式环境**:Jupyter Notebook提供了一个可视化的编程环境,使得数据探索、代码编写和结果展示得以无缝集成。 2. **Markdown支持**:在Notebook中,可以使用Markdown语法编写文档,清晰地呈现项目步骤和分析思路。 3. **版本控制**:Notebook文件(.ipynb)可以通过Git进行版本控制,便于团队协作和历史追踪。 4. **可重复性**:Jupyter Notebook的代码块可以反复运行,确保结果的可复现性。 5. **数据可视化**:集成如Matplotlib、Seaborn和Plotly等库,用于创建美观且直观的数据图表。 在ETL过程中,数据质量的保障至关重要。通过这个Art History数据集的ETL项目,我们可以学习到如何在实际场景中应用ETL流程,为后续的数据分析和建模打下坚实基础。无论是对艺术历史的研究,还是对其他领域的数据分析,ETL都是一个必不可少的前期准备阶段。
2026-02-15 07:02:29 5.87MB JupyterNotebook
1
kaggle机器学习竞赛泰坦尼克号船员数据集,原网址https://www.kaggle.com/c/titanic
2026-01-23 10:13:53 83KB 人工智能 机器学习 kaggle 数据集
1
在数据分析和机器学习领域,房价预测是一个经典且广泛研究的问题。kaggle作为全球性的数据科学竞赛平台,经常举办各类数据分析比赛,其中房价预测就是其中一个热门的竞赛主题。线性回归是解决这类问题的基础算法之一,其核心思想是通过建立一个或多个自变量与因变量之间的线性关系模型,来预测或评估结果。在房价预测中,线性回归模型可以根据房屋的各种特征,如面积、位置、房间数等,来预测房屋的售价。 在运用线性回归进行kaggle房价预测时,首先需要对数据进行预处理,包括数据清洗、缺失值处理、异常值处理以及特征选择等。数据清洗主要是去除重复记录、纠正错误数据、处理缺失值。缺失值可以通过平均值填充、众数填充或者使用机器学习方法如K-最近邻(K-NN)插补等方法处理。异常值的处理则需要根据实际情况进行,如剔除或修正数据,以保证数据的准确性。 特征选择是为了挑选出对预测结果影响较大的特征,提高模型的准确性和效率。这一步骤可以通过统计分析、相关性分析等方法来完成。在线性回归模型中,特征的重要性可以通过回归系数来体现。高相关性的特征对于模型的解释能力有显著作用。 模型构建是房价预测的核心环节,线性回归模型可以简单表示为y = ax + b的形式,其中y表示房价,x表示影响房价的各种特征向量,a表示特征对应的权重系数,b表示截距项。在实际应用中,可能需要构建多元线性回归模型,即多个自变量与因变量之间的关系,形式为y = a1x1 + a2x2 + ... + anxn + b。在构建模型时,需要注意变量的尺度统一,避免量纲不同导致的计算误差。 模型评估是通过一些统计指标来衡量模型的好坏。常用的评估指标包括决定系数(R²)、均方误差(MSE)、均方根误差(RMSE)等。R²值越接近1,表示模型解释变异的能力越强;MSE和RMSE则用于衡量模型预测误差的大小,值越小表示模型预测越准确。 在kaggle竞赛中,除了上述提到的基本方法之外,还有更多的技巧和策略可以应用,例如模型的集成、参数调优、交叉验证等。模型集成是指将多个模型的预测结果进行综合,以获得比单一模型更好的预测效果。参数调优是通过不同的参数设置来尝试找到最适合当前数据集的模型参数。交叉验证是通过将数据集分成多个子集,训练模型时轮流使用这些子集作为验证集和训练集,以此来评估模型在未知数据上的表现。 在完成模型的训练和评估后,需要将模型提交到kaggle平台,与其他参赛者的模型进行竞争,根据模型在未知数据集上的表现来确定最终的排名。 运用线性回归进行kaggle房价预测涉及到数据预处理、特征选择、模型构建、模型评估以及模型优化等多个步骤。每一步都需要细致的操作和精心的设计,才能在竞争激烈的kaggle比赛中脱颖而出。
2026-01-11 14:42:01 60KB
1
本文回顾了作者参与的Kaggle竞赛IEEE-CIS Fraud Detection的经历,分享了从数据探索、特征工程到模型选择和调参的全过程。竞赛目标是识别信用卡交易中的欺诈行为,使用LightGBM等模型进行预测,并通过AUC指标评估模型性能。文章详细介绍了数据预处理、特征编码、缺失值处理等关键步骤,以及如何通过模型融合提升预测效果。作者最终获得铜牌(Top9%),并总结了竞赛中的经验教训,包括时间管理和特征工程的重要性。 Kaggle作为全球著名的大数据竞赛平台,吸引了来自全球的数据科学家参与各类数据分析竞赛。IEEE-CIS欺诈检测竞赛便是其中一项备受关注的活动。本文作者通过亲身参与这一竞赛,为读者们详细展示了从数据探索、特征工程到模型选择和调参的整个竞赛流程。 竞赛的核心目标是利用数据挖掘技术识别信用卡交易中的欺诈行为,保护用户的财产安全。作者在文章中首先对竞赛提供的数据集进行了详尽的探索性数据分析,通过可视化手段对数据特征有了初步的理解,这一步对于后续的数据处理和特征工程至关重要。 特征工程是机器学习竞赛中的一个关键步骤,它直接影响到模型的性能。作者在文章中详细介绍了特征编码、缺失值处理等关键步骤。例如,在特征编码方面,作者利用一种有效的编码方法将类别变量转换为模型可用的数值形式;在处理缺失值时,作者根据具体情况采用了填充缺失值、删除含有缺失值的记录等策略。这些处理方法的选择与实施都基于对数据深入的理解。 在模型选择上,作者采用了LightGBM等先进的机器学习算法。LightGBM是一个基于梯度提升框架的高效、分布式、高性能的梯度提升(Gradient Boosting)机器学习库,特别适合处理大规模数据集。作者还展示了如何对模型参数进行调整,以提高模型在训练集和测试集上的表现。 为了进一步提升预测效果,作者还探讨了模型融合技术,即结合多个模型的预测结果来提高整体的预测准确性。通过这种方式,即使各个模型的预测能力参差不齐,也能通过巧妙的融合策略得到比单个模型更好的效果。 在竞赛过程中,作者还总结了一些宝贵的经验教训,如时间管理在竞赛中的重要性,以及特征工程在整个竞赛流程中的决定性作用。作者最终在竞赛中取得了优秀的成绩,获得了铜牌(Top9%),这不仅证明了作者的能力,也为读者提供了宝贵的学习资源。 从这篇文章中,我们不仅能够学习到关于信用卡欺诈检测的专业知识,还能了解在面对大规模数据集时的处理技巧,以及如何选择和调优机器学习模型。作者详细地介绍了竞赛中所采用的技术和策略,对于有志于参与此类竞赛的读者来说,是一份不可多得的学习指南。 作者的竞赛经历和分享不仅在技术上提供了支持,更重要的是传递了一种探索精神和对数据科学的热爱。通过解决实际问题的过程,我们可以不断地学习和提高自己的技术能力,这也是Kaggle这类竞赛平台存在的意义之一。 文章强调了在大数据处理和机器学习领域,理论知识与实战经验同样重要。只有将理论应用于实践中,才能更好地理解数据处理的复杂性,并从中提炼出提升模型性能的方法。同时,文章也鼓励读者积极地参与到类似的竞赛中,通过实际操作来提升自己的技能,为未来在数据科学领域的发展奠定坚实的基础。 作者还指出了在数据科学实践中的一些常见问题,并提出了相应的解决方案,这对于刚开始接触数据科学的读者尤为重要。通过这些实际案例的学习,读者可以更加清晰地认识到数据科学项目的流程和细节,避免在自己未来的项目中犯同样的错误。
2026-01-05 09:27:09 6KB 软件开发 源码
1
在本项目中,我们面临的是一个典型的预测分析任务,源自Kaggle竞赛——"房屋租赁信息查询次数预测"。这个竞赛的目标是利用给定的房屋租赁数据,预测每条租赁信息将被用户查询的次数。这有助于房屋业主和代理人更好地了解市场需求,优化房源展示,预防欺诈行为,并提高信息质量。 数据集名为"Two Sigma Connect_Rental Listing Inquiries",我们可以推测其中包含了一系列关于房屋租赁的详细记录。以下是一些可能包含的关键特征和相关知识点: 1. **创建日期**:这是预测查询次数的一个重要因素,因为不同时间段的市场需求可能会有很大差异。例如,节假日、学年开学期间或城市活动(如音乐节、会议)可能会导致查询量增加。 2. **地理位置**:房屋所在的地理位置通常对查询次数有重大影响。靠近市中心、交通便利、学区房等都会吸引更多的潜在租户。 3. **房屋特征**:包括房屋类型(公寓、独栋、联排别墅等)、卧室数量、浴室数量、面积、设施(如健身房、游泳池)等。这些因素直接影响租户的选择,从而影响查询次数。 4. **租金**:租金的高低会直接影响房屋的吸引力。过高或过低的租金都可能导致查询次数的变化。 5. **房源描述**:房源的描述可能包含有关房屋状况、装修风格等信息,这些细节可能影响租户的决定。 6. **图片数量**:高质量的图片可以增加房源的吸引力,通常情况下,图片越多,租户查看的可能性越大。 7. **历史查询数据**:如果数据集中包含了历史查询次数,这将是一个强大的预测指标,因为过去的查询趋势可能会影响未来的查询行为。 8. **欺诈控制**:通过对查询次数的预测,可以识别异常高或低的查询活动,这可能是欺诈行为的信号。 9. **信息质量监测**:预测模型可以帮助确定哪些信息可能需要更新或改进,以提高查询率。 10. **机器学习算法**:解决这个问题可能需要使用各种机器学习方法,如线性回归、决策树、随机森林、支持向量机、神经网络等。特征工程和模型调参也是关键步骤。 为了构建有效的预测模型,我们需要进行数据预处理(如缺失值处理、异常值检测、数据标准化等),特征工程(创建新特征、提取有用信息),选择合适的模型,以及模型验证和优化。通过交叉验证和AUC-ROC等评价指标来评估模型的性能。 这个项目涉及到数据分析、数据挖掘、机器学习等多个领域,为理解房地产市场动态和优化租房服务提供了宝贵的实践机会。通过深入研究和建模,我们可以为房屋租赁市场提供更精准的预测,从而提升业务效率和客户满意度。
2026-01-04 15:32:08 56.14MB
1
在当前人工智能领域,深度学习特别是图像识别技术发展迅速,已经渗透到了日常生活的方方面面。其中,Kaggle作为一个著名的大数据竞赛平台,吸引了全球的数据科学家参与解决各种复杂的数据问题,其中涉及图像识别的竞赛就包括了狗的品种识别问题。ImageNet Dogs是一个基于ImageNet大规模视觉识别挑战赛(ILSVRC)中的一个子集,专门针对狗的品种分类进行优化和竞赛。PyTorch是近年来十分流行的深度学习框架,以其动态计算图和灵活性著称,非常适合用于进行深度学习研究和开发。 本实战项目的核心内容是利用PyTorch框架来训练深度神经网络模型,以识别不同品种的狗。这一过程中,参赛者将会学习到深度学习的基础知识,包括神经网络架构设计、数据预处理、模型训练、超参数优化以及评估方法等。通过对ImageNet Dogs数据集的分析和处理,可以了解到如何在现实问题中应用深度学习技术来达到较高的识别准确率。 比赛的具体流程一般包括了数据的下载与分析、模型的设计与实现、训练与测试以及最终的模型评估和提交。数据下载后,参赛者需要进行必要的预处理步骤,包括图像的缩放、归一化等操作,以确保数据的输入符合模型的要求。接着,需要设计合适的神经网络架构,常用的网络包括AlexNet、VGG、ResNet等,这些网络的结构已经在ImageNet竞赛中证明了其有效性。在模型设计阶段,参赛者还可以根据具体问题进行创新,比如尝试不同的网络结构或者引入迁移学习等策略。 模型的训练是深度学习中最为关键的一个步骤,需要对学习率、批次大小、优化算法等超参数进行细致的调整,以达到最优的训练效果。在这个过程中,过拟合和欠拟合是需要特别注意的问题。过拟合意味着模型对训练数据的泛化能力不足,而欠拟合则意味着模型没有捕捉到数据的潜在规律。为了解决这些问题,可能需要采用数据增强、正则化技术或者早停(early stopping)等策略。 在模型训练完成后,就需要在独立的测试集上进行评估,以确定模型在实际应用中的表现。评估标准通常是准确率,此外,根据具体问题可能还需要考虑其他指标,如精确率、召回率和F1分数等。最终,参赛者需要将模型预测结果按照指定格式提交给Kaggle平台,平台会根据测试集的真实标签给出最终的排名。 通过参加此类竞赛,不仅可以提升自身的编程和机器学习能力,还能够学习到如何处理实际问题,这些宝贵的经验对于未来从事相关工作是非常有帮助的。此外,Kaggle竞赛也提供了一个很好的平台,让全世界的数据科学家可以相互交流和学习,共同推动人工智能技术的发展。 此外,从代码学习深度学习是一种非常有效的方法。通过阅读和理解高质量的代码,可以直观地了解到深度学习模型的设计思想和实现细节。在这个过程中,不仅仅是学会了一个具体的解决方案,更重要的是学会了解决问题的思路和方法,这对于未来解决更加复杂的问题将有着深远的影响。 通过实战Kaggle比赛:狗的品种识别(ImageNet Dogs)PyTorch版项目,参赛者不仅能够学习到深度学习和图像识别的相关知识,还能够获得宝贵的实战经验,并且能够通过与全球数据科学社区的交流提升自己的技术和视野。
2025-12-31 21:00:39 180.35MB
1
人工智能技术是当今科技发展的重要驱动力之一,它通过模拟人类智能过程,使得计算机能够执行一些通常需要人类智慧才能完成的任务。在众多应用领域中,人工智能模型在图像识别领域的表现尤为突出,尤其是深度学习技术的出现,进一步推动了图像识别技术的发展。VGG16是深度学习领域的一个经典模型,它在图像分类任务上取得了卓越的性能。而kaggle作为一个提供数据竞赛的平台,为研究人员和爱好者提供了一个分享资源、交流思想和解决问题的场所。 在本次介绍的内容中,我们将重点关注如何使用kaggle平台提供的资源,手动搭建VGG16模型,并通过宝可梦图片数据集来实现五分类任务。宝可梦图片数据集包含了大量的宝可梦图片,每张图片都被标记了相应的类别。通过使用这个数据集,我们不仅能够训练模型进行有效的图片识别,还能够对模型的性能进行评估。在这个过程中,我们将会采用预训练的方法,即首先加载VGG16的预训练参数,然后通过在宝可梦数据集上进行再次训练,使得模型能够更好地适应新的分类任务。 构建VGG16模型的过程可以分为几个关键步骤。需要准备好训练和测试数据集。数据集通常会被分为多个文件夹,每个文件夹包含一种宝可梦类别的图片。需要对数据进行预处理,包括调整图片大小、归一化等步骤,以保证数据符合模型训练的输入要求。接下来,构建VGG16网络结构,包括卷积层、池化层、全连接层以及softmax输出层。在搭建好网络结构之后,加载预训练的权重参数,并对模型进行微调,使其适应新的分类任务。 微调过程中,通常会调整最后几层全连接层的权重,因为这些层负责将高层次的特征映射到具体的分类结果上。通过在宝可梦数据集上进行训练,模型会逐步优化这些层的权重参数,从而提高对宝可梦类别的识别准确性。训练完成后,我们可以使用测试数据集对模型的性能进行评估。通过比较模型输出的分类结果和实际的标签,可以计算出模型的准确率、混淆矩阵等性能指标。 在实际应用中,VGG16模型不仅限于宝可梦图片的分类,它还可以被应用于其他图像分类任务,如识别不同种类的植物、动物、交通工具等。此外,VGG16模型的设计思想和技术方法同样适用于图像分割、目标检测等其他视觉任务。因此,学习如何使用VGG16模型对宝可梦图片进行分类是一个很好的入门级案例,有助于掌握更高级的图像识别技术。 随着技术的不断进步,人工智能模型正变得越来越复杂和强大。通过不断研究和实践,我们能够更好地理解模型的工作原理,并将其应用到更多的领域和任务中去。对于希望深入学习人工智能领域的朋友而言,掌握如何手动搭建和训练模型是基本功,而kaggle等竞赛平台则提供了丰富的资源和实践机会,是学习和成长的宝库。
2025-12-23 22:41:28 330.77MB 人工智能
1
在使用Pytorch框架应对Kaggle卫星图像分类比赛的过程中,参赛者通常会通过深度学习技术来提高模型对卫星图像的识别和分类能力。比赛的目标是通过训练一个有效的分类器来准确地识别遥感图像中的地物类型。Pytorch作为一个广泛使用的深度学习框架,因其灵活的设计和高效的计算性能,成为处理此类任务的首选工具。 在Kaggle的卫星图像分类赛题中,参赛者需要处理大量的遥感影像数据,这些数据通常包括来自不同时间、不同地点的卫星拍摄的高分辨率图像。每个图像样本的大小可能非常大,包含的像素信息极为丰富,因此如何高效地提取特征,并在此基础上进行分类,是参赛者需要解决的关键问题。 为了适应这一挑战,参赛者需要对数据进行预处理,比如图像裁剪、归一化、数据增强等,来提升模型的泛化能力。模型的构建需要考虑到数据的特性,通常会选择适合处理图像数据的卷积神经网络(CNN),因为它们在提取空间特征方面表现出色。在选择模型结构时,参赛者可以考虑经典的CNN架构,如AlexNet、VGGNet、ResNet等,并在此基础上进行改进,以适应遥感图像分类的特定需求。 深度学习模型的训练过程中,参赛者需要关注模型的损失函数和优化算法。通过使用交叉熵损失函数和先进的优化算法如Adam或RMSprop,可以提升模型训练的速度和稳定性。另外,为了避免过拟合现象,参赛者可能会采用正则化技术,比如权重衰减、Dropout等,并在训练过程中监控验证集上的性能,以确保模型的泛化能力。 在Pycharm集成开发环境中,参赛者可以利用其提供的强大调试工具来解决代码中出现的问题,并优化代码的执行效率。Pycharm支持代码的快速编辑、运行、调试和性能分析,能够显著提升开发效率和代码质量。比赛中的实时调试和结果监控对于发现和解决问题至关重要。 整体而言,卫星图像分类任务涉及到的技术细节繁多,从数据预处理到模型训练,再到性能优化,每一步都需要参赛者具备深厚的深度学习和机器学习知识。通过在Pytorch框架下使用Pycharm进行开发,参赛者可以构建出性能优异的深度学习模型,并在Kaggle的卫星图像分类比赛中取得优异成绩。
2025-12-04 10:26:03 118.51MB 深度学习 机器学习 卫星图像
1
kaggle气胸分割 来自[ods.ai] Dies Irae代码[ods.ai] Dies Irae SIIM-ACR气胸分割挑战赛的[ods.ai] Dies Irae团队。 解决方案的特点: 损失:公元前+骰子。 没有称重或日志。 只是损失的总和。 批次2。 Unet和Linknet的混合物,带有来自se-resnext50,se-resnext101,SENet154的主干 解码器中的ConvTranspose 最终卷积2x2 完全没有图像标准化 仅抽取包含非零样本的批次的抽样 排程:使用CosineAnnealing的Adam的40个历元,使用CyclicLR进行SGD的15个周期,使用CosineAnnealing的Adam的16个历元 第一阶段的日志: 来自第二阶段的日志:
2025-11-15 22:53:59 3.4MB Python
1
在当今科技的快速发展中,深度学习已经在多个领域展现了其强大的能力,尤其在自动驾驶技术领域,深度学习的应用更是至关重要。自动驾驶技术的核心之一是能够准确识别和理解驾驶环境,这包括了对真实场景的判断以及识别出潜在的假场景,即那些可能会迷惑自动驾驶系统、导致误判的情况。为了训练和测试自动驾驶系统中的图像识别模型,Kaggle——一个全球性的数据科学竞赛平台——提供了一个名为“自动驾驶的假场景分类”的数据集,该数据集专门用于深度学习模型的训练与验证。 该数据集包含了大量的图像文件,这些图像被分为训练数据和测试数据。训练数据集包含图像及其相应的标签,而测试数据集则只包含图像,不提供标签,目的是让使用者通过模型预测来判断测试图像中哪些是假场景。这个数据集对于图像分类任务的新手来说是一个极佳的练习机会,因为它不仅提供了一个接近实战的应用场景,同时也让初学者能够在掌握基本知识后立即应用到实践中。 在使用这个数据集进行深度学习实践时,通常会采取以下步骤: 1. 数据预处理:由于训练深度学习模型需要大量的数据,且数据通常需要被调整到适合模型输入的格式和大小,因此数据预处理是必须的步骤。这可能包括对图像进行大小调整、归一化处理以及数据增强等操作。 2. 模型选择:根据问题的复杂性和预期的准确度,选择合适的深度学习模型。对于图像分类问题,卷积神经网络(CNN)是常用的模型。目前存在许多预训练好的CNN模型,如ResNet、Inception和VGG等,它们可以作为特征提取器或直接用于微调。 3. 模型训练:使用训练数据集对模型进行训练。在这个过程中,模型参数将通过反向传播算法进行调整,以最小化输出和真实标签之间的差异。 4. 模型评估:在训练模型后,使用验证集评估模型性能,检验模型是否具有良好的泛化能力。在此过程中,还可以通过调整超参数,如学习率、批次大小等,来进一步优化模型。 5. 模型测试:使用测试数据集对训练好的模型进行最终测试,评估模型在未见数据上的表现。这一步骤对于了解模型的实际应用能力至关重要。 6. 结果提交:在Kaggle竞赛中,参与者需要将模型的预测结果提交到平台上,以与其他参赛者进行排名和比较。 需要注意的是,自动驾驶假场景分类不仅仅是对图像内容进行判断,还涉及到对场景语义的理解。深度学习模型需要能够识别出场景中的异常情况,例如虚假的交通标志、奇怪的车辆行为等。因此,这个数据集对深度学习的应用提出了较高的要求,也是初学者从理论学习过渡到实践操作的一次挑战。 此外,深度学习在自动驾驶领域的应用不仅仅局限于场景分类,它还涉及到目标检测、语义分割、行为预测等多个方面。随着技术的不断进步,深度学习在自动驾驶领域的角色将会越来越重要,也将不断推动自动驾驶技术向更高的安全性和智能化水平发展。 Kaggle提供的“自动驾驶的假场景分类”数据集是深度学习和自动驾驶领域交叉应用的一个缩影,它不仅帮助新手学习和掌握深度学习的技巧,同时也为自动驾驶技术的研究和应用提供了宝贵的数据资源。通过这个数据集的练习,学习者可以更加深入地理解深度学习在实际问题中的应用,并为未来可能参与的自动驾驶项目打下坚实的基础。
2025-10-24 00:31:15 141.38MB 深度学习 自动驾驶
1