Docker修改数据目录及相关配置
2022-02-23 13:01:14 306KB Docker Docker修改数据目录 Docker配置
Docker等容器技术显着简化了软件的依赖管理和可移植性。在本系列文章中,我们探讨了Docker在机器学习(ML)场景中的使用。 ​
2022-02-23 12:06:02 4.8MB docker ai
1
Docker等容器技术显著简化了软件的依赖管理和可移植性。在本系列文章中,我们探讨了Docker在机器学习(ML)场景中的使用。 本系列假设您熟悉ML、容器化,尤其是Docker。欢迎您下载项目代码。 在上一篇文章中,我们使用常规的Intel/AMD CPU创建了用于实验、训练和推理的基本容器。在本节中,我们将创建一个容器来处理带有Raspberry Pi的ARM处理器上的推理。 ​
2022-02-23 12:06:01 4.8MB docker ai
1
Docker等容器技术显著简化了软件的依赖管理和可移植性。在本系列文章中,我们探讨了Docker在机器学习(ML)场景中的使用。 本系列假设您熟悉ML、容器化,尤其是Docker。欢迎您下载项目代码。 在上一篇文章中,我们创建了用于实验、训练和推理的基本容器。为此,我们使用了Intel/AMD和ARM CPU。在本节中,我们将利用Nvidia GPU的强大功能来减少训练和推理时间。 ​
2022-02-23 12:06:01 3.76MB docker ai
1
Docker 等容器技术可简化依赖项管理并提高软件的可移植性。在本系列文章中,我们探讨了Docker在机器学习(ML)场景中的使用。 本系列假设您熟悉AI/ML、容器化,尤其是Docker。 在上一篇文章中,我们利用Nvidia GPU的强大功能来减少简单TensorFlow模型的训练和推理时间。在本文中,我们将建立在已实现的解决方案之上。我们将使用多阶段构建来创建一个容器,用于使用TensorFlow Object Detection API进行推理。欢迎您下载本文中使用的代码。 ​
2022-02-23 12:06:00 5KB docker ai
1
Docker等容器技术可简化依赖项管理并提高软件的可移植性。在本系列文章中,我们探讨了Docker在机器学习(ML)场景中的使用。 本系列假设您熟悉AI/ML、容器化,尤其是Docker。 在本系列的前一篇文章中,我们使用TensorFlow使用容器化对象检测API环境对示例镜像进行了推理。在这一方面,我们将继续处理大型模型,这次是使用PyTorch和Transformers处理自然语言处理(NLP)任务。欢迎您下载本文中使用的代码。 ​
2022-02-23 12:06:00 4KB docker ai
1
Docker等容器技术可简化依赖项管理并提高软件的可移植性。在本系列文章中,我们探讨了Docker在机器学习(ML)场景中的使用。 本系列假设您熟悉AI/ML、容器化,尤其是Docker。 在本系列的前一篇文章中,我们使用保存在Docker卷上的模型运行了NLP推理模型。在本教程中,我们将使用Fast API和Gunicorn将上述模型作为服务公开。欢迎您下载本文中使用的代码。 ​
2022-02-23 12:05:59 4KB docker ai NLP
1
Docker等容器技术可简化依赖项管理并提高软件的可移植性。在本系列文章中,我们探讨了Docker在机器学习(ML)场景中的使用。 本系列假设您熟悉AI/ML、容器化,尤其是Docker。 在本系列的上一篇文章中,我们已经通过暴露推断NLP模型REST API使用快速API和Gunicorn与Uvicorn worker。它允许我们在网络浏览器中运行我们的NLP模型。 ​
2022-02-23 12:05:59 7KB docker ai
1
Docker等容器技术可简化依赖项管理并提高软件的可移植性。在本系列文章中,我们探讨了Docker在机器学习(ML)场景中的使用。 本系列假设您熟悉AI/ML、容器化,尤其是Docker。 在上一篇文章中,我们使用Fast API和Gunicorn调试了通过Rest API服务公开的NLP模型。 在本文(本系列的最后一篇)中,我们将使用Azure容器实例将我们的Rest API服务部署到云。欢迎您下载本文中使用的代码。 ​
2022-02-23 12:05:58 6KB docker ai
1
docker——win桌面版和对应的wsl 64安装包
2022-02-22 17:01:44 500.84MB docker 容器 运维
1