streamlit-fastapi-model-serving 和描述了使用Streamlit和FastAPI进行ML模型服务的简单示例。 在开发用于机器学习模型的简单API时,同时具有供其他应用程序调用的后端(带有API文档)和供用户试用该功能的前端可能会很有用。 在此示例中,我们为后端服务使用FastAPI并为前端服务进行streamlit提供。 docker-compose协调两个服务并允许它们之间进行通信。 要在运行Docker和docker-compose的机器上运行示例,请运行: docker-compose build docker-compose up 要访问生成的服务的FastAPI文档,请使用Web浏览器访问 。 要访问简化的UI,请访问 。 可以通过以下方式检查日志: docker-compose logs 部署方式 要部署该应用程序,一种选择是在Her
2021-10-25 19:24:18 7KB docker-compose pycones pytorch fastapi
1