最近在学习机器学习的过程中,常常需要将本地写的代码传到GPU服务器中,然后在服务器上运行。之前的做法一直是先在本地写好代码,然后通过FileZilla这样的文件传输工具来将写好的文件传到服务器,再通过ssh工具远程连接到服务器,执行相应的python脚本。这样的方式十分繁琐,效率很低。今天听到朋友提到了配置远程解释器 使用场景 先说说自己的使用场景,我是在什么情况下,需要将IDE配置成这样的环境来方便我的工作。 首先,我需要在本地机子上写python代码,但是因为是机器学习相关的一些代码,有时候本机跑可能会很慢,或者根本跑不下来。而此时,我还有一台可用的服务器,上面配置了相应的python3环
2021-11-24 10:13:03 487KB ar arm pycharm
1
树莓派3 python
2021-05-14 15:12:20 2.44MB 树莓派3
1
从零开始配置树莓派3远程Python开发环境,从零开始配置树莓派3远程Python开发环境从零开始配置树莓派3远程Pyt
2021-04-15 10:12:02 1.22MB 树莓派3 远程Python
1