需求是这样的,我平常需要做一些深度学习相关的实验,但是很多实验当时所使用的环境比较老旧,那么复现这类实验无非就是两个思路:
以我上次的一次复现精力举例,比如说 https://github.com/Antimalweb/URLNet ,他对于实验环境的要求是:
最抓马的情况出现了,tf1.8 依赖的 cuda 版本非常低,如果我将当前 4090 的 cuda 版本切换到指定版本,n 卡驱动也是无法兼容的,因为是服务器我不可能直接为了这个实验直接重装系统,有一个直接使用 cuda 指定版本的 docker 镜像方法也是不可行的,因为他们底层依赖的 n 卡驱动还有 linux 内核无法兼容。 无奈我就使用了第二个思路,不过 tf2 与 tf1 的差异巨大,就算有 gpt 的加持,我重构整个代码也花了一整个周末,有一点得不偿失了。 所以想请问大家有没有什么能符合我需求,能够快速搭建一台指定需求环境的方法(我甚至能想到的是去 autodl 组一张卡,然后指定一个老版本的系统镜像)