jupyter notebook占用内存空间过大打不开的解决办法(包括但不限于爬虫造成的)

您所在的位置:网站首页 c盘清理后文件打不开 jupyter notebook占用内存空间过大打不开的解决办法(包括但不限于爬虫造成的)

jupyter notebook占用内存空间过大打不开的解决办法(包括但不限于爬虫造成的)

#jupyter notebook占用内存空间过大打不开的解决办法(包括但不限于爬虫造成的)| 来源: 网络整理| 查看: 265

jupyter notebook由于超过内存限制而“锁死”的解决

这两天用爬虫爬数据的时候由于print了大量的爬取内容,让notebook内存溢出停止运行,连带着localhost:8888也崩溃了。Google Chrome的处理机制应该是杀掉内存溢出的页面,所以localhost:8888刷新一下就恢复了。 在这里插入图片描述 但是!我的code找不回来了!不知道是什么机制,在文件里看到的大小只有不到45MB,但是一旦从localhost:8888里面打开,(用任务管理器看的)Chrome占用的内存就远远超过这个数字,一直飙升到3GB的时候再次弹出来内存不足的提示,同时页面被杀掉。用pycharm尝试更是失败,比Chrome还吃内存。 在这里插入图片描述 在经历了各种尝试,上网搜了也没有发现相关情况之后,自己偶然发现了解决办法:

如何打开源文件:

在ipynb文件的地方选择打开方式,用Chrome浏览器打开,页面的观感类似于网页源码,内容是json格式的。



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3