东方耀AI技术分享

 找回密码
 立即注册

QQ登录

只需一步,快速开始

搜索
热搜: 活动 交友 discuz
查看: 3658|回复: 0
打印 上一主题 下一主题

[课堂笔记] 当遇到GPU内存溢出OOM时 的解决办法

[复制链接]

1365

主题

1856

帖子

1万

积分

管理员

Rank: 10Rank: 10Rank: 10

积分
14435
QQ
跳转到指定楼层
楼主
发表于 2019-8-6 11:01:37 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式



当遇到GPU内存溢出OOM时 的解决办法:
对于caffe而言,默认不是占满GPU全部的显存,而是通过网络设置batchsize及每个epoch所迭代的次数,网络模型大小等参数控制,
在运行时遇到超出内存等报错时,可以调低batchsize数量及网络模型的大小。




对于tensorflow及keras而言,二者默认都是占用GPU全部的内存,由于keras是集成在tensorflow中,因此,二者的解决办法类似。


    在文件中添加一些命令以控制模型所占用GPU显存的比例。
gpu_options.per_process_gpu_memory_fraction = 0.8  # 这里设置占用的比例

让天下人人学会人工智能!人工智能的前景一片大好!
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋|人工智能工程师的摇篮 ( 湘ICP备2020019608号-1 )

GMT+8, 2024-4-26 23:08 , Processed in 0.165669 second(s), 18 queries .

Powered by Discuz! X3.4

© 2001-2017 Comsenz Inc.

快速回复 返回顶部 返回列表