- 昇思,为了AI深思! 昇思,为了AI深思!
- 搞好3080显卡,为了AI。 搞好3080显卡,为了AI。
- 双系统,为了AI。 双系统,为了AI。
- 拆机,为了AI。 拆机,为了AI。
- 本文研究了昇思,这样的研究值得深思。 本文研究了昇思,这样的研究值得深思。
- Windows 11预览版+WSL2+docker+nvidia-docker+MindSpore1.3.0 Windows 11预览版+WSL2+docker+nvidia-docker+MindSpore1.3.0
- @Author:Runsen GPU在gpu上训练使训练神经网络比在cpu上运行快得多Keras支持使用Tensorflow和Theano后端对gpu进行培训文档: https://keras.io/getting-started/faq/#how-can-i-run-keras-on-gpu 安装GPU首先,下载并安装CUDA&CuDNN(假设您使用的是NVIDIA gpu)安装url... @Author:Runsen GPU在gpu上训练使训练神经网络比在cpu上运行快得多Keras支持使用Tensorflow和Theano后端对gpu进行培训文档: https://keras.io/getting-started/faq/#how-can-i-run-keras-on-gpu 安装GPU首先,下载并安装CUDA&CuDNN(假设您使用的是NVIDIA gpu)安装url...
- 在云上使用GPU图形加速功能时,对GPU驱动以及远程连接方式等有一些约束。为了降低用户的学习使用成本,这里给出了一些实践方面的建议。选用合适规格的GPU不同的图形加速场景对GPU的性能或者显存大小有不同的需求,请根据测试软件官方的推荐配置(一般此类软件的官网都会提供)或者云下使用的机器配置,选用合适规格的GPU加速实例。不同显卡的性能对比可参考:https://www.techpowerup... 在云上使用GPU图形加速功能时,对GPU驱动以及远程连接方式等有一些约束。为了降低用户的学习使用成本,这里给出了一些实践方面的建议。选用合适规格的GPU不同的图形加速场景对GPU的性能或者显存大小有不同的需求,请根据测试软件官方的推荐配置(一般此类软件的官网都会提供)或者云下使用的机器配置,选用合适规格的GPU加速实例。不同显卡的性能对比可参考:https://www.techpowerup...
- 1、内核版本与驱动版本不兼容安装驱动报错,如图所示:在安装日志中(/var/log/nvidia-installer.log)看到驱动编译安装过程,由于内核中的某个函数报错,导致驱动编译安装失败;此为GPU驱动版本与特定Linux内核版本的兼容性问题。解决方法:请使用更低版本内核, 或者保持当前linux内核版本但是使用更高版本的的英伟达驱动,具体驱动版本与linux内核版本的兼容性以英伟... 1、内核版本与驱动版本不兼容安装驱动报错,如图所示:在安装日志中(/var/log/nvidia-installer.log)看到驱动编译安装过程,由于内核中的某个函数报错,导致驱动编译安装失败;此为GPU驱动版本与特定Linux内核版本的兼容性问题。解决方法:请使用更低版本内核, 或者保持当前linux内核版本但是使用更高版本的的英伟达驱动,具体驱动版本与linux内核版本的兼容性以英伟...
- 使用modelarts自定义镜像功能将将本地训练环境迁移到modelarts上 使用modelarts自定义镜像功能将将本地训练环境迁移到modelarts上
- 使用华为云GPU加速基于ollama部署本地大模型 使用华为云GPU加速基于ollama部署本地大模型
- @TOC💡身为大学生的我们,往往都只有笔记本,在深度学习中,AlexNet以上的model基本是跑不动了,下面我教大家如何在无公网Ip的情况下用Windows系统的电脑作为服务端,我们通过笔记本来访问设备远程炼丹。准备:VscodeZerotier 配置Zeroiter(内网穿透)首先打开网站注册账号登陆之后,来到这个页面点击建立新Network会出现下面一行,然后点击它:这个id我们要记... @TOC💡身为大学生的我们,往往都只有笔记本,在深度学习中,AlexNet以上的model基本是跑不动了,下面我教大家如何在无公网Ip的情况下用Windows系统的电脑作为服务端,我们通过笔记本来访问设备远程炼丹。准备:VscodeZerotier 配置Zeroiter(内网穿透)首先打开网站注册账号登陆之后,来到这个页面点击建立新Network会出现下面一行,然后点击它:这个id我们要记...
- detect.pyimport argparse #python的命令解析的模块,内置于python,不需要安装import torch.backends.cudnn as cudnn from models.experimental import *from utils.datasets import *from utils.utils import *from models.LPRN... detect.pyimport argparse #python的命令解析的模块,内置于python,不需要安装import torch.backends.cudnn as cudnn from models.experimental import *from utils.datasets import *from utils.utils import *from models.LPRN...
- CUDA CUDA
- CUDA CUDA
上滑加载中
推荐直播
-
HDC深度解读系列 - Serverless与MCP融合创新,构建AI应用全新智能中枢
2025/08/20 周三 16:30-18:00
张昆鹏 HCDG北京核心组代表
HDC2025期间,华为云展示了Serverless与MCP融合创新的解决方案,本期访谈直播,由华为云开发者专家(HCDE)兼华为云开发者社区组织HCDG北京核心组代表张鹏先生主持,华为云PaaS服务产品部 Serverless总监Ewen为大家深度解读华为云Serverless与MCP如何融合构建AI应用全新智能中枢
回顾中 -
苏州工业园区“华为云杯”2025人工智能应用创新大赛赛中直播
2025/08/21 周四 16:00-17:00
Vz 华为云AIoT技术布道师
本期直播将与您一起探讨如何基于华为云IoT平台全场景云服务,结合AI、鸿蒙、大数据等技术,打造有创新性,有竞争力的方案和产品。
回顾中 -
深入解读架构师专业级培训认证
2025/08/22 周五 16:30-17:30
阿肯-华为云生态技术讲师
解决方案架构专业级是开发者认证中的顶端明珠。这门认证聊什么?值得学吗?怎么考、考什么、难不难?这门课程深入解答
回顾中
热门标签