- 昇思,为了AI深思! 昇思,为了AI深思!
- 搞好3080显卡,为了AI。 搞好3080显卡,为了AI。
- 双系统,为了AI。 双系统,为了AI。
- 拆机,为了AI。 拆机,为了AI。
- 本文研究了昇思,这样的研究值得深思。 本文研究了昇思,这样的研究值得深思。
- Windows 11预览版+WSL2+docker+nvidia-docker+MindSpore1.3.0 Windows 11预览版+WSL2+docker+nvidia-docker+MindSpore1.3.0
- @Author:Runsen GPU在gpu上训练使训练神经网络比在cpu上运行快得多Keras支持使用Tensorflow和Theano后端对gpu进行培训文档: https://keras.io/getting-started/faq/#how-can-i-run-keras-on-gpu 安装GPU首先,下载并安装CUDA&CuDNN(假设您使用的是NVIDIA gpu)安装url... @Author:Runsen GPU在gpu上训练使训练神经网络比在cpu上运行快得多Keras支持使用Tensorflow和Theano后端对gpu进行培训文档: https://keras.io/getting-started/faq/#how-can-i-run-keras-on-gpu 安装GPU首先,下载并安装CUDA&CuDNN(假设您使用的是NVIDIA gpu)安装url...
- 在云上使用GPU图形加速功能时,对GPU驱动以及远程连接方式等有一些约束。为了降低用户的学习使用成本,这里给出了一些实践方面的建议。选用合适规格的GPU不同的图形加速场景对GPU的性能或者显存大小有不同的需求,请根据测试软件官方的推荐配置(一般此类软件的官网都会提供)或者云下使用的机器配置,选用合适规格的GPU加速实例。不同显卡的性能对比可参考:https://www.techpowerup... 在云上使用GPU图形加速功能时,对GPU驱动以及远程连接方式等有一些约束。为了降低用户的学习使用成本,这里给出了一些实践方面的建议。选用合适规格的GPU不同的图形加速场景对GPU的性能或者显存大小有不同的需求,请根据测试软件官方的推荐配置(一般此类软件的官网都会提供)或者云下使用的机器配置,选用合适规格的GPU加速实例。不同显卡的性能对比可参考:https://www.techpowerup...
- 1、内核版本与驱动版本不兼容安装驱动报错,如图所示:在安装日志中(/var/log/nvidia-installer.log)看到驱动编译安装过程,由于内核中的某个函数报错,导致驱动编译安装失败;此为GPU驱动版本与特定Linux内核版本的兼容性问题。解决方法:请使用更低版本内核, 或者保持当前linux内核版本但是使用更高版本的的英伟达驱动,具体驱动版本与linux内核版本的兼容性以英伟... 1、内核版本与驱动版本不兼容安装驱动报错,如图所示:在安装日志中(/var/log/nvidia-installer.log)看到驱动编译安装过程,由于内核中的某个函数报错,导致驱动编译安装失败;此为GPU驱动版本与特定Linux内核版本的兼容性问题。解决方法:请使用更低版本内核, 或者保持当前linux内核版本但是使用更高版本的的英伟达驱动,具体驱动版本与linux内核版本的兼容性以英伟...
- 使用modelarts自定义镜像功能将将本地训练环境迁移到modelarts上 使用modelarts自定义镜像功能将将本地训练环境迁移到modelarts上
- 使用华为云GPU加速基于ollama部署本地大模型 使用华为云GPU加速基于ollama部署本地大模型
- @TOC💡身为大学生的我们,往往都只有笔记本,在深度学习中,AlexNet以上的model基本是跑不动了,下面我教大家如何在无公网Ip的情况下用Windows系统的电脑作为服务端,我们通过笔记本来访问设备远程炼丹。准备:VscodeZerotier 配置Zeroiter(内网穿透)首先打开网站注册账号登陆之后,来到这个页面点击建立新Network会出现下面一行,然后点击它:这个id我们要记... @TOC💡身为大学生的我们,往往都只有笔记本,在深度学习中,AlexNet以上的model基本是跑不动了,下面我教大家如何在无公网Ip的情况下用Windows系统的电脑作为服务端,我们通过笔记本来访问设备远程炼丹。准备:VscodeZerotier 配置Zeroiter(内网穿透)首先打开网站注册账号登陆之后,来到这个页面点击建立新Network会出现下面一行,然后点击它:这个id我们要记...
- detect.pyimport argparse #python的命令解析的模块,内置于python,不需要安装import torch.backends.cudnn as cudnn from models.experimental import *from utils.datasets import *from utils.utils import *from models.LPRN... detect.pyimport argparse #python的命令解析的模块,内置于python,不需要安装import torch.backends.cudnn as cudnn from models.experimental import *from utils.datasets import *from utils.utils import *from models.LPRN...
- CUDA CUDA
- CUDA CUDA
上滑加载中
推荐直播
-
香橙派AIpro的远程推理框架与实验案例
2025/07/04 周五 19:00-20:00
郝家胜 -华为开发者布道师-高校教师
AiR推理框架创新采用将模型推理与模型应用相分离的机制,把香橙派封装为AI推理黑盒服务,构建了分布式远程推理框架,并提供多种输入模态、多种输出方式以及多线程支持的高度复用框架,解决了开发板环境配置复杂上手困难、缺乏可视化体验和资源稀缺课程受限等痛点问题,真正做到开箱即用,并支持多种笔记本电脑环境、多种不同编程语言,10行代码即可体验图像分割迁移案例。
回顾中 -
鸿蒙端云一体化应用开发
2025/07/10 周四 19:00-20:00
倪红军 华为开发者布道师-高校教师
基于鸿蒙平台终端设备的应用场景越来越多、使用范围越来越广。本课程以云数据库服务为例,介绍云侧项目应用的创建、新建对象类型、新增存储区及向对象类型中添加数据对象的方法,端侧(HarmonyOS平台)一体化工程项目的创建、云数据资源的关联方法及对云侧数据的增删改查等操作方法,为开发端云一体化应用打下坚实基础。
回顾中
热门标签