不乱于心,不困于情。
不畏将来,不念过往。如此,安好。

pytorch

pytorch nlp深度学习代码总结-seo优化_前端开发_渗透技术

pytorch nlp深度学习代码总结

hush阅读(82)赞(0)

文本清洗 去除网址 def remove_URL(text): url = re.compile(r'https?://\S+|www\.\S+') return url.sub(r'', text) 去除表情符号 def remove_e...

一文读懂 Pytorch 中的 Tensor View 机制-seo优化_前端开发_渗透技术

一文读懂 Pytorch 中的 Tensor View 机制

hush阅读(125)赞(0)

前言 用户在使用 Pytorch 的过程中,必然会接触到 view 这个概念,可能会有用户对它背后的实现原理感兴趣。 Pytorch 通过 view 机制可以实现 tensor 之间的内存共享。 而 view 机制可以避免显式的数据拷贝,因...

PyTorch进阶之路:如何实现线性回归-seo优化_前端开发_渗透技术

PyTorch进阶之路:如何实现线性回归

hush阅读(205)赞(0)

PyTorch 是 Facebook 开发和维护的一个开源的神经网络库,近来的发展势头相当强劲,也有越来越多的开发者为其撰写教程,本文也是其中之一。这是「PyTorch: Zero to GANs」系列教程的第二篇,介绍了在 PyTorch...

pytorch与gpu版本的适配问题-seo优化_前端开发_渗透技术

pytorch与gpu版本的适配问题

hush阅读(1397)赞(0)

今天跑了一下yolov5报了一个错误: CUDA error: no kernel image is available for execution on the device 于是乎,根据显卡的型号对应的运算能力是否匹配: 主机显卡是30...

Pytorch 张量维度-seo优化_前端开发_渗透技术

Pytorch 张量维度

hush阅读(331)赞(0)

Tensor类的成员函数dim()可以返回张量的维度,shape属性与成员函数size()返回张量的具体维度分量,如下代码定义了一个两行三列的张量: f = torch.randn(2, 3) print(f.dim()) print(f....

pytorch中squeeze()和unsqueeze()函数介绍-seo优化_前端开发_渗透技术

pytorch中squeeze()和unsqueeze()函数介绍

hush阅读(353)赞(0)

一、unsqueeze()函数 1. 首先初始化一个a 可以看出a的维度为(2,3) 2. 在第二维增加一个维度,使其维度变为(2,1,3) 可以看出a的维度已经变为(2,1,3)了,同样如果需要在倒数第二个维度上增加一个维度,那么使用b....

pytorch教程之nn.Module类详解—使用Module类来自定义网络层

hush阅读(445)赞(0)

前言:前面介绍了如何自定义一个模型——通过继承nn.Module类来实现,在__init__构造函数中申明各个层的定义,在forward中实现层之间的连接关系,实际上就是前向传播的过程。 事实上,在pytorch里面自定义层也是通过继承自n...

PyTorch的nn.Linear()详解-seo优化_前端开发_渗透技术

PyTorch的nn.Linear()详解

hush阅读(365)赞(0)

PyTorch的nn.Linear()是用于设置网络中的全连接层的,需要注意的是全连接层的输入与输出都是二维张量,一般形状为[batch_size, size],不同于卷积层要求输入输出是四维张量。其用法与形参说明如下: in_featur...