App下載

pytorch怎么用?Python深度學(xué)習(xí)初探

猿友 2021-07-23 11:53:20 瀏覽數(shù) (2804)
反饋

一、Tensor

Tensor(張量是一個統(tǒng)稱,其中包括很多類型):

0階張量:標(biāo)量、常數(shù)、0-D Tensor;1階張量:向量、1-D Tensor;2階張量:矩陣、2-D Tensor;……

二、Pytorch如何創(chuàng)建張量

2.1 創(chuàng)建張量

import torch
	
	t = torch.Tensor([1, 2, 3])
	print(t)

創(chuàng)建張量

2.2 tensor與ndarray的關(guān)系

兩者之間可以相互轉(zhuǎn)化

import torch
import numpy as np

t1 = np.array(torch.Tensor([[1, 2, 3],
        [1, 2, 3]]))
t2 = torch.Tensor(np.array([[1, 2, 3],
        [1, 2, 3]]))

運行結(jié)果:

運行結(jié)果

2.3 常用api

torch.empty(x,y)

創(chuàng)建x行y列為空的tensor。

置空

torch.ones([x, y])

創(chuàng)建x行y列全為1的tensor。

置1

torch.zeros([x,y])

創(chuàng)建x行y列全為0的temsor。

置零

zeros與empty的區(qū)別

后者的數(shù)據(jù)類型是不固定的。

torch.rand(x, y)

創(chuàng)建3行4列的隨機(jī)數(shù),隨機(jī)數(shù)是0-1。

隨機(jī)矩陣


torch.randint(low, high, size)

創(chuàng)建一個size的tensor,隨機(jī)數(shù)為low到high之間。

隨機(jī)定區(qū)間矩陣

torch.randn([x, y])

創(chuàng)建一個x行y列的tensor,隨機(jī)數(shù)的分布式均值為0,方差1。

2.4 常用方法

item()

獲取tensor中的元素,注意只有一個元素的時候才可以用。

獲取元素


numpy()

轉(zhuǎn)化成ndarray類型。

轉(zhuǎn)化為其他類型

size()

獲取tensor的形狀。

獲取大小

view()

淺拷貝,tensor的形狀改變。

可以傳參,表示獲取第幾個。若參數(shù)為-1,表示不確定,與另一個參數(shù)的乘積等于原始形狀的乘積。 例如:原始形狀為8,則view(-1,2) ? view(4, 2); 參數(shù)只有-1,表示一維。

淺拷貝

dim()

獲取維度。

獲取維度

max()

獲取最大值。

獲取最大值

t()

轉(zhuǎn)置。

轉(zhuǎn)置矩陣

transpose(x,y)

x,y是size里面返回的形狀相換。

形狀變換

permute()

傳入size()返回的形狀的順序。

返回形狀數(shù)據(jù)

transpose與permute的區(qū)別

前者傳入列即可相互交換;后者傳入列會根據(jù)傳入的順序來進(jìn)行轉(zhuǎn)化,且需要傳入所有列數(shù)的索引。

取值[第一階, 第二階,……]

一個逗號隔開代表一個階乘冒號代表全取

取值

賦值[第一階, 第二階,……]

直接賦值即可

賦值


三、數(shù)據(jù)類型


數(shù)據(jù)類型

3.1 獲取數(shù)據(jù)類型

tensor.dtype

獲取數(shù)據(jù)類型

獲取數(shù)據(jù)類型

設(shè)置數(shù)據(jù)類型

注意使用Tensor()不能指定數(shù)據(jù)類型。

設(shè)置數(shù)據(jù)類型

type()

修改數(shù)據(jù)類型。

修改數(shù)據(jù)類型

四、tensor的其他操作

4.1 相加

torch.add(x, y)

將x和y相加。

矩陣相加

直接相加

直接相加

tensor.add()

使用add_() 可相加后直接保存在tensor中

矩陣相加

4.2 tensor與數(shù)字的操作

tensor + 數(shù)值

矩陣加法

五、CUDA中的tensor

CUDA (Compute Unified Device Architecture),是NVIDIA推出的運算平臺。CUDATM是一種由NVIDIA推出的通用并行計算架構(gòu),該架構(gòu)使GPU能夠解決復(fù)雜的計算問題。
torch.cuda這個模塊增加了對CUDA tensor的支持,能夠在cpu和gpu上使用相同的方法操作tensor通過.to方法能夠把一個tensor轉(zhuǎn)移到另外一個設(shè)備(比如從CPU轉(zhuǎn)到GPU)

可以使用torch.cuda.is_available()判斷電腦是否支持GPU

到此這篇pytorch怎么用的文章就介紹到這了,值得一提的是,本文力求精簡所以在一些詳細(xì)的地方并沒有深入介紹,如果需要相應(yīng)的收藏可以關(guān)注W3Cschool搜索相關(guān)的手冊。


0 人點贊