一、Tensor
Tensor(張量是一個統(tǒng)稱,其中包括很多類型):
0階張量:標量、常數(shù)、0-D Tensor;1階張量:向量、1-D Tensor;2階張量:矩陣、2-D Tensor;……
二、Pytorch如何創(chuàng)建張量
2.1 創(chuàng)建張量
import torch
t = torch.Tensor([1, 2, 3])
print(t)
2.2 tensor與ndarray的關系
兩者之間可以相互轉化
import torch
import numpy as np
t1 = np.array(torch.Tensor([[1, 2, 3],
[1, 2, 3]]))
t2 = torch.Tensor(np.array([[1, 2, 3],
[1, 2, 3]]))
運行結果:
2.3 常用api
torch.empty(x,y)
創(chuàng)建x行y列為空的tensor。
torch.ones([x, y])
創(chuàng)建x行y列全為1的tensor。
torch.zeros([x,y])
創(chuàng)建x行y列全為0的temsor。
zeros與empty的區(qū)別
后者的數(shù)據(jù)類型是不固定的。
torch.rand(x, y)
創(chuàng)建3行4列的隨機數(shù),隨機數(shù)是0-1。
torch.randint(low, high, size)
創(chuàng)建一個size的tensor,隨機數(shù)為low到high之間。
torch.randn([x, y])
創(chuàng)建一個x行y列的tensor,隨機數(shù)的分布式均值為0,方差1。
2.4 常用方法
item():
獲取tensor中的元素,注意只有
一個元素
的時候才可以用。
numpy():
轉化成
ndarray
類型。
size()
獲取tensor的
形狀
。
view()
可以傳參,表示獲取第幾個。若參數(shù)為-1,表示不確定,與另一個參數(shù)的乘積等于原始形狀的乘積。 例如:原始形狀為8,則
淺拷貝
,tensor的形狀改變
。view(-1,2)
?view(4, 2)
; 參數(shù)只有-1,表示一維。
dim()
獲取維度。
max()
獲取最大值。
t()
轉置。
transpose(x,y)
x,y是size里面返回的形狀相換。
permute()
傳入size()返回的形狀的順序。
transpose與permute的區(qū)別
前者傳入列即可相互交換;后者傳入列會根據(jù)傳入的順序來進行轉化,且需要傳入所有列數(shù)的索引。
取值[第一階, 第二階,……]
一個逗號隔開代表一個階乘冒號代表全取
賦值[第一階, 第二階,……]
直接賦值即可
三、數(shù)據(jù)類型
3.1 獲取數(shù)據(jù)類型
tensor.dtype
獲取數(shù)據(jù)類型
設置數(shù)據(jù)類型
注意使用
Tensor()
不能指定數(shù)據(jù)類型。
type()
修改
數(shù)據(jù)類型。
四、tensor的其他操作
4.1 相加
torch.add(x, y)
將x和y
相加
。
直接相加
tensor.add()
使用add_()
可相加后直接保存在tensor中
4.2 tensor與數(shù)字的操作
tensor + 數(shù)值
五、CUDA中的tensor
CUDA
(Compute Unified Device Architecture),是NVIDIA推出的運算平臺。CUDATM是一種由NVIDIA推出的通用并行計算架構,該架構使GPU能夠解決復雜的計算問題。
torch.cuda這個模塊增加了對CUDA tensor的支持,能夠在cpu和gpu上使用相同的方法操作tensor通過.to
方法能夠把一個tensor轉移到另外一個設備(比如從CPU轉到GPU)
可以使用torch.cuda.is_available()
判斷電腦是否支持GPU
到此這篇pytorch怎么用的文章就介紹到這了,值得一提的是,本文力求精簡所以在一些詳細的地方并沒有深入介紹,如果需要相應的收藏可以關注W3Cschool搜索相關的手冊。