Torch 加速

发布时间:2023年12月22日

loss.item()

1. 费时

loss.backward()
loss_item = loss.item()  # todo loss.item() 这个比较费时间  0.2743 秒

2. 省时

loss_item = loss.item()? ?#todo 把它 移到 loss.backward() 前面,这个操作只需要 0.00027 秒
loss.backward()

Index

d_inv[torch.isinf(d_inv)] = 0.0  # todo 这个超级费时间 大约 0.04秒

Top-k 替换 argsort

torch.argsort(pc1_sampling_confidence, dim=-1, descending=True)[:, :64] # 费时
torch.topk(pc1_sampling_confidence, 64, dim=-1) # 省时

申明对象

torch.arange(B, dtype=torch.long, device="cuda") # 省时
torch.arange(B, dtype=torch.long).to("cuda")  # 费时

A.to("cuda") 与 A.cuda() 是一样的时间

文章来源:https://blog.csdn.net/masterShaw/article/details/135149892
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。