Expand description
Raw FFI bindings to the libtorch C++ shim.
Every function that can fail returns a *mut i8 error string (caller
must free it with flodl_free_string). A null pointer means success.
FlodlTensor is an opaque *mut c_void handle to a heap-allocated
torch::Tensor. Caller owns it and must free with flodl_free_tensor.
Constants§
Functions§
- flodl_
abs ⚠ - flodl_
adam_ ⚠step - flodl_
adam_ ⚠step_ batched - flodl_
adaptive_ ⚠avg_ pool2d - flodl_
add ⚠ - flodl_
add_ ⚠ - flodl_
add_ ⚠scalar - flodl_
add_ ⚠scalar_ - flodl_
all_ ⚠finite - flodl_
arange ⚠ - flodl_
argmax ⚠ - flodl_
argmin ⚠ - flodl_
autocast_ ⚠guard_ delete - flodl_
autocast_ ⚠guard_ new - flodl_
autograd_ ⚠node_ count - flodl_
backward ⚠ - flodl_
batch_ ⚠norm - flodl_
bce_ ⚠with_ logits_ loss - flodl_
cat ⚠ - flodl_
cat2 ⚠ - flodl_
cdist ⚠ - flodl_
ceil ⚠ - flodl_
chunk ⚠ - flodl_
clamp ⚠ - flodl_
clip_ ⚠grad_ norm - flodl_
conv2d ⚠ - flodl_
conv_ ⚠transpose2d - flodl_
copy_ ⚠ - flodl_
copy_ ⚠data - flodl_
cos ⚠ - flodl_
cross_ ⚠entropy_ loss - flodl_
cuda_ ⚠active_ bytes - flodl_
cuda_ ⚠alloc_ bytes - flodl_
cuda_ ⚠device_ count - flodl_
cuda_ ⚠device_ name - flodl_
cuda_ ⚠empty_ cache - flodl_
cuda_ ⚠graph_ capture_ begin - flodl_
cuda_ ⚠graph_ capture_ end - flodl_
cuda_ ⚠graph_ delete - flodl_
cuda_ ⚠graph_ new - flodl_
cuda_ ⚠graph_ pool - flodl_
cuda_ ⚠graph_ pool_ handle - flodl_
cuda_ ⚠graph_ replay - flodl_
cuda_ ⚠graph_ reset - flodl_
cuda_ ⚠is_ available - flodl_
cuda_ ⚠manual_ seed_ all - flodl_
cuda_ ⚠mem_ info - flodl_
cuda_ ⚠peak_ active_ bytes - flodl_
cuda_ ⚠peak_ reserved_ bytes - flodl_
cuda_ ⚠reset_ peak_ stats - flodl_
cuda_ ⚠synchronize - flodl_
cuda_ ⚠utilization - flodl_
detach ⚠ - flodl_
detach_ ⚠ - flodl_
device_ ⚠index - flodl_
device_ ⚠type - flodl_
div ⚠ - flodl_
div_ ⚠scalar - flodl_
dropout ⚠ - flodl_
dtype ⚠ - flodl_
eq_ ⚠tensor - flodl_
exp ⚠ - flodl_
expand ⚠ - flodl_
eye ⚠ - flodl_
feature_ ⚠dropout - flodl_
flatten ⚠ - flodl_
floor ⚠ - flodl_
force_ ⚠cuda_ link - flodl_
foreach_ ⚠add_ list_ - flodl_
foreach_ ⚠add_ scalar_ - flodl_
foreach_ ⚠lerp_ scalar_ - flodl_
foreach_ ⚠mul_ scalar_ - flodl_
foreach_ ⚠norm - flodl_
foreach_ ⚠sqrt_ - flodl_
foreach_ ⚠zero_ - flodl_
free_ ⚠string - flodl_
free_ ⚠tensor - flodl_
from_ ⚠blob - flodl_
full ⚠ - flodl_
fused_ ⚠adam_ - flodl_
fused_ ⚠adamw_ - flodl_
gather ⚠ - flodl_
ge_ ⚠scalar - flodl_
ge_ ⚠tensor - flodl_
gelu ⚠ - flodl_
get_ ⚠current_ device - flodl_
grad ⚠ - flodl_
grid_ ⚠sample - flodl_
gru_ ⚠cell - flodl_
gt_ ⚠scalar - flodl_
gt_ ⚠tensor - flodl_
index_ ⚠add - flodl_
index_ ⚠select - flodl_
is_ ⚠autocast_ enabled - flodl_
is_ ⚠channels_ last - flodl_
is_ ⚠grad_ enabled - flodl_
is_ ⚠leaf - flodl_
is_ ⚠pinned - flodl_
kl_ ⚠div_ loss - flodl_
l1_ ⚠loss - flodl_
le_ ⚠scalar - flodl_
le_ ⚠tensor - flodl_
linear ⚠ - flodl_
linspace ⚠ - flodl_
log ⚠ - flodl_
log_ ⚠softmax - flodl_
lstm_ ⚠cell - flodl_
lt_ ⚠scalar - flodl_
lt_ ⚠tensor - flodl_
malloc_ ⚠trim - flodl_
manual_ ⚠seed - flodl_
matmul ⚠ - flodl_
max ⚠ - flodl_
max_ ⚠dim - flodl_
max_ ⚠pool2d - flodl_
mean ⚠ - flodl_
mean_ ⚠dim - flodl_
meshgrid ⚠ - flodl_
min ⚠ - flodl_
min_ ⚠dim - flodl_
mse_ ⚠loss - flodl_
mul ⚠ - flodl_
mul_ ⚠scalar - flodl_
mul_ ⚠scalar_ - flodl_
narrow ⚠ - flodl_
narrow_ ⚠scatter - flodl_
native_ ⚠layer_ norm - flodl_
ndim ⚠ - flodl_
ne_ ⚠tensor - flodl_
neg ⚠ - flodl_
no_ ⚠grad_ guard_ delete - flodl_
no_ ⚠grad_ guard_ new - flodl_
norm ⚠ - flodl_
numel ⚠ - flodl_
ones ⚠ - flodl_
ones_ ⚠like - flodl_
pad ⚠ - flodl_
permute ⚠ - flodl_
pin_ ⚠memory - flodl_
pow_ ⚠scalar - flodl_
rand ⚠ - flodl_
randn ⚠ - flodl_
reciprocal ⚠ - flodl_
relu ⚠ - flodl_
repeat ⚠ - flodl_
requires_ ⚠grad - flodl_
reshape ⚠ - flodl_
round ⚠ - flodl_
scatter_ ⚠add - flodl_
select ⚠ - flodl_
select_ ⚠scatter - flodl_
set_ ⚠cudnn_ benchmark - flodl_
set_ ⚠current_ device - flodl_
set_ ⚠grad - flodl_
set_ ⚠requires_ grad - flodl_
shallow_ ⚠clone - flodl_
shape ⚠ - flodl_
sigmoid ⚠ - flodl_
sign ⚠ - flodl_
silu ⚠ - flodl_
sin ⚠ - flodl_
smooth_ ⚠l1_ loss - flodl_
softmax ⚠ - flodl_
sort ⚠ - flodl_
sqrt ⚠ - flodl_
squeeze ⚠ - flodl_
stack ⚠ - flodl_
std_ ⚠dim - flodl_
std_ ⚠op - flodl_
sub ⚠ - flodl_
sub_ ⚠ - flodl_
sum ⚠ - flodl_
sum_ ⚠dim - flodl_
tanh_ ⚠op - flodl_
to_ ⚠channels_ last - flodl_
to_ ⚠device - flodl_
to_ ⚠device_ async - flodl_
to_ ⚠dtype - flodl_
topk ⚠ - flodl_
transpose ⚠ - flodl_
triu ⚠ - flodl_
unsqueeze ⚠ - flodl_
var ⚠ - flodl_
var_ ⚠dim - flodl_
where ⚠ - flodl_
zero_ ⚠ - flodl_
zero_ ⚠grad - flodl_
zero_ ⚠grad_ set_ to_ none - flodl_
zeros ⚠ - flodl_
zeros_ ⚠like
Type Aliases§
- Flodl
Tensor - Opaque handle to a
torch::Tensoron the C++ side.