Elementwise ops operate on a per element basis. They don't change the shape of the tensor. ## Unary Ops (math) ::: tinygrad.Tensor.logical_not ::: tinygrad.Tensor.neg ::: tinygrad.Tensor.log ::: tinygrad.Tensor.log2 ::: tinygrad.Tensor.exp ::: tinygrad.Tensor.exp2 ::: tinygrad.Tensor.sqrt ::: tinygrad.Tensor.rsqrt ::: tinygrad.Tensor.sin ::: tinygrad.Tensor.cos ::: tinygrad.Tensor.tan ::: tinygrad.Tensor.trunc ::: tinygrad.Tensor.ceil ::: tinygrad.Tensor.floor ::: tinygrad.Tensor.round ::: tinygrad.Tensor.lerp ::: tinygrad.Tensor.square ::: tinygrad.Tensor.clamp ::: tinygrad.Tensor.clip ::: tinygrad.Tensor.sign ::: tinygrad.Tensor.abs ::: tinygrad.Tensor.reciprocal ## Unary Ops (activation) ::: tinygrad.Tensor.relu ::: tinygrad.Tensor.sigmoid ::: tinygrad.Tensor.elu ::: tinygrad.Tensor.celu ::: tinygrad.Tensor.swish ::: tinygrad.Tensor.silu ::: tinygrad.Tensor.relu6 ::: tinygrad.Tensor.hardswish ::: tinygrad.Tensor.tanh ::: tinygrad.Tensor.sinh ::: tinygrad.Tensor.cosh ::: tinygrad.Tensor.atanh ::: tinygrad.Tensor.asinh ::: tinygrad.Tensor.acosh ::: tinygrad.Tensor.hardtanh ::: tinygrad.Tensor.gelu ::: tinygrad.Tensor.quick_gelu ::: tinygrad.Tensor.leakyrelu ::: tinygrad.Tensor.mish ::: tinygrad.Tensor.softplus ::: tinygrad.Tensor.softsign ## Elementwise Ops (broadcasted) ::: tinygrad.Tensor.add ::: tinygrad.Tensor.sub ::: tinygrad.Tensor.mul ::: tinygrad.Tensor.div ::: tinygrad.Tensor.xor ::: tinygrad.Tensor.lshift ::: tinygrad.Tensor.rshift ::: tinygrad.Tensor.pow ::: tinygrad.Tensor.maximum ::: tinygrad.Tensor.minimum ::: tinygrad.Tensor.where ## Casting Ops ::: tinygrad.Tensor.cast ::: tinygrad.Tensor.bitcast ::: tinygrad.Tensor.float ::: tinygrad.Tensor.half ::: tinygrad.Tensor.int ::: tinygrad.Tensor.bool