尾调用、尾递归 与 非尾递归

尾调用、尾递归、非尾递归的几个概念及非尾递归是否可以转换为尾递归。 1、 尾调用: tail call指的是一个函数的最后一条语句也是一个返回调用函数的语句,即return的是一个函数,这个函数可以是另一个函数,也可以是自身函数。 def fun_b(x): x = x -1 return x

tensorflow2.0安装使用

Tensorflow是谷歌开源的人工智能库,有最完善的生态支持。是进行人工智能领域开发和科研的必备工具。 本文在windows10下,借助Anaconda,安装Tensorflow2.0。 tensorflow2.0 安装 首先打开anaconda,执行 conda create --name tf

mac下ssh连接docker的方法

1、进入docker中的linux需要安装ssh服务 apt-get update apt-get install openssh-server openssh-client 2、设置docker的root登录权限为yes 修改/etc/ssh/sshd_config文件,找到PermitRootL

安装tclsh

源码安装tclsh方法 下载源码 到 http://www.tcl.tk/software/tc... 下载 tcl8.5.19-src.tar.gz 解压 tar -xzvf tcl8.5.19-src.tar.gz,比如下载放在了tmp目录 解压安装 如下,安装到'usr/tcl'目录下 cd

深度学习之物体检测

在给定图像或者视频中找出其中所有目标的位置,并返回每个目标的具体类别和位置信息。图片中可能有一个目标或几个目标,关于物体检测,目前深度学习网络的优势很明显,也是当前的热门应用。 终身学习!

请问为什么tf.py_function()中自定义的函数未被调用?

TF2.0中,在最大池化层的源码当中使用了tf.py_function(),自定义了一个函数,想将Tensor转为Numpy矩阵从而进行一些操作,然而程序运行时,却将自定义的函数忽略掉了,自定义函数中的print()函数未作输出,返回值为<unknow>,如果py_function()中

Seq2Seq中的attention机制的实践与理解

注意力机制到底”注意“了什么? Encoder-Decoder结构的通常解释:Encoder 中将一个可变长度的信号序列变为固定长度的向量表达,Decoder 将这个固定长度的向量变成可变长度的目标的信号序列。 在这里提到的Seq2Seq结构中,Encoder将通过CNN泛化过的原始信号 编码为一组

TensorFlow中Encoder-Decoder模型理解与实践

Seq2Seq模型主要在NLP,机器翻译,序列预测等问题上效果显著。一般情况下可以分解Seq2Seq模型为两个子模型:Encoder和Decoder。 Encoder的输入为原始的序列数据,输出为通过NN泛化的表征Tensor(常规操作);此output便是Decoder的input。通过Encod

如何理解TensorFlow中name与variable scope的区别

tf中的命名空间 最近在模型的搭建中遇到tf中变量的共享空间相关问题,故记之。出于变量共享与传递的考虑,TensorFlow中引入了变量(或者叫 域)命名空间的机制。此测试环境在TensorFlow1.X下:import tensorflow as tf name scope:通过调用tf.name

python图像的读写

在做计算机视觉的项目过程中,图像的读写是最基础的工作。下面的内容就是对常用的几个图像处理库的总结: 1、imageio imageio 是python的一个库,提供了简洁的图像读写接口,能够读写大部分格式的图像数据。 import imageio im = imageio.imread('image

点击加载更多