递归算法实验总结,如何用PyTorch实现递归神经网络
递归算法实验总结,如何用PyTorch实现递归神经网络详细介绍
本文目录一览: cc++ 函数递归调用问题求解 自减运算符
--n等同于n=n-1;
最后一次add(--n)递归后,往回推来计算总结果时,n的值也已经变了;
而使用add(n-1),n的值并没有发生变化,只是每次传参进去的数值发生了变化,n这局部变量该是多少还是多少。
做一个实验:
这证明了过程是从右往左进行的,也就是说一个数与一个函数结果相加,
那么他先计算了函数的结果再进行相加,也就是他会先执行--n
而--n与n-1的区别是--n相当于n=n-1,他修改了n的值,所以导致 return n + add(n-1);的n的值改变了,所以发生了错误,但n-1没有改变n的值
C语言实验题:用递归法求两个正整数x、y的最大公约数,递归公式为:
#include
int gcd(int x,int y);void main(){ int x,y,z; scanf("%d%d",&x,&y); z=gcd(x,y); printf("%d\n",z);}int gcd(int x,int y){ if (x
<y) return gcd(y,x); if (x%y="=0)" y; gcd(y,x%y);}mod是取余的意思,在c中用%表示
#include
int gcd(int m,int n)
{
if (n == 0)
return m;
else
return gcd(n, m%n);
}
int main()
{
int m, n;
printf("input m&n ");
scanf("%d%d", &m, &n);
printf("m和n的最大公约数为%d\n", gcd(m, n));
return 0;
}
1、首先打开vc6.0,新建一个vc项目。
2、添加头文件。
3、添加main主函数体。
4、定义a、b、t、r四个变量。
5、使用scanf给a、b变量赋值。
6、如果 a < b,交换a、b。
7、使用while不断求余。
8、使用printf打印最大公约数和最小公倍数。
10、运行程序,看看结果。
信息竞赛高手进
太难
国际标准书号(International Standard Book Number)简称ISBN。
ISBN 978-7-107-17648-7 是普通高中课程标准实验教科书 《化学 必修2》的书号。
关于信息竞赛,请参考附档(无法插入文档,请参考以下内容)。
课 题: §1 信息竞赛及一些术语简介 备课:盖建华 审稿:
目标 (1)了解信息竞赛背景知识,掌握竞赛的知识结构。
(2)会初步运用信息科学的思想去考虑问题。
概要 重点:竞赛要掌握的知识结构、数据结构、算法的概念。
难点:一些术语及其内涵,要求深刻掌握数据结构、算法的概念。
背景知识 1 信息学奥赛的全称是青少年信息学(计算机)奥林匹克竞赛(早期称为青少年计算机程序设计竞赛),是旨在广大青少年中普及计算机教育,推广计算机应用的一项学科性竞赛活动。全国性的信息学奥赛可分为三个层次:先举办全国信息学(计算机)奥林匹克分区联赛(简称NOIP),联赛分高中组,初中组进行, 以普及为主。在分区联赛的基础上,各省市组成自己的代表队(一般为3名选手),参加第二个层次的比赛,即全国青少年信息学奥林匹克竞赛 (简称 NOI), 第三个层次是从 NOI 中选拔优秀选手(一般为 15 人), 经过培训, 考试选拔,组成国家队(一般 4—5 人). 参加国际信息学奥林匹克竞赛, 即IOI, 这是国际性的最高水平的竞赛。 竞赛分两轮:初试和复试。初试形式为笔试,侧重考察学生的计算机基础知识和编程的基本能力,并对知识面的广度进行测试。初试为资格测试,各省初试成绩在本赛区前15%的学生进入复赛。复试形式为上机,着重考察学生对问题的分析理解能力,数学抽象能力,编程语言的能力和编程技巧、想象力和创造性等。各省联赛的等第奖在复试的优胜者中产生。
2 初赛内容与要求
▲计算机的基本常识
1.计算机和信息社会(信息社会的主要特征、计算机的主要特征、数字通信网络的主要特征、数字化)
2.信息输入输出基本原理(信息交换环境、文字图形多媒体信息的输入输出方式)
3.信息的表示与处理(信息编码、微处理部件MPU、内存储结构、指令,程序,和存储程序原理、程序的三种基本控制结构)
4.信息的存储、组织与管理(存储介质、存储器结构、文件管理、数据库管理)
5.信息系统组成及互连网的基本知识(计算机构成原理、槽和端口的部件间可扩展互连方式、层次式的互连结构、互联网络、TCP/IP协议、HTTP协议、WEB应用的主要方式和特点)
6.人机交互界面的基本概念(窗口系统、人和计算机交流信息的途径(文本及交互操作))
7.信息技术的新发展、新特点、新应用等。
▲计算机的基本操作
1. WINDOWS和LINUX的基本操作知识
2. 互联网的基本使用常识 (网上浏览、搜索和查询等)
3. 常用工具软件使用(文字编辑电子邮件收发等)
▲数据结构
1.程序语言中基本数据类型(字符、整数、长整数、浮点)
2. 浮点运算中的精度和数值比较
3.一维数组(串)与线性表
4.记录类型(PASCAL)/ 结构类型(C)
▲程序设计
1.结构化程序设计的基本概念
2.阅读理解程序的基本能力
3.具有将简单问题抽象成适合计算机解决的模型的基本能力
4.具有针对模型设计简单算法的基本能力
5.程序流程描述(自然语言/伪码/NS图/其他)
6.程序设计语言(PASCAL/C/C++,2003仍允许BASIC)
▲基本算法处理
1.初等算法(计数、统计、数学运算等)
2.排序算法(冒泡法、插入排序、合并排序、快速排序)
3.查找(顺序查找、二分法)
4.回溯算法
课前预习 说说对下列概念的理解
(1)TCP/IP协议 (2)数据结构
(3)PASCAL语言 (4)算法
思考
探究 1、思考回答下列情景题:
TCP/IP 是供已连接因特网的计算机进行通信的通信协议。TCP/IP 定义了电子设备(比如计算机)如何连入因特网,以及数据如何在它们之间传输的标准。数据以TCP/IP协议进行传输时,可以拿信件的处理过程来类比。数据好比是________。IP地址好比是________。TCP端口好比是_________。假如有人不按协议操作,或者是向所有群体发送大量信息,或者是向某个人发送大量信息,最终导致网络拥塞或者瘫痪,这叫做___________。
程序设计中,数组可以用数学上的数列来类比。假设数列{an}的通项公式为an=4n+1(n>=1),则a[10]=____________。下面是计算机上存储的一个4*4的数阵,如果用数列的通项公式来表示,应该为_________________。如果把它看做一个4*4的表格,比如第4行第4列的数字为a[4,4]=8,则a[m,n](m,n取1..4)的通式为___________________ (用m,n来表示)。
1 4 9 16
1 2 3 4
25 36 49 64
5 6 7 8
递推算法是一种用若干步可重复的简单运算(规律)来描述复杂问题的方法。比如要把任何一个自然数的立方写成一串连续奇数之和。可以按如下方法递推:
13=1
23=3+5=8
33=7+9+11=27
43=13+15+17+19=64
……………………….
设n为输入的一个任意自然数,它的立方是由m个奇数之和构成的,其中第一个奇数为p,则n3=p+____+...+______。n+1立方是由____个奇数之和构成,其中第一个奇数为_______。另外当n=1时,m=_____,p= ______。
(1)把数组a[n]中的元素进行平方运算,得到的新的数组如何表达?
(2)把{1,5,9,11,8}按从大到小顺序排列。
(3)以信件来类比,数据按TCP/IP协议组装好后,应该包含哪些地址信息?
(4)如果有人不按业界定制的协议去实现自己的网络通信,那他用的是什么协议?
(5)如果不用递推算法,你能使用数学归纳法得出n3的表达方法吗?你能否从中体会到计算机处理方法和数学思考方法的一些区别?
新知探究 思考下列问题:
1 假设有一个数组(array),里面有8个元素{1, 5, 10, 20, 15, 8, 6, 90}。
观察其特点,发现里面的元素都是_____,具有相同类型,并且他们是____的形式组织起来。我们把这些按序排列的同类数据元素的集合称为数组。
在整数数组的基础上,我们可以定义一些标准的操作,比如找最大最小数,排序等等。大家考察一下,在数组上还可以定义哪些操作?
因此,在计算机科学中,数据结构是一门研究非数值计算的程序设计问题中计算机的操作对象(数据元素)以及它们之间的关系和运算等的学科,而且确保经过这些运算后所得到的新结构仍然是原来的结构类型。
另外,我们也可以从集合和函数的观点来考察数据结构。例如上述数组的元素可以组成一个集合,他们之间的先后关系、大小关系、排序等都可以理解为______关系。
数据结构可以形式地定义为(K,R)(或(D,S)),其中,K是数据元素的有限集,R是K上的关系的有限集。
2 通过上面递归算法的例题,我们总结一下算法的特征:
算法(Algorithm)是一系列解决问题的清晰指令,也就是说,能够对一规范的_____,在有限时间内获得所要求的____。算法可以理解为有基本运算及规定的运算顺序所构成的完整的解题步骤。或者看成按照要求设计好的有限的确切的计算序列,并且这样的步骤和序列可以解决一类问题。
一个算法应该具有以下五个重要的特征:
1、有穷性: 一个算法必须保证执行有限步之后结束;
2、确切性: 算法的每一步骤必须有确切的定义;
3、输入:一个算法有0个或多个输入,以刻画运算对象的初始情况,所谓0个输入是指算法本身定除了初始条件;
4、输出:一个算法有一个或多个输出,以反映对输入数据加工后的结果。没有输出的算法是毫无意义的;
5、可行性: 算法原则上能够精确地运行,用笔和纸做有限次运算后即可完成。
例题说明 [例1] 植树节那天,有五位参加了植树活动,他们完成植树的棵数都不相同。问第一位同学植了多少棵时,他指着旁边的第二位同学说比他多植了两棵;追问第二位同学,他又说比第三位同学多植了两棵;…如此,都说比另一位同学多植两棵。最后问到第五位同学时,他说自己植了10 棵。到底第一位同学植了多少棵树?
[例2]斐波列契数列(Faibonacci)0,1,1,2,3,5,8,13,21,34……求此数列第n项。
[例3]用筛法求出25以内的全部素数。
[例4]输入4名学生数学、物理、英语、化学、pascal五门课的考试成绩,求出每名学生的平均分,打印出表格。
当堂反馈练习 1、微型计算机的运算器、控制器及内存储器的总称是____。
A)CPU B)ALU
C)MPU D)主机
2、反映计算机存储容量的基本单位是____。
A)二进制位 B)字节
C)字 D)双字
3、十进制数123变换为等值的二进制数是____。
A)110101 B)110110
C)111011 D)110011
4、删除数组中的某元素,且右边的元素都向左平移一格。
小结 1、学好信息科学,一方面要大体上了解计算机组成、网络、操作系统等知识,另一方面要学会编程,这样才能让计算机听你的指令。另外数据结构和算法是信息竞赛的灵魂。
2、大家可以从递推算法上深刻体会到信息科学的思维特征。
学生反思
课后作业 1、猴子吃枣问题:猴子摘了一堆枣,第一天吃了一半,还嫌不过瘾,又吃了一个;第二天,又吃了剩下的一半零一个;以后每天如此。到第十天,猴子一看只剩下一个了。问最初有多少个枣子?
2、楼梯有N 级台阶,上楼可以一步上一阶,也可以一步上二阶。计算共有多少种不同走法?
3、兔子在出生两个月以后,就具有生殖后代的能力。假设一对兔子,每月都能生一对兔子,生出来的每一对小兔子,在出生两个月后,也每月生一对兔子。那末,由一对刚出生的小兔子开始,连续不断地繁殖下去,在某个指定的月份有多少对兔子?
4、给一维数组输入M个整数,假设M=6,数组元素分别为 7 4 8 9 1 5 ,
要求建立一个如下数组(矩阵):
7 4 8 9 1 5
4 8 9 1 5 7
8 9 1 5 7 4
9 1 5 7 4 8
1 5 7 4 8 9
5 7 4 8 9 1
如何用PyTorch实现递归神经网络
从 Siri 到谷歌翻译,深度神经网络已经在机器理解自然语言方面取得了巨大突破。这些模型大多数将语言视为单调的单词或字符序列,并使用一种称为循环神经网络(recurrent neural network/RNN)的模型来处理该序列。但是许多语言学家认为语言最好被理解为具有树形结构的层次化词组,一种被称为递归神经网络(recursive neural network)的深度学习模型考虑到了这种结构,这方面已经有大量的研究。虽然这些模型非常难以实现且效率很低,但是一个全新的深度学习框架 PyTorch 能使它们和其它复杂的自然语言处理模型变得更加容易。
虽然递归神经网络很好地显示了 PyTorch 的灵活性,但它也广泛支持其它的各种深度学习框架,特别的是,它能够对计算机视觉(computer vision)计算提供强大的支撑。PyTorch 是 Facebook AI Research 和其它几个实验室的开发人员的成果,该框架结合了 Torch7 高效灵活的 GPU 加速后端库与直观的 Python 前端,它的特点是快速成形、代码可读和支持最广泛的深度学习模型。
开始 SPINN
链接中的文章(https://github.com/jekbradbury/examples/tree/spinn/snli)详细介绍了一个递归神经网络的 PyTorch 实现,它具有一个循环跟踪器(recurrent tracker)和 TreeLSTM 节点,也称为 SPINN——SPINN 是深度学习模型用于自然语言处理的一个例子,它很难通过许多流行的框架构建。这里的模型实现部分运用了批处理(batch),所以它可以利用 GPU 加速,使得运行速度明显快于不使用批处理的版本。
SPINN 的意思是堆栈增强的解析器-解释器神经网络(Stack-augmented Parser-Interpreter Neural Network),由 Bowman 等人于 2016 年作为解决自然语言推理任务的一种方法引入,该论文中使用了斯坦福大学的 SNLI 数据集。
该任务是将语句对分为三类:假设语句 1 是一幅看不见的图像的准确标题,那么语句 2(a)肯定(b)可能还是(c)绝对不是一个准确的标题?(这些类分别被称为蕴含(entailment)、中立(neutral)和矛盾(contradiction))。例如,假设一句话是「两只狗正跑过一片场地」,蕴含可能会使这个语句对变成「户外的动物」,中立可能会使这个语句对变成「一些小狗正在跑并试图抓住一根棍子」,矛盾能会使这个语句对变成「宠物正坐在沙发上」。
特别地,研究 SPINN 的初始目标是在确定语句的关系之前将每个句子编码(encoding)成固定长度的向量表示(也有其它方式,例如注意模型(attention model)中将每个句子的每个部分用一种柔焦(soft focus)的方法相互比较)。
数据集是用句法解析树(syntactic parse tree)方法由机器生成的,句法解析树将每个句子中的单词分组成具有独立意义的短语和子句,每个短语由两个词或子短语组成。许多语言学家认为,人类通过如上面所说的树的分层方式来组合词意并理解语言,所以用相同的方式尝试构建一个神经网络是值得的。下面的例子是数据集中的一个句子,其解析树由嵌套括号表示:
( ( The church ) ( ( has ( cracks ( in ( the ceiling ) ) ) ) . ) )
这个句子进行编码的一种方式是使用含有解析树的神经网络构建一个神经网络层 Reduce,这个神经网络层能够组合词语对(用词嵌入(word embedding)表示,如 GloVe)、 和/或短语,然后递归地应用此层(函数),将最后一个 Reduce 产生的结果作为句子的编码:
X = Reduce(“the”, “ceiling”)
Y = Reduce(“in”, X)
... etc.
但是,如果我希望网络以更类似人类的方式工作,从左到右阅读并保留句子的语境,同时仍然使用解析树组合短语?或者,如果我想训练一个网络来构建自己的解析树,让解析树根据它看到的单词读取句子?这是一个同样的但方式略有不同的解析树的写法:
The church ) has cracks in the ceiling ) ) ) ) . ) )
或者用第 3 种方式表示,如下:
WORDS: The church has cracks in the ceiling .
PARSES: S S R S S S S S R R R R S R R
我所做的只是删除开括号,然后用「S」标记「shift」,并用「R」替换闭括号用于「reduce」。但是现在可以从左到右读取信息作为一组指令来操作一个堆栈(stack)和一个类似堆栈的缓冲区(buffer),能得到与上述递归方法完全相同的结果:
1. 将单词放入缓冲区。
2. 从缓冲区的前部弹出「The」,将其推送(push)到堆栈上层,紧接着是「church」。
3. 弹出前 2 个堆栈值,应用于 Reduce,然后将结果推送回堆栈。
4. 从缓冲区弹出「has」,然后推送到堆栈,然后是「cracks」,然后是「in」,然后是「the」,然后是「ceiling」。
5. 重复四次:弹出 2 个堆栈值,应用于 Reduce,然后推送结果。
6. 从缓冲区弹出「.」,然后推送到堆栈上层。
7. 重复两次:弹出 2 个堆栈值,应用于 Reduce,然后推送结果。
8. 弹出剩余的堆栈值,并将其作为句子编码返回。
我还想保留句子的语境,以便在对句子的后半部分应用 Reduce 层时考虑系统已经读取的句子部分的信息。所以我将用一个三参数函数替换双参数的 Reduce 函数,该函数的输入值为一个左子句、一个右子句和当前句的上下文状态。该状态由神经网络的第二层(称为循环跟踪器(Tracker)的单元)创建。Tracker 在给定当前句子上下文状态、缓冲区中的顶部条目 b 和堆栈中前两个条目 s1\s2 时,在堆栈操作的每个步骤(即,读取每个单词或闭括号)后生成一个新状态:
context[t+1] = Tracker(context[t], b, s1, s2)
容易设想用你最喜欢的编程语言来编写代码做这些事情。对于要处理的每个句子,它将从缓冲区加载下一个单词,运行跟踪器,检查是否将单词推送入堆栈或执行 Reduce 函数,执行该操作;然后重复,直到对整个句子完成处理。通过对单个句子的应用,该过程构成了一个大而复杂的深度神经网络,通过堆栈操作的方式一遍又一遍地应用它的两个可训练层。但是,如果你熟悉 TensorFlow 或 Theano 等传统的深度学习框架,就知道它们很难实现这样的动态过程。你值得花点时间回顾一下,探索为什么 PyTorch 能有所不同。
图论
图 1:一个函数的图结构表示
深度神经网络本质上是有大量参数的复杂函数。深度学习的目的是通过计算以损失函数(loss)度量的偏导数(梯度)来优化这些参数。如果函数表示为计算图结构(图 1),则向后遍历该图可实现这些梯度的计算,而无需冗余工作。每个现代深度学习框架都是基于此反向传播(backpropagation)的概念,因此每个框架都需要一个表示计算图的方式。
在许多流行的框架中,包括 TensorFlow、Theano 和 Keras 以及 Torch7 的 nngraph 库,计算图是一个提前构建的静态对象。该图是用像数学表达式的代码定义的,但其变量实际上是尚未保存任何数值的占位符(placeholder)。图中的占位符变量被编译进函数,然后可以在训练集的批处理上重复运行该函数来产生输出和梯度值。
这种静态计算图(static computation graph)方法对于固定结构的卷积神经网络效果很好。但是在许多其它应用中,有用的做法是令神经网络的图结构根据数据而有所不同。在自然语言处理中,研究人员通常希望通过每个时间步骤中输入的单词来展开(确定)循环神经网络。上述 SPINN 模型中的堆栈操作很大程度上依赖于控制流程(如 for 和 if 语句)来定义特定句子的计算图结构。在更复杂的情况下,你可能需要构建结构依赖于模型自身的子网络输出的模型。
这些想法中的一些(虽然不是全部)可以被生搬硬套到静态图系统中,但几乎总是以降低透明度和增加代码的困惑度为代价。该框架必须在其计算图中添加特殊的节点,这些节点代表如循环和条件的编程原语(programming primitive),而用户必须学习和使用这些节点,而不仅仅是编程代码语言中的 for 和 if 语句。这是因为程序员使用的任何控制流程语句将仅运行一次,当构建图时程序员需要硬编码(hard coding)单个计算路径。
例如,通过词向量(从初始状态 h0 开始)运行循环神经网络单元(rnn_unit)需要 TensorFlow 中的特殊控制流节点 tf.while_loop。需要一个额外的特殊节点来获取运行时的词长度,因为在运行代码时它只是一个占位符。
# TensorFlow
# (this code runs once, during model initialization)
# “words” is not a real list (it’s a placeholder variable) so
# I can’t use “len”
cond = lambda i, h: i < tf.shape(words)[0]
cell = lambda i, h: rnn_unit(words[i], h)
i = 0
_, h = tf.while_loop(cond, cell, (i, h0))
基于动态计算图(dynamic computation graph)的方法与之前的方法有根本性不同,它有几十年的学术研究历史,其中包括了哈佛的 Kayak、自动微分库(autograd)以及以研究为中心的框架 Chainer和 DyNet。在这样的框架(也称为运行时定义(define-by-run))中,计算图在运行时被建立和重建,使用相同的代码为前向通过(forward pass)执行计算,同时也为反向传播(backpropagation)建立所需的数据结构。这种方法能产生更直接的代码,因为控制流程的编写可以使用标准的 for 和 if。它还使调试更容易,因为运行时断点(run-time breakpoint)或堆栈跟踪(stack trace)将追踪到实际编写的代码,而不是执行引擎中的编译函数。可以在动态框架中使用简单的 Python 的 for 循环来实现有相同变量长度的循环神经网络。
# PyTorch (also works in Chainer)
# (this code runs on every forward pass of the model)
# “words” is a Python list with actual values in it
h = h0
for word in words:
h = rnn_unit(word, h)
PyTorch 是第一个 define-by-run 的深度学习框架,它与静态图框架(如 TensorFlow)的功能和性能相匹配,使其能很好地适合从标准卷积神经网络(convolutional network)到最疯狂的强化学习(reinforcement learning)等思想。所以让我们来看看 SPINN 的实现。
代码
在开始构建网络之前,我需要设置一个数据加载器(data loader)。通过深度学习,模型可以通过数据样本的批处理进行操作,通过并行化(parallelism)加快训练,并在每一步都有一个更平滑的梯度变化。我想在这里可以做到这一点(稍后我将解释上述堆栈操作过程如何进行批处理)。以下 Python 代码使用内置于 PyTorch 的文本库的系统来加载数据,它可以通过连接相似长度的数据样本自动生成批处理。运行此代码之后,train_iter、dev_iter 和 test_itercontain 循环遍历训练集、验证集和测试集分块 SNLI 的批处理。
from torchtext import data, datasets
TEXT = datasets.snli.ParsedTextField(lower=True)
TRANSITIONS = datasets.snli.ShiftReduceField()
LABELS = data.Field(sequential=False)train, dev, test = datasets.SNLI.splits(
TEXT, TRANSITIONS, LABELS, wv_type='glove.42B')TEXT.build_vocab(train, dev, test)
train_iter, dev_iter, test_iter = data.BucketIterator.splits(
(train, dev, test), batch_size=64)
你可以在 train.py中找到设置训练循环和准确性(accuracy)测量的其余代码。让我们继续。如上所述,SPINN 编码器包含参数化的 Reduce 层和可选的循环跟踪器来跟踪句子上下文,以便在每次网络读取单词或应用 Reduce 时更新隐藏状态;以下代码代表的是,创建一个 SPINN 只是意味着创建这两个子模块(我们将很快看到它们的代码),并将它们放在一个容器中以供稍后使用。
import torchfrom torch import nn
# subclass the Module class from PyTorch’s neural network package
class SPINN(nn.Module):
def __init__(self, config):
super(SPINN, self).__init__()
self.config = config self.reduce = Reduce(config.d_hidden, config.d_tracker)
if config.d_tracker is not None:
self.tracker = Tracker(config.d_hidden, config.d_tracker)
当创建模型时,SPINN.__init__ 被调用了一次;它分配和初始化参数,但不执行任何神经网络操作或构建任何类型的计算图。在每个新的批处理数据上运行的代码由 SPINN.forward 方法定义,它是用户实现的方法中用于定义模型向前过程的标准 PyTorch 名称。上面描述的是堆栈操作算法的一个有效实现,即在一般 Python 中,在一批缓冲区和堆栈上运行,每一个例子都对应一个缓冲区和堆栈。我使用转移矩阵(transition)包含的「shift」和「reduce」操作集合进行迭代,运行 Tracker(如果存在),并遍历批处理中的每个样本来应用「shift」操作(如果请求),或将其添加到需要「reduce」操作的样本列表中。然后在该列表中的所有样本上运行 Reduce 层,并将结果推送回到它们各自的堆栈。
def forward(self, buffers, transitions):
# The input comes in as a single tensor of word embeddings;
# I need it to be a list of stacks, one for each example in
# the batch, that we can pop from independently. The words in
# each example have already been reversed, so that they can
# be read from left to right by popping from the end of each
# list; they have also been prefixed with a null value.
buffers = [list(torch.split(b.squeeze(1), 1, 0))
for b in torch.split(buffers, 1, 1)]
# we also need two null values at the bottom of each stack,
# so we can copy from the nulls in the input; these nulls
# are all needed so that the tracker can run even if the
# buffer or stack is empty
stacks = [[buf[0], buf[0]] for buf in buffers]
if hasattr(self, 'tracker'):
self.tracker.reset_state()
for trans_batch in transitions:
if hasattr(self, 'tracker'):
# I described the Tracker earlier as taking 4
# arguments (context_t, b, s1, s2), but here I
# provide the stack contents as a single argument
# while storing the context inside the Tracker
# object itself.
tracker_states, _ = self.tracker(buffers, stacks)
else:
tracker_states = itertools.repeat(None)
lefts, rights, trackings = [], [], []
batch = zip(trans_batch, buffers, stacks, tracker_states)
for transition, buf, stack, tracking in batch:
if transition == SHIFT:
stack.append(buf.pop())
elif transition == REDUCE:
rights.append(stack.pop())
lefts.append(stack.pop())
trackings.append(tracking)
if rights:
reduced = iter(self.reduce(lefts, rights, trackings))
for transition, stack in zip(trans_batch, stacks):
if transition == REDUCE:
stack.append(next(reduced))
return [stack.pop() for stack in stacks]
在调用 self.tracker 或 self.reduce 时分别运行 Tracker 或 Reduce 子模块的向前方法,该方法需要在样本列表上应用前向操作。在主函数的向前方法中,在不同的样本上进行独立的操作是有意义的,即为批处理中每个样本提供分离的缓冲区和堆栈,因为所有受益于批处理执行的重度使用数学和需要 GPU 加速的操作都在 Tracker 和 Reduce 中进行。为了更干净地编写这些函数,我将使用一些 helper(稍后将定义)将这些样本列表转化成批处理张量(tensor),反之亦然。
我希望 Reduce 模块自动批处理其参数以加速计算,然后解批处理(unbatch)它们,以便可以单独推送和弹出。用于将每对左、右子短语表达组合成父短语(parent phrase)的实际组合函数是 TreeLSTM,它是普通循环神经网络单元 LSTM 的变型。该组合函数要求每个子短语的状态实际上由两个张量组成,一个隐藏状态 h 和一个存储单元(memory cell)状态 c,而函数是使用在子短语的隐藏状态操作的两个线性层(nn.Linear)和将线性层的结果与子短语的存储单元状态相结合的非线性组合函数 tree_lstm。在 SPINN 中,这种方式通过添加在 Tracker 的隐藏状态下运行的第 3 个线性层进行扩展。
图 2:TreeLSTM 组合函数增加了第 3 个输入(x,在这种情况下为 Tracker 状态)。在下面所示的 PyTorch 实现中,5 组的三种线性变换(由蓝色、黑色和红色箭头的三元组表示)组合为三个 nn.Linear 模块,而 tree_lstm 函数执行位于框内的所有计算。图来自 Chen et al. (2016)。
编写递归算法,求二叉树的结点个数和叶子数
00DLR(liuyu *root) /*中序遍历 递归函数*/
{if(root!=NULL)
{if((root->lchild==NULL)&&(root->rchild==NULL)){sum++; printf("%d\n",root->data);}
DLR(root->lchild);
DLR(root->rchild); }
return(0);
}
法二:
int LeafCount_BiTree(Bitree T)//求二叉树中叶子结点的数目
{
if(!T) return 0; //空树没有叶子
else if(!T->lchild&&!T->rchild) return 1; //叶子结点
else return Leaf_Count(T->lchild)+Leaf_Count(T->rchild);//左子树的叶子数加
上右子树的叶子数
}//LeafCount_BiTree
注:上机时要先建树!例如实验二的方案一。
① 打印叶子结点值(并求总数)
思路:先建树,再从遍历过程中打印结点值并统计。
写了个比较简单的,包括建立二叉树,还有你需要的递归函数,不懂可追问
#include
#include
#define CURRENT 0
#define LEFT 1
#define RIGHT 2
typedef struct BiTree
{
char data; //数据
BiTree* lchild; //左孩子节点
BiTree* rchild; //右孩子节点
BiTree* parent; //父节点
}BiTree;
void InitBiTree(BiTree* tree) //构造空二叉树
{
tree = NULL;
}
void CreateTree(BiTree* tree, char data) //给二叉树赋值
{
tree->data = data;
tree->parent = NULL;
tree->lchild = NULL;
tree->rchild = NULL;
}
int InsertChild(BiTree* tree, int pos, char data) //给孩子节点赋值
{
if (pos == LEFT)
{
if (tree->lchild != NULL)
{
printf("insert left child error!\n");
return false;
}
BiTree* t = (BiTree*)malloc(sizeof(BiTree));
tree->lchild = t;
t->data = data;
t->lchild = NULL;
t->rchild = NULL;
t->parent = tree;
return 1;
}
else if (pos == RIGHT)
{
if (tree->rchild != NULL)
{
printf("insert right child error!\n");
return 0;
}
BiTree* t = (BiTree*)malloc(sizeof(BiTree));
tree->rchild = t;
t->data = data;
t->lchild = NULL;
t->rchild = NULL;
t->parent = tree;
return 1;
}
return 0;
}
int PreOrderTraverse(BiTree* tree, int* countchildren, int* countleaves) // 递归函数
{
BiTree* p = tree;
if (p)
{
(*countchildren)++; // 如果那个节点有数据,就增加子节点数
int lnull, runll;
if (lnull = PreOrderTraverse(p->lchild, countchildren, countleaves))
{
if (runll = PreOrderTraverse(p->rchild, countchildren, countleaves))
{
if (lnull == -1 && runll == -1) // 如果左右节点都为空,则增加叶子节点数
{
(*countleaves)++;
}
return 1;
}
}
return 0;
}
else
{
return -1;
}
}
int main()
{
BiTree bt;
int countchildren = 0;
int countleaves = 0;
InitBiTree(&bt);
CreateTree(&bt, 's');
InsertChild(&bt, LEFT, 'i');
InsertChild(bt.lchild, LEFT, 'A');
InsertChild(bt.lchild->lchild, LEFT, 'x');
InsertChild(bt.lchild, RIGHT, 'B');
InsertChild(bt.lchild->rchild, RIGHT, 'y');
InsertChild(&bt, RIGHT, 'o');
PreOrderTraverse(&bt, &countchildren, &countleaves);
printf("countchildren : %d\n", countchildren);
printf("countleaves : %d\n", countleaves);
return 0;
}
分而治之算法的注意事项
分而治之方法很自然地导致了递归算法的使用。在许多例子里,这些递归算法在递归程序中得到了很好的运用。实际上,在许多情况下,所有为了得到一个非递归程序的企图都会导致采用一个模拟递归栈。不过在有些情况下,不使用这样的递归栈而采用一个非递归程序来完成分而治之算法也是可能的,并且在这种方式下,程序得到结果的速度会比递归方式更快。解决金块问题的分而治之算法(例2 - 2)和归并排序方法( 2 . 3节)就可以不利用递归而通过一个非递归程序来更快地完成。例2-4 [金块问题] 用例2 - 2的算法寻找8个金块中最轻和最重金块的工作可以用二叉树来表示。这棵树的叶子分别表示8个金块(a, b,., h),每个阴影节点表示一个包含其子树中所有叶子的问题。因此,根节点A表示寻找8个金块中最轻、最重金块的问题,而节点B表示找出a,b,c 和d 这4个金块中最轻和最重金块的问题。算法从根节点开始。由根节点表示的8金块问题被划分成由节点B和C所表示的两个4金块问题。在B节点,4金块问题被划分成由D和E所表示的2金块问题。可通过比较金块a 和b 哪一个较重来解决D节点所表示的2金块问题。在解决了D和E所表示的问题之后,可以通过比较D和E中所找到的轻金块和重金块来解决B表示的问题。接着在F,G和C上重复这一过程,最后解决问题A。可以将递归的分而治之算法划分成以下的步骤:1) 从图2 - 2中的二叉树由根至叶的过程中把一个大问题划分成许多个小问题,小问题的大小为1或2。2) 比较每个大小为2的问题中的金块,确定哪一个较重和哪一个较轻。在节点D、E、F和G上完成这种比较。大小为1的问题中只有一个金块,它既是最轻的金块也是最重的金块。3) 对较轻的金块进行比较以确定哪一个金块最轻,对较重的金块进行比较以确定哪一个金块最重。对于节点A到C执行这种比较。根据上述步骤,可以得出程序1 4 - 1的非递归代码。该程序用于寻找到数组w [ 0 : n - 1 ]中的最小数和最大数,若n < 1,则程序返回f a l s e,否则返回t r u e。当n≥1时,程序1 4 - 1给M i n和M a x置初值以使w [ M i n ]是最小的重量,w [ M a x ]为最大的重量。首先处理n≤1的情况。若n>1且为奇数,第一个重量w [ 0 ]将成为最小值和最大值的候选值,因此将有偶数个重量值w [ 1 : n - 1 ]参与f o r循环。当n 是偶数时,首先将两个重量值放在for 循环外进行比较,较小和较大的重量值分别置为Min和Max,因此也有偶数个重量值w[2:n-1]参与for循环。在for 循环中,外层if 通过比较确定( w [ i ] , w [ i + 1 ] )中的较大和较小者。此工作与前面提到的分而治之算法步骤中的2) 相对应,而内层的i f负责找出较小重量值和较大重量值中的最小值和最大值,这个工作对应于3 )。for 循环将每一对重量值中较小值和较大值分别与当前的最小值w [ M i n ]和最大值w [ M a x ]进行比较,根据比较结果来修改M i n和M a x(如果必要)。下面进行复杂性分析。注意到当n为偶数时,在for 循环外部将执行一次比较而在f o r循环内部执行3 ( n / 2 - 1 )次比较,比较的总次数为3 n / 2 - 2。当n 为奇数时,f o r循环外部没有执行比较,而内部执行了3(n-1)/2次比较。因此无论n 为奇数或偶数,当n>0时,比较的总次数为「3n/2ù-2次。程序14-1 找出最小值和最大值的非递归程序template
bool MinMax(T w[], int n, T& Min, T& Max){// 寻找w [ 0 : n - 1 ]中的最小和最大值// 如果少于一个元素,则返回f a l s e// 特殊情形: n <= 1if (n < 1) return false;if (n == 1) {Min = Max = 0;return true;}/ /对Min 和M a x进行初始化int s; // 循环起点if (n % 2) {// n 为奇数Min = Max = 0;s = 1;}else {// n为偶数,比较第一对if (w[0] > w[1]) {Min = 1;Max = 0;}else {Min = 0;Max = 1;}s = 2;}// 比较余下的数对for (int i = s; i < n; i += 2) {// 寻找w和w [ i + 1 ]中的较大者// 然后将较大者与w [ M a x ]进行比较// 将较小者与w [ M i n ]进行比较if (w> w[i+1]) {if (w> w[Max]) Max = i;if (w[i+1] < w[Min]) Min = i + 1;}else {if (w[i+1] > w[Max]) Max = i + 1;if (w< w[Min]) Min = i;}}return true;}练习1. 将例1 4 - 1的分而治之算法扩充到n> 1个硬币的情形。需要进行多少次重量的比较?2. 考虑例1 4 - 1的伪币问题。假设把条件“伪币比真币轻”改为“伪币与真币的重量不同”,同样假定袋中有n 个硬币。1) 给出相应分而治之算法的形式化描述,该算法可输出信息“不存在伪币”或找出伪币。算法应递归地将大的问题划分成两个较小的问题。需要多少次比较才能找到伪币(如果存在伪币)?2) 重复1) ,但把大问题划分为三个较小问题。3. 1) 编写一个C++ 程序,实现例1 4 - 2中寻找n 个元素中最大值和最小值的两种方案。使用递归来完成分而治之方案。2) 程序2 - 2 6和2 - 2 7是另外两个寻找n 个元素中最大值和最小值的代码。试分别计算出每段程序所需要的最少和最大比较次数。3) 在n 分别等于1 0 0,1 0 0 0或10 000的情况下,比较1)、2)中的程序和程序1 4 - 1的运行时间。对于程序2 - 2 7,使用平均时间和最坏情况下的时间。1)中的程序和程序2 - 2 6应具有相同的平均时间和最坏情况下的时间。4) 注意到如果比较操作的开销不是很高,分而治之算法在最坏情况下不会比其他算法优越,为什么?它的平均时间优于程序2 - 2 7吗?为什么?4. 证明直接运用公式(1 4 -2)~(1 4 - 5)得出结果的矩阵乘法的分而治之算法的复杂性为(n3 )。因此相应的分而治之程序将比程序2 - 2 4要慢。5. 用迭代的方法来证明公式(1 4 - 6)的递归值为(n l og27)。*6. 编写S t r a s s e n矩阵乘法程序。利用不同的k 值(见公式(1 4 - 6))进行实验,以确定k 为何值时程序性能最佳。比较程序及程序2 - 2 4的运行时间。可取n 为2的幂来进行比较。7. 当n 不是2的幂时,可以通过增加矩阵的行和列来得到一个大小为2的幂的矩阵。假设使用最少的行数和列数将矩阵扩充为m 阶矩阵,其中m 为2的幂。1) 求m / n。2) 可使用哪些矩阵项组成新的行和列,以使新矩阵A' 和B' 相乘时,原来的矩阵A和B相乘的结果会出现在C' 的左上角?3) 使用S t r a s s e n方法计算A' * B' 所需要的时间为(m2.81 )。给出以n 为变量的运行时间表达式。
c语言怎么用递归调用函数的方法求n的阶乘?
unsigned int Jiechen(unsigned int n)
{
if(n==0) return 1; /* 0 的阶乘等于 1, 直接返回 1 */
else return n * jiechen(n-1); /* 否则 n! = n * (n-1)! 此处是递归调用函数 Jiechen() */
}
C语言,是一种通用的、过程式的编程语言,广泛用于系统与应用软件的开发。具有高效、灵活、功能丰富、表达力强和较高的移植性等特点,在程序员中备受青睐。最近25年是使用最为广泛的编程语言。
C语言是由UNIX的研制者丹尼斯·里奇(Dennis Ritchie)于1970年 由 肯·汤普逊(Ken Thompson)所研制出的B语言的基础上发展和完善起来的。目前,C语言编译器普遍存在于各种不同的操作系统中,例如UNIX、MS-DOS、Microsoft Windows及Linux等。C语言的设计影响了许多后来的编程语言,例如C++、Objective-C、Java、C#等。
解决步骤:
#include
long fun(int n)
{
if (n>1)
return (n*fun(n-1));
return 1;/*我的疑问在这里,难道不应该是else return 1吗?根据答案提示这里的1可以换成1L,是什么道理?*/
}
main()
{
printf("10!=%ld\n", fun(10));
}
语言标准
起初,C语言没有官方标准。1978年由美国电话电报公司(AT&T)贝尔实验室正式发表了C语言。布莱恩·柯林汉(Brian Kernighan) 和 丹尼斯·里奇(Dennis Ritchie) 出版了一本书,名叫《The C Programming Language》。这本书被 C语言开发者们称为K&R,很多年来被当作 C语言的非正式的标准说明。人们称这个版本的 C语言为K&R C。 [3]
K&R C主要介绍了以下特色:
结构体(struct)类型
长整数(long int)类型
无符号整数(unsigned int)类型
把运算符=+和=-改为+=和-=。因为=+和=-会使得编译器不知道使用者要处理i = -10还是i =- 10,使得处理上产生混淆。
即使在后来ANSI C标准被提出的许多年后,K&R C仍然是许多编译器的最 准要求,许多老旧的编译器仍然运行K&R C的标准。
1970到80年代,C语言被广泛应用,从大型主机到小型微机,也衍生了C语言的很多不同版本。
1983年,美国国家标准协会(ANSI)成立了一个委员会X3J11,来制定 C语言标准。 [4]
1989年,美国国家标准协会(ANSI)通过了C语言标准,被称为ANSI X3.159-1989 "Programming Language C"。因为这个标准是1989年通过的,所以一般简称C89标准。有些人也简称ANSI C,因为这个标准是美国国家标准协会(ANSI)发布的。
1990年,国际标准化组织(ISO)和国际电工委员会(IEC)把C89标准定为C语言的国际标准,命名为ISO/IEC 9899:1990 - Programming languages -- C [5] 。因为此标准是在1990年发布的,所以有些人把简称作C90标准。不过大多数人依然称之为C89标准,因为此标准与ANSI C89标准完全等同。
1994年,国际标准化组织(ISO)和国际电工委员会(IEC)发布了C89标准修订版,名叫ISO/IEC 9899:1990/Cor 1:1994[6] ,有些人简称为C94标准。
1995年,国际标准化组织(ISO)和国际电工委员会(IEC)再次发布了C89标准修订版,名叫ISO/IEC 9899:1990/Amd 1:1995 - C Integrity [7] ,有些人简称为C95标准。
C99标准
1999年1月,国际标准化组织(ISO)和国际电工委员会(IEC)发布了C语言的新标准,名叫ISO/IEC 9899:1999 - Programming languages -- C [8] ,简称C99标准。这是C语言的第二个官方标准。
在C99中包括的特性有:
增加了对编译器的限制,比如源程序每行要求至少支持到 4095 字节,变量名函数名的要求支持到 63 字节(extern 要求支持到 31)。
增强了预处理功能。例如:
宏支持取可变参数 #define Macro(...) __VA_ARGS__
使用宏的时候,允许省略参数,被省略的参数会被扩展成空串。
支持 // 开头的单行注释(这个特性实际上在C89的很多编译器上已经被支持了)
增加了新关键字 restrict, inline, _Complex, _Imaginary, _Bool
支持 long long, long double _Complex, float _Complex 等类型
支持不定长的数组,即数组长度可以在运行时决定,比如利用变量作为数组长度。声明时使用 int a[var] 的形式。不过考虑到效率和实现,不定长数组不能用在全局,或 struct 与 union 里。
变量声明不必放在语句块的开头,for 语句提倡写成 for(int i=0;i<100;++i) 的形式,即i 只在 for 语句块内部有效。
允许采用(type_name){xx,xx,xx} 类似于 C++ 的构造函数的形式构造匿名的结构体。
复合字面量:初始化结构的时候允许对特定的元素赋值,形式为:
struct test{int a[3],b;} foo[] = { [0].a = {1}, [1].a = 2 };
struct test{int a, b, c, d;} foo = { .a = 1, .c = 3, 4, .b = 5 }; // 3,4 是对 .c,.d 赋值的
格式化字符串中,利用 \u 支持 unicode 的字符。
支持 16 进制的浮点数的描述。
printf scanf 的格式化串增加了对 long long int 类型的支持。
浮点数的内部数据描述支持了新标准,可以使用 #pragma 编译器指令指定。
除了已有的 __line__ __file__ 以外,增加了 __func__ 得到当前的函数名。
允许编译器化简非常数的表达式。
修改了 /% 处理负数时的定义,这样可以给出明确的结果,例如在C89中-22 / 7 = -3, -22% 7 = -1,也可以-22 / 7= -4, -22% 7 = 6。 而C99中明确为 -22 / 7 = -3, -22% 7 = -1,只有一种结果。
取消了函数返回类型默认为 int 的规定。
允许 struct 定义的最后一个数组不指定其长度,写做 [](flexible array member)。
const const int i 将被当作 const int i 处理。
增加和修改了一些标准头文件,比如定义 bool 的
,定义一些标准长度的 int 的
,定义复数的
,定义宽字符的
,类似于泛型的数学函数
, 浮点数相关的
。 在
增加了 va_copy 用于复制 ... 的参数。里增加了 struct tmx ,对 struct tm 做了扩展。
输入输出对宽字符以及长整数等做了相应的支持。
GCC和其它一些商业编译器支持C99的大部分特性。
C11标准
2011年12月8日,国际标准化组织(ISO)和国际电工委员会(IEC)再次发布了C语言的新标准,名叫ISO/IEC 9899:2011 - Information technology -- Programming languages -- C [9] ,简称C11标准,原名C1X。这是C语言的第三个官方标准,也是C语言的最新标准。
新的标准提高了对C++的兼容性,并增加了一些新的特性。这些新特性包括:
对齐处理(Alignment)的标准化(包括_Alignas标志符,alignof运算符, aligned_alloc函数以及
头文件。
_Noreturn 函数标记,类似于 gcc 的 __attribute__((noreturn))。
_Generic 关键字。
多线程(Multithreading)支持,包括:
_Thread_local存储类型标识符,
头文件,里面包含了线程的创建和管理函数。
_Atomic类型修饰符和
头文件。
增强的Unicode的支持。基于C Unicode技术报告ISO/IEC TR 19769:2004,增强了对Unicode的支持。包括为UTF-16/UTF-32编码增加了char16_t和char32_t数据类型,提供了包含unicode字符串转换函数的头文件
.
删除了 gets() 函数,使用一个新的更安全的函数gets_s()替代。
增加了边界检查函数接口,定义了新的安全的函数,例如 fopen_s(),strcat_s() 等等。
增加了更多浮点处理宏。
匿名结构体/联合体支持。这个在gcc早已存在,C11将其引入标准。
静态断言(static assertions),_Static_assert(),在解释 #if 和 #error 之后被处理。
新的 fopen() 模式,(“…x”)。类似 POSIX 中的 O_CREAT|O_EXCL,在文件锁中比较常用。
新增 quick_exit() 函数作为第三种终止程序的方式。当 exit()失败时可以做最少的清理工作。
1、打开VC6.0软件,新建一个C语言的项目:
2、接下来编写主程序,首先定义用来求阶乘的递归函数以及主函数。在main函数里定义变量sum求和,调用递归函数fact(),并将返回值赋予sum,最后使用printf打印sum的结果,主程序就编写完了:
3、最后运行程序,观察输出的结果。以上就是C语言使用递归求阶乘的写法:
《数据结构》课程设计报告:后序遍历( 用递归和非递归的方法一起都要)
我们的数据结构实验也是这题,需要我把我的实验报告给你参考下么!
我这里就只发这部分的代码。
Status PreOrderTraverse(BiTree T)
{
//先序遍历二叉树T的递归算法
if (T)
{
printf("%d ",T->data);
if(T->lchild) PreOrderTraverse(T->lchild);
if(T->rchild) PreOrderTraverse(T->rchild);
return FALSE;
}
else return OK;
}
Status PreOrder(BiTree T)
{
//先序遍历二叉树T的非递归算法
while(!(T==NULL&&top==NULL))
{
if(T)
{
printf("%d ",T->data);
push(T);
T=T->lchild;
}
else
{
T=(BiTree)pop();
T=T->rchild;
}
}
}
Status InOrderTraverse(BiTree T)
{
//中序遍历二叉树T的递归算法
if (T)
{
if (T->lchild) InOrderTraverse(T->lchild);
printf("%d ",T->data);
if (T->rchild) InOrderTraverse(T->rchild);
return FALSE;
}
else return OK;
}
Status InOrder(BiTree T)
{
//中序遍历二叉树T的非递归算法
while(!(T==NULL&&top==NULL))
{
while(T)
{
push(T);
T=T->lchild;
}
T=(BiTree)pop();
printf("%d ",T->data);
T=T->rchild;
}
}
Status PostOrderTraverse(BiTree T)
{
//后序遍历二叉树T的递归算法
if (T)
{
if (T->lchild) PostOrderTraverse(T->lchild);
if (T->rchild) PostOrderTraverse(T->rchild);
printf("%d ",T->data);
return FALSE;
}
else return OK;
}
Status PostOrder(BiTree T)
{
//后序遍历二叉树T的递归算法
unsigned sign;//记录结点从栈中弹出的次数
while(!(T==NULL&&top==NULL))
{
if(T)
{
push(T);//第一次遇到结点T时压入其指针
push(1);//置标志为1
T=T->lchild;
}
else
{
while(top)
{
sign=pop();
T=(BiTree)pop();
if(1==sign)//表示走过T的左子树
{
push(T);
push(2);
T=T->rchild;
break;
}
else
{
if(2==sign)//表示T的左右子树都已走过
{
printf("%d ",T->data);
T=NULL;
}
}
}
}
}
}
如何学好java语言啊?
很多想学JAVA的小伙伴的一个问题就是我该如何入门?是啊,面对这样的问题我们该如何去做呢,这是摆在很多小伙伴面前的问题。我根据自己多年的编程经验为大家分享自己的看法。
1.看到过好多个这样的提问,其实我一般真的不那么容易分享自己的这点心得的,这是第一次回答这样的“推荐书籍”方面的问题。
我买编程方面的书籍,有一个非常清晰、坚决的原则——电子工业出版社的!
对于JAVA,建议你看如下的书:
首先,《21天学通JAVA》;
然后,《30天学通JAVA项目案例开发》(这本书的内容都是实例的,非常棒的实例!适合初学者的同时,又有实际应用性!)
以上的书籍,是基于你只想学J2SE的。
我还建议你主要攻J2EE方面的知识(在中国,J2SE要高手才能找到工作,而J2SE,只是菜鸟都很可能找到工作),至于J2EE方面的书籍:
首先,《21天学通JAVAWEB开发》
然后,《30天学通JAVAWEB项目开发》
以上都是本人确切的经验来的,绝对没有介绍错
2.我联合互联网上的一群大牛,组建了一个编程的免费学习群,你只需要来我们这个群里听就行,开头的的第一部分是:六三三.,位于中间的第二部分是:425,处于最后一部分的是:005。 这里有免费的学习资源,每天直播课程,不需要你付出什么,只需要有一颗学习的心就可以了。 不是想要学习的就不要加了。
3、动手去写去练
当然只看是很难学会的。我们需要搭建IDE环境来多练习才能完全掌握这些语法。编程学习没有捷径可走,只有入门快慢之分。要学会编程只有coding、coding最后还是coding。
送给那些懦弱的人们
A : 我是护士,我的专业就是护理。我做不了excel、做不了ppt、我学不会ps,好难,我不会写文章。
我: 我学习那么好,写字那么漂亮,编程也不错,ps也挺好、我还能打篮球、我会兵乓求、我会羽毛球、我会足球、我会设计、我会英文。(有的都是高二退学之后自己加强学习的,读书只给了我 算数、识字这些基本的的能力),我特么是神吗?
A : 人人都跟你一样?不是谁都能用很短的时间学很多的东西。
我 :我大概是神吧!你能少看一点 《爸爸去哪儿》、《额滴歌神啊》、《奔跑吧兄弟》吗,今天出了《爸爸去哪》,明天来个《女儿去哪》、《爷爷去哪儿》,你看得完?你能不能看点有用的东西?例如有点启发、让人学到东西的影片或者书?
A:委屈的瘪瘪嘴,那好,我要学习,给我买一本书吧,推荐一下。
我:书到了,学习 吧,一个月后我要看你的成绩。我来考考你
A:好难啊,我好困,我要看一会儿电视.....(然而没然后了....)
其实,这位A同学,极度的懦弱,并不是她不上进,只是那么的懦弱,那么的沉迷于垃圾节目、垃圾书籍,喜欢看不伦不类,不三不四的东西。不明白自己应该要什么,自己怎么做才能得到,认为自己的能力那么的差,做不到
B:大神,我要学node了,推荐一下node的书籍呗
我:恩,入门看一下《node于express开发》吧,然后看看node官网。还有一些博客什么的。当然了,你完全按照那本书,也能做出一些的东西了。最重要的是,要自己动手,去做东西,然后发现问题,解决问题。提升自己。
B:大神,除了那本书,还有别的书吗?
我:书很多,但书不在于多,而是,你能否理解了,并且能运用了?你看完了吗?
B:我感觉很难做,node好难。
我:做做项目,搜搜Google、看看github。
而今,我不知道这位同学水平到底到了什么水平,我想,应该不会太好,最终原因,我想是因为没有深入的去折腾,没有去写代码,没去发现自己的问题
其实,我们的潜力很大,我们能学的更好。我们能掌握的更多,但是许多人都做不到坚持、做不到深入。不肯思考,不肯的动手,是阻碍我们进步的最大原因。
后记:
人,应该要明确自己的目标,拥有理想。
人,重要的不是你站在哪里,而是你往哪个方向前进。
无论何时,不管你已经得到了多少,拥有了多少。都不是堕落的理由。
对于不肯上进,没意志力的人来说,等于是,你想死,任何人都救不了你!
感谢自己,感谢自己没有继续读大学。感谢自己在读书时代已经养成了独立思考,喜欢折腾的习惯。
黑马程序员
一些学习步骤,可以参考一下
学习Java的第一步是安装好JDK,写一个Hello ?World,其实JDK的学习没有那么简单,关于JDK有两个问题是很容易一直困扰Java程序员的地方:一个是CLASSPATH的问题,其实从原理上来说,是要搞清楚JRE的ClassLoader是如何加载Class的;另一个问题是package和import问题,如何来寻找类的路径问题。把这两个问题摸索清楚了,就扫除了学习Java和使用JDK的最大障碍。
第二步是学习Java的语法。Java的语法是类C++的,基本上主流的编程语言不是类C,就是类C++的,没有什么新东西,所以语法的学习,大概就是半天的时间足够了。唯一需要注意的是有几个不容易搞清楚的关键字的用法,public,protected,private,static,什么时候用,为什么要用,怎么用,这可能需要有人来指点一下。
第三步是学习Java的面向对象的编程语言的特性的地方。比如继承,构造器,抽象类,接口,方法的多态,重载,覆盖,Java的异常处理机制。对于一个没有面向对象语言背景的人来说,我觉得这个过程需要花很长很长时间,因为学习Java之前没有C++的经验,只有C的经验,我是大概花了一个月左右吧,才彻底把这些概念都搞清楚,把书上面的例子反复的揣摩,修改,尝试,把那几章内容反复的看过来,看过去,看了不下5遍,才彻底领悟了。不过我想如果有C++经验的话,应该一两天时间足够了。
第四步就是开始熟悉Java的类库。Java的基础类库其实就是JDK安装目录下面jre/lib/rt.jar这个包。学习基础类库就是学习 rt.jar。基础类库里面的类非常非常多。据说有3000多个,我没有统计过。但是真正对于我们来说最核心的只有4个,分别是
java.lang.*;
java.io.*;
java.util.*;
java.sql.*;
这四个包的学习,每个包的学习都可以写成一本厚厚的教材,而O'reilly也确实是这样做的。我觉得如果时间比较紧,是不可能通过读四本书来学习。我觉得比较好的学习方法是这样的:
首先要通读整个package的框架,了解整个package的class,interface,exception的构成,最好是能够找到介绍整个包框架的文章。这些专门介绍包的书籍的前几章应该就是这些总体的框架内容介绍。
对包整体框架的把握并不是要熟悉每个类的用法,记住它有哪些属性,方法。想记也记不住的。而是要知道包有哪些方面的类构成的,这些类的用途是什么,最核心的几个类分别是完成什么功能的。我在给人培训的时候一般是一次课讲一个包,所以不可能详细的介绍每个类的用法,但是我反复强调,我给你们讲这些包的不是要告诉你们类的方法是怎么调用的,也不要求你们记住类的方法调用,而是要你们了解,Java给我们提供了哪些类,每个类是用在什么场合,当我遇到问题的时候,我知道哪个类,或者哪几个类的组合可以解决我的问题,That'all!,当我们具体写程序的时候,只要你知道该用哪个类来完成你的工作就足够了。编码的时候,具体的方法调用,是边写代码,边查Documentation,所有的东西都在Documentation里面,不要求你一定记住,实际你也记不住3000多个类的总共将近10万个方法调用。所以对每个包的总体框架的把握就变得极为重要。
第五步,通过上面的学习,如果学的比较扎实的话,就打好了Java的基础了,剩下要做的工作是扫清Documentation里面除了上面4个包之外的其他一些比较有用处的类。相信进展到这一步,Java的自学能力已经被培养出来了,可以到了直接学习Documentation的水平了。除了要做GUI编程之外,JDK里面其他会有用处的包是这些:
java.text.*;
java.net.*;
javax.naming.*;
这些包里面真正用的比较多的类其实很少,只有几个,所以不需要花很多时间。
第六步,Java Web 编程
Web编程的核心是HTTP协议,HTTP协议和Java无关,如果不熟悉HTTP协议的话,虽然也可以学好Servlet/JSP编程,但是达不到举一反三,一通百通的境界。所以HTTP协议的学习是必备的。如果熟悉了HTTP协议的话,又有了Java编程的良好的基础,学习Servlet/JSP简直易如反掌,我学习Servlet/JSP就用了不到一周的时间,然后就开始用JSP来做项目了。
在Servlet/JSP的学习中,重头仍然是Servlet Documentation。Servlet API最常用的类很少,花比较少的时间就可以掌握了。把这些类都看一遍,多写几个例子试试。Servlet/JSP编程本质就是在反复调用这些类来通过 HTTP协议在Web Server和Brower之间交谈。另外对JSP,还需要熟悉几个常用JSP的标记,具体的写法记不住的话,临时查就是了。
此外Java Web编程学习的重点要放在Web Application的设计模式上,如何进行业务逻辑的分析,并且进行合理的设计,按照MVC设计模式的要求,运用Servlet和JSP分别完成不同的逻辑层,掌握如何在Servlet和JSP之间进行流程的控制和数据的共享,以及Web Application应该如何配置和部署。
第七步,J2EE编程
以上的学习过程如果是比较顺利的话,进行到这一步,难度又陡然提高。因为上面的知识内容都是只涉及一个方面,而像EJB,JMS,JTA等核心的J2EE规范往往是几种Java技术的综合运用的结晶,所以掌握起来难度比较大。
首先一定要学习好JNDI,JNDI是App Server定位服务器资源(EJB组件,Datasouce,JMS)查找方法,如果对JNDI不熟悉的话,EJB,JMS这些东西几乎学不下去。 JNDI其实就是javax.naming.*这个包,运用起来很简单。难点在于服务器资源文件的配置。对于服务器资源文件的配置,就需要看看专门的文档规范了,比如web.xml的写法,ejb-jar.xml的写法等等。针对每种不同的App Server,还有自己的服务资源配置文件,也是需要熟悉的。
然后可以学习JTA,主要是要理解JTA对于事务的控制的方法,以及该在什么场合使用JTA。这里可以简单的举个例子,我们知道一般情况可以对于一个数据库连接进行事务控制(conn.setAutoCommit (false),....,conn.commit()),做为一个原子操作,但是假设我的业务需求是要把对两个不同数据库的操作做为一个原子操作,你能做的到吗?这时候只能用JTA了。假设操作过程是先往A数据库插一条记录,然后删除B数据库另一个记录,我们自己写代码是控制不了把整个操作做为一个原子操作的。用JTA的话,由App Server来完成控制。
在学习EJB之前要学习对象序列化和RMI,RMI是EJB的基础。接着学习JMS和EJB,对于EJB来说,最关键是要理解EJB是如何通过RMI来实现对远端对象的调用的,以及在什么情况下要用到EJB。
在学习完EJB,JMS这些东西之后,你可能会意识到要急不可待学习两个领域的知识,一个是UML,另一个是Design Pattern。Java企业软件的设计非常重视框架(Framework)的设计,一个好的软件框架是软件开发成功的必要条件。在这个时候,应该开始把学习的重点放在设计模式和框架的学习上,通过学习和实际的编程经验来掌握EJB的设计模式和J2EE的核心模式。
就从基础开始说起
Javase
Java基础所包含的,Java零基础必备安装包、JavaSE301集、Java教程零基础2019、Java教程零基础2019(ava基础语法、面向对象、异常、数组、常用类、集合、IO流、线程、反射机等等)、XML、Tomcat服务器开发;其中Java零基础2019这视频教程系列可以去B站观看。搜索Java或者Java教程,第一个就是,杜老师讲的,比较细致。
JavaWeb前端教程
HTML、CSS、JavaScript、jQuery、Ajax;(包含讲义、课堂笔记、源码、工具等等,一应俱全。)
Java数据库
MySQL、Oracle、PLSQL、JDBC
JavaWeb
Eclipse快捷键与下载安装、Tomcat9配置和使用、JavaWeb开发基础、Servlet编程、JSPSession&Cookie、监听器、过滤器、文件上传和下载、Servlet3.0特性
JavaWeb项目
二手车、电商竞拍平台、EGOV项目、微信支付开发
Java流行框架
SSH之JDK动态代理、SSH之CGLIB代理、SSH之JUnit4、SSH之Log4j、SSH之Struts2、SSH之Spring4、SSH之Hibernate5、SSH框架整合技术、SSM之Adapter设计模式、SSM之SpringMVC、SSM之Spring4、SSM之MyBatis、SSM框架整合技术
前沿技术
IntelliJ IDEA、SpringBoot、linux系统安装教程、SVN、Maven、Redis、Dubbo
学生毕业设计
宿舍管理系统、库存管理系统、图书馆管理系统、学生成绩管理系统、医院分诊管理考试管理系统
王勇老师Java教程
Struts1、Struts2、SpringHibernate、EJB、DRP分销资源计划项目(这个教程系列比较经典,可以当做参考学习)
学习Java有以上教程就足够了,而这些学习资源皆可在“动力节点视频课程页面”下载到
楼主,学习java,j2se只是基础,你的基础是为后来的javaweb开发做铺垫的,j2ee才是java最最重要的方向(就是javaweb)。
我已经工作一年半了,因为以前也有你这样的迷惑,我就告诉你我的学习经验,首先可以看张孝祥或者孙鑫的java基础视频,也可以自己看一本基础书,比如java core ,强烈建议这时候不要看thinking in java(因为不适合初学者,等你有一定深度的时候再看),一定要对java最基础的应用有一定的掌握,比如IO包,util包的集合类(必须要很熟练),math包,lang包要要比较熟练,还有awt就不用看了,因为j2se的桌面系统软件的界面非常槽糕,从来不登大雅之堂。
java基础好了后就要学习jsp和servlet了,这是j2ee编程的基础,一定要好好学,推荐看魔乐在线的j2ee教程,非常好,到讯雷搜搜,然后就是学习框架了,在学之前要懂一点点xml语言,不需要深,因为你的struts,spring, hibernate框架会用到它,还有如果你以后要开发的话这三个框架一定要掌握,由容易到难struts--->spring-----> hibernate我现在开发快两年了,基本上现在的软件公司都要用到这三个框架中的两个以上,javascript(浏览器脚本语言,可以实现一些客户端网页的验证,一些特效不需要非常精通,但是你要有些实例,要用的时候ctrl+c, ctrl+v上去,有时后需要小修改,所以要懂些),然后如果你要美化界面的话你可能要学点css,如果还要加强客户端功能的话,Ajax也是需要的(个人经验不一定需要,但是精通的人绝对高薪),如果你以后特别牛的话,还要有点 WebSevice和soap的知识,如果你要和其它语言(.net,c#)通信和远程调用的话。
查不多就这些了,学习是循序渐进的过程,漫慢来,楼主能有好的培训公司就去吧,搞软件环境很重要!!祝你好运!
三人行必有我师,人生是需要不断学习的,在这里我们相遇就是缘分,希望各位可以看完这篇文章,也欢迎大家在下面留言讨论,天冷了,也动动手指转发收藏一下,谢谢大家!
java的话,在编程语言里面算是比较容易学的,要达到找工作的要求,知识点的话,基本上学完javaee部分就差不多可以了。当然这是初级程序员,但至少也可以找个差不多的工作了,要想再提升,那就得多学新的知识了。
1.掌握静态方法和属性
静态方法和属性用于描述某一类对象群体的特征,而不是单个对象的特征。Java中大量应用了静态方法和属性,这是一个通常的技巧。但是这种技巧在很多语言中不被频繁地使用。理解静态方法和属性对于理解类与对象的关系是十分有帮助的,在大量的Java规范中,静态方法和属性被频繁使用。因此学习者应该理解静态方法和属性。Java在方法和属性的调用上是一致的,区别只表现在声明的时候,这和c++是不同的。
2学好集合框架
Java描述复杂数据结构的主要方式是集合框架。Java没有指针,而是通过强大的集合框架描述数组、对象数组等复杂的数据结构。学好这些数据结构的描述方法对于应用程序编写,特别是涉及到服务器方、3层结构编程至关重要。程序员在这个时候不能再用诸如数据库结果集之类的结构描述数据了。
由于很多语言没有这么强大的集合框架体系,很多初学者不知所措,更不知道拿来做什么用,因此应该引起足够的重视。
3重视接口
在面向对象早期的应用中大量使用了类继承。随着软件工程理论的不断发展,人们开始意识到了继承的众多缺点,开始努力用聚合代替继承。软件工程解决扩展性的重要原则就是抽象描述,直接使用的工具就是接口。接口近年来逐渐成为Java编程方法的核心。另一方面,就应用而言,大部分开发是建立在规范基础之上的,不需要自己建立复杂的继承关系和庞大的类。因此读懂规范和用好规范已经成为应用程序开发人员的首要任务,Java各项规范的主要描述手段就是接口。
4多线程需要理解机理
很多java程序员热衷于多线程程序编写,认为是对逻辑能力的挑战。其实在大量应用中根本就不需要编写多线程程序,或者说大多数编写应用程序的程序员不会去写多线程程序。这是因为多线程机制都内置到基础平台当中了。
程序员应该了解的是多线程原理和多线程安全,这对于今后准确地把握程序是至关重要的。例如JSP中编写到不同的位置对于多个用户环境的安全影响完全不同,又如着名的Super Servlet是每一个访问作为一个进程,但是每一个页面是一个线程,和Servlet正好相反,对程序的性能和安全的影响有天壤之别。
这些是在学java过程中应该重视的部分。至于英语差,这些都关系不大,只是步入初级程序员行列还是可以的,关于自学还是培训的问题,看自己条件了,要是有半年左右时间来供自己静心学的话,自学也可以,要是没那么多时间的话,培训也是不错的。
建议一:有系统的学习方案,系统的学习教程,先把Java学了一遍之后才是真正的入门,然后就是不断的练习,不断的巩固,为之后的工作打下坚实的基础。
建议二:学习Java不要先看书学,一定要先把一块的知识点学完一遍,并且自己多多少少会动手操作,然后去看书温习。还有不要盲目的看视频,很多人都是光看视频,然后在心里没有一个操作的概念,这样的学习方法最后一定会浪费时间到放弃,所以学习Java之前一定要知道这些东西,这都是走过来的人以前走的弯路。
建议三:很多人都会有一个疑问,就是学习Java能看懂,但是不会写,所以学习Java一定要掌握一个有效率的学习方法,一个适合自己的学习方法,作为一个新人,千万不要自己瞎摸索,没有必要,可以请教别人一定要去问。
建议四:一定要有一个明白人去指导你,Java的专业程度很强,80%的问题自己很难解决,而且会很浪费时间,一个小问题可以困扰一天,这样自信心会受到严重的打击,如果没有人指导,可以加我
学习Java的四个阶段:
一:Javase基础
二:网页三剑客html+css+js
三:JavaWeb和数据库:
四:JavaEE框架:企业级开发,Struts2、Spring框架、Hibernate框架、Maven核心技术、MyBaits框架、高手进阶;
如果找不到学习资源,可以点击这里下载。
当你学完了Java,应该如何去找工作?
一.最重要的还是自身技能,这是硬件标准,标配,自己能力怎么样自己心里最清楚,如果自己都觉得自己不会的,我觉得还是好好提升技术吧。
二.简历,写简历需要有一定的学问,一篇要把你所有的优势说明白,而且现在写简历,千万不可以写的太死板,一定要写的另类一些,因为简历太多,比如你写,喜欢学习,性格随和,等等太普遍,你会写别人也会写,没有新意,而且在写项目经历的时候更要注意。
三.面试技巧,面试是最重要的一部分,你是否能应聘成功取决你面试怎么样,面试官都是一些经验老道的,所以你回答他问题的时候要注意技巧,比如:当他问道你一个异常的时候的,你不会,但是你不要说不会,你可以说之前我遇到过,但是现在忘了,如果我遇到可以解决等等。当然了,如果你自己很NB,会很多东西,信心十足,你自然会面试成功,所有的一切取决于你的本领如何。
希望可以帮助到大家,对于学习Java行业任何问题,可以随时私信我,希望大家学有所成,早日高薪