龙竹清 龙竹清
关注数: 49 粉丝数: 67 发帖数: 2,227 关注贴吧数: 37
你当上班任老师以后需要做好的几件事是什么? 各位评委好!如果我有幸当上了班主任,会积极努力做好本职工作,充分利用好各方面优势,把班级的学习成绩和经济水平统统搞上去。   第一件事,开展调查研究。立刻着手调查班级里各位学生家长(包括他们的七大姑八大姨)的工作单位、职务和家庭生活状况(主要是存款余额)。给他们分别登记造册,家长是领导干部的登记在红色手册;家长是大款的登记在金色手册;家长是社会流氓的登记在黑色手册;家长是老百姓的登记灰色手册;家长是穷光蛋的登记在白色手册。以后我办私事就找红色学生办;缺钱了找金色学生借;和市场上卖菜的小贩打架时找黑色学生报仇;拉赞助、搞“宣传秀”时利用灰色和白色学生的家庭状况,做到以穷生财。同时,为了使这个集体更有凝聚力,在班级形成相互关心的良好氛围,我会把我的生日,还有我爱人的、我爸爸妈妈的、爷爷奶奶的(如果你有爷爷奶奶的话)、儿子女儿的生日,还有我的结婚纪念日,我升学的、毕业的、参加工作的纪念日....(如果还有有什么想纪念的都说上)印在纸条上发给同学们,我会在这些喜庆的日子里召集他们一起欢庆,沟通师生感情。   第二件事,分类管理,科学排序。排座位的时候红色、金色、黑色学生先排到最后几排,等家长送礼之后再排到前面。请评委放心,我一定会在私下里端平这碗水,送礼多的学生决不能因为长得丑、调皮捣蛋就给排到后面;不送礼的也决不能因为人品好就给排到前面(要做坚定、正义状)。那些没什么背景的白色和灰色学生实际上是我班级的负担,其中个别学习好的将来可以让我扬名立万,自然应该照顾;对于成绩一般的,可以作为我在家被爱人打骂以后的出气筒,对他们该骂就骂,该扁就扁,丝毫不用手下留情(此处要做愤恨状,咬牙,并且最好把牙露出来),反正他们也没什么能耐!被爱人和领导骂以后我一定会保持清醒,确保决不会打骂红、金、黑学生,因为那样只会给校领导和教委领导惹麻烦(此处需要谄媚地笑,语气要轻柔),我以自己的饭碗向毛主席保证:只欺负那些家里没能耐的学生!请各位评委放心。   第三件事,认真考察,打造一个优秀的班委会领导集体。不着急任命班干部,让学生家长公平竞争。在这个问题上,一定要民主,要竞争,不能随便任人唯亲,避免造成班级干部一点经济实力和政治实力也没有,工作起来没有力度。入党入团的情况我会严格遵照上面的原则。   第四件事,以人为本,搞好经济建设。(此处重点论述)   要解放思想,放心大胆地接受学生在我的各个喜庆日子来临时一片赤诚心意。各位评委,我认为,不收礼会给学生及家长造成沉重的思想负担!所以我要勇敢地把这个负担留给自己,让学生以愉快的心情投入到学习中去。如果有怪异的学生以各种理由过节不送礼(此时要流露出严重鄙视的表情),对他们的态度则一定要明朗化,避免矜持暧昧令人难懂:一要冷言冷语;二要上课不提问;三要立刻把座位换后边去,想调回前面,少了500块是不行的;四要鸡蛋里挑骨头,总得找个机会大声训斥几句,可以借机做一下心理按摩,自己舒缓一下心情,以利于继续投入到教书育人的辛苦工作中去。   大力倡导各类辅导材料、练习册、补习班进入班级。辅导书种类越多越好,利润越大越好,学习资料的质量无所谓,因为这些课本上已经有了,不会影响学生的学习成绩,请各位评委放心。我办的补习班肯定人人参加,因为我在讲课的时候,会故意不好好讲,等到补习班时再给他们讲。谁不参加补习,就得跟不上!(此处要窃笑,表情必须淫贱一些,充分体现出得意之情,如此才能得到评委的认可)   搞好经济建设的同时,我不会忘记搞好和校领导和年部主任的关系。为了不用自己掏腰包,我“收礼只收人民币”,这样可以节约资金,集约管理,可投校领导和年部主任之所好,想送什么就送什么,想送多少就送多少。避免出现学生送了一双皮鞋,我自己穿嫌太贵,送领导又不舍得的尴尬局面。   第五件事,采取一切必要手段,提高我班级的学习成绩。尊敬的各位评委,我是三国演义的忠实读者,学以致用,在学校的教学实践中大使各类奇计。首先要通过各类渠道和各种手段争取到一个好学生多的班级,如果不成功,就用诸葛亮收复马超的计策把年部各班的好学生搞过来--分化瓦解其他班成绩好的学生和他们班主任的关系,想方设法把他们扣到我的班级。还要学习曹操利用许褚杀许攸于无形中的妙计(此处淫笑,表情神秘),赶走劣等生--对拖我班级后腿的劣等生要加大耻辱教育的力度,天天侮辱刺激他们,唧鼻酸脸地恶搞他们,让其他学生欺负他们,迫使之离开我的班级。还要尽量全天占用自习,不让其他科的老师得了便宜,这样,我教的科才能胜过那些可怜的不是班任的老师。同时,更要加大力度讽刺、挖苦、离间、暗算那些教学成绩好的班主任,让他们天天苦恼,没有心思教课,最后导致他们班级成绩一落千丈,使我的班级学习成绩鹤立鸡群(做踌躇满志状)。   尊敬的各位评委,我会从自身做起,认真落实国家尊师重教的大政方针,为人师表,充分利用好现有的资源,决不放过任何机会...通过 ...把学生及家长的潜能全部挖掘出来,把他们的.......为.... ...作出突出的贡献!谢谢!
在看完神经网络时间序列分析视频后动手做了下,想问接着怎么预测 % Solve an Autoregression Time-Series Problem with a NAR Neural Network % Script generated by NTSTOOL % Created Wed Jan 30 16:05:43 CST 2013 % % This script assumes this variable is defined: % % X_t - feedback time series. targetSeries = tonndata(X_t,false,false); % Create a Nonlinear Autoregressive Network feedbackDelays = 1:2; hiddenLayerSize = 15; net = narnet(feedbackDelays,hiddenLayerSize); % Choose Feedback Pre/Post-Processing Functions % Settings for feedback input are automatically applied to feedback output % For a list of all processing functions type: help nnprocess net.inputs{1}.processFcns = {'removeconstantrows','mapminmax'}; % Prepare the Data for Training and Simulation % The function PREPARETS prepares timeseries data for a particular network, % shifting time by the minimum amount to fill input states and layer states. % Using PREPARETS allows you to keep your original time series data unchanged, while % easily customizing it for networks with differing numbers of delays, with % open loop or closed loop feedback modes. [inputs,inputStates,layerStates,targets] = preparets(net,{},{},targetSeries); % Setup Division of Data for Training, Validation, Testing % For a list of all data division functions type: help nndivide net.divideFcn = 'dividerand'; % Divide data randomly net.divideMode = 'time'; % Divide up every value net.divideParam.trainRatio = 70/100; net.divideParam.valRatio = 15/100; net.divideParam.testRatio = 15/100; % Choose a Training Function % For a list of all training functions type: help nntrain net.trainFcn = 'trainlm'; % Levenberg-Marquardt % Choose a Performance Function % For a list of all performance functions type: help nnperformance net.performFcn = 'mse'; % Mean squared error % Choose Plot Functions % For a list of all plot functions type: help nnplot net.plotFcns = {'plotperform','plottrainstate','plotresponse', ... 'ploterrcorr', 'plotinerrcorr'}; % Train the Network [net,tr] = train(net,inputs,targets,inputStates,layerStates); % Test the Network outputs = net(inputs,inputStates,layerStates); errors = gsubtract(targets,outputs); performance = perform(net,targets,outputs) % Recalculate Training, Validation and Test Performance trainTargets = gmultiply(targets,tr.trainMask); valTargets = gmultiply(targets,tr.valMask); testTargets = gmultiply(targets,tr.testMask); trainPerformance = perform(net,trainTargets,outputs) valPerformance = perform(net,valTargets,outputs) testPerformance = perform(net,testTargets,outputs) % View the Network view(net) % Plots % Uncomment these lines to enable various plots. %figure, plotperform(tr) %figure, plottrainstate(tr) %figure, plotresponse(targets,outputs) %figure, ploterrcorr(errors) %figure, plotinerrcorr(inputs,errors) % Closed Loop Network % Use this network to do multi-step prediction. % The function CLOSELOOP replaces the feedback input with a direct % connection from the outout layer. netc = closeloop(net); [xc,xic,aic,tc] = preparets(netc,{},{},targetSeries); yc = netc(xc,xic,aic); perfc = perform(net,tc,yc) % Early Prediction Network % For some applications it helps to get the prediction a timestep early. % The original network returns predicted y(t+1) at the same time it is given y(t+1). % For some applications such as decision making, it would help to have predicted % y(t+1) once y(t) is available, but before the actual y(t+1) occurs. % The network can be made to return its output a timestep early by removing one delay % so that its minimal tap delay is now 0 instead of 1. The new network returns the % same outputs as the original network, but outputs are shifted left one timestep. nets = removedelay(net); [xs,xis,ais,ts] = preparets(nets,{},{},targetSeries); ys = nets(xs,xis,ais); closedLoopPerformance = perform(net,tc,yc)
1 下一页