暗影零号
暗影零号
人会在痛苦中成长,当人承受了超越常人的痛苦之后,没错………
关注数: 25
粉丝数: 429
发帖数: 14,435
关注贴吧数: 60
安装新版本YDWE,然后WE打不开了、、报错 正在从旧电脑,重新拷war3
作图没创意、、、无动力、、、、、 怎么办
wow吧的人真敢乱说,北京考清华550?脑子有翔? 去年清华大学录取线651,北大也650+ 我承认北京的分数线和题的难度和其他省一比不算高,但是也不算低,不能这么诽谤吧 ? 我们一本好考是因为北京市一本多,自然好考,各个省都是区域保护的。 我二模629分,报的北航,今年刚考完高考。
北京先报志愿、、、、 现在一阵一阵忐忑、、、 但是不用估分了、、、
北京东城出题人、我服了、 0到1小时停车概率1/2 1到2小时停车概率1/4 你妹 到底是<选择在1到2小时停车>的概率 还特么是在1到2小时内<停车>的概率、 敢不在题里搞歧义句么? 老子的140分直线降到130以下、
问一个关于相对论的问题 一群人坐着地球以0.9倍光速的速度远离飞船,并且是匀速直线运动。那么,地球上的人是比飞船上人年轻呢还是老呢 = =
几个小问题、只想了解一下、 狭义相对论的三个基本结论:尺缩、时缓、质增、、、还有质能方程、观测到的有几个、验证在数值上基本完全符合公式的有几个、是哪几个、
预言、真正的公式 1、时钟公式:t=t0/(1-v/c) 2、质量:m=m0/(1-v/c) 3、长度不会收缩 4、质能E=(m*c^2)/2
我想向大家请教一个问题、、相对论实验的 现在长度收缩、时钟延缓、质量增大、质能方程、四个公式被观测到的有哪几个、验证完全符合公式的有几个?、、、能不能给个链接或者粘过来让我学习一下、、、
要和谐、、、 各有喜好、各有偏见、没必要为了个平台不和谐、、、
马上就高考了(ーー;) 啊、也就考个北航了、、 自主招生太二缺了、咱去了的比没去的加分还少、果断不考了、、内学校我还嫌差呢、本来是想减轻点压力(ーー;) 、现在果断要好好学了、
瞎- -进入复试的只有北理工、、、
如果北京真的能500多分考北大就好了= = 外地人是不是网络不怎么发达= =
不到一年没来。吧主全部阵亡?现在这个是谁?
问各位大牛一个关于BP神经网络的问题 一个神经元的激励函数对神经网络的意义在哪里?对网络的拟合性能有无影响?书上都没有写。。。 我昨天吧代码发上来求查错、、今天又照着书上的文字解释对了三遍、、最终觉得还是没有问题。但是我发现、当我把激励函数选成y=kx时,就只能拟合线性的数据,当我把函数设计成sigmoid函数(tanh)时,就拟合不了线性的数据。也就是说,拟合性能和能拟合的数据类型被激励函数控制了,这正常么?如果不正常,是哪里出了问题呢?
BPNeuronNetWorker for itouch/iphone就差内核没有修好啦、、、 求帮忙
BP程序求查错、、 我写了一个BP神经网络,但是在训练的时候发现训练起来不是那么回事,很混乱,基本不能成功。把有关部分源码放上来大家帮我看看哪里写的不对,谢谢! 我用的是objective-C,基本和C意思一样,希望不造成阅读嶂碍。 // // NeuronNetWork.h // net work // // Created by —————— on 12-1-19. // Copyright (c) 2012年 __MyCompanyName__. All rights reserved. // #import <Foundation/Foundation.h> @interface NeuronNetWork : NSObject { @public double KBetweenNeurons[15][25][15][25];//记录第a层第b个神经元与第c层第d个神经元的权值。 double LearnSpeed;//学习速率 double Momentum;//动量项 double KCBetweenNeuronsLast[15][25][15][25]; //上次学习时权值的变化量 int NumberOfStage;//层的数量 int NumberOfNeuron[100];//各层神经元的数量 double ResultOfNeuron[100][100];//神经元最后一次运算时神经元的输出 int FunctionUsed;//使用的阈值函数 double Threshold;//神经元阈值 int NumberOfData;//训练样本数 double DataInput[100][10];//记录输入样本,第a个样本的第b个输入 double DataOutput[100][10];//记录输出样本 double Input[100];//记录输入 double OutPut[100];//记录输出 double KA;//阈值函数中的一个参数 double KSD;//宽松度-当误差平方除以二的平均值小于宽松度时训练结束 double grads[10][20];//各神经元最后一次运算后的局部梯度,用来反馈调节时使用 double InsertOfNeuron[100][100];//最后一次运算时神经元的输入 BOOL iflearning;//判断是否在学习 } -(void)learn;//开始学习 -(void)ChangeK;//改变神经元之间的权值 -(void)clear;//初始化 -(id)init;//也是初始化 -(double)F1:(double)x;//阈值函数1 -(double)F2:(double)x;//阈值函数2 -(double)F3:(double)x;//阈值函数3 -(double)F4:(double)x;//阈值函数4 -(double)F1D:(double)x;//阈值函数1导函数 -(double)F2D:(double)x;//阈值函数2导函数 -(double)F3D:(double)x;//阈值函数3导函数 -(double)F4D:(double)x;//阈值函数4导函数 -(double)FD:(double)x;//调用阈值函数导函数,自动判断应该调用哪个 -(void)LoadLearnDataInput:(int)learn;//从第learn个样本中读取输入到神经网络的输入区域 -(void)RunForStage:(int)stage;//单层运转神经网络,用于被运转函数调用 -(void)run;//运转神经网络 -(double)GetDelta:(int)Learn;//得到误差平方除以二的平均值 -(void)CaculateGrads:(int)learn;//计算据部梯度 -(void)CZXL;//重新更新所有权值 @end // // NeuronNetWork.m // net work // // Created by —————— on 12-1-19. // Copyright (c) 2012年 __MyCompanyName__. All rights reserved. // #import "NeuronNetWork.h" @implementation NeuronNetWork
求BP程序查错 我写了一个BP神经网络,但是在训练的时候发现训练起来不是那么回事,很混乱,基本不能成功。把有关部分源码放上来大家帮我看看哪里写的不对,谢谢! 我用的是objective-C,基本和C意思一样,希望不造成阅读嶂碍。 // // NeuronNetWork.h // net work // // Created by —————— on 12-1-19. // Copyright (c) 2012年 __MyCompanyName__. All rights reserved. // #import <Foundation/Foundation.h> @interface NeuronNetWork : NSObject { @public double KBetweenNeurons[15][25][15][25];//记录第a层第b个神经元与第c层第d个神经元的权值。 double LearnSpeed;//学习速率 double Momentum;//动量项 double KCBetweenNeuronsLast[15][25][15][25]; //上次学习时权值的变化量 int NumberOfStage;//层的数量 int NumberOfNeuron[100];//各层神经元的数量 double ResultOfNeuron[100][100];//神经元最后一次运算时神经元的输出 int FunctionUsed;//使用的阈值函数 double Threshold;//神经元阈值 int NumberOfData;//训练样本数 double DataInput[100][10];//记录输入样本,第a个样本的第b个输入 double DataOutput[100][10];//记录输出样本 double Input[100];//记录输入 double OutPut[100];//记录输出 double KA;//阈值函数中的一个参数 double KSD;//宽松度-当误差平方除以二的平均值小于宽松度时训练结束 double grads[10][20];//各神经元最后一次运算后的局部梯度,用来反馈调节时使用 double InsertOfNeuron[100][100];//最后一次运算时神经元的输入 BOOL iflearning;//判断是否在学习 } -(void)learn;//开始学习 -(void)ChangeK;//改变神经元之间的权值 -(void)clear;//初始化 -(id)init;//也是初始化 -(double)F1:(double)x;//阈值函数1 -(double)F2:(double)x;//阈值函数2 -(double)F3:(double)x;//阈值函数3 -(double)F4:(double)x;//阈值函数4 -(double)F1D:(double)x;//阈值函数1导函数 -(double)F2D:(double)x;//阈值函数2导函数 -(double)F3D:(double)x;//阈值函数3导函数 -(double)F4D:(double)x;//阈值函数4导函数 -(double)FD:(double)x;//调用阈值函数导函数,自动判断应该调用哪个 -(void)LoadLearnDataInput:(int)learn;//从第learn个样本中读取输入到神经网络的输入区域 -(void)RunForStage:(int)stage;//单层运转神经网络,用于被运转函数调用 -(void)run;//运转神经网络 -(double)GetDelta:(int)Learn;//得到误差平方除以二的平均值 -(void)CaculateGrads:(int)learn;//计算据部梯度 -(void)CZXL;//重新更新所有权值 @end // // NeuronNetWork.m // net work // // Created by —————— on 12-1-19. // Copyright (c) 2012年 __MyCompanyName__. All rights reserved. // #import "NeuronNetWork.h" @implementation NeuronNetWork
问一个关于BP神经网络的问题= =不知到算不算一个问题 我写了一个BP神经网络,但是在训练的时候发现训练起来不是那么回事,很混乱,基本不能成功。把有关部分源码放上来大家帮我看看哪里写的不对,谢谢! 我用的是objective-C,基本和C意思一样,希望不造成阅读嶂碍。 // // NeuronNetWork.h // net work // // Created by —————— on 12-1-19. // Copyright (c) 2012年 __MyCompanyName__. All rights reserved. // #import <Foundation/Foundation.h> @interface NeuronNetWork : NSObject { @public double KBetweenNeurons[15][25][15][25];//记录第a层第b个神经元与第c层第d个神经元的权值。 double LearnSpeed;//学习速率 double Momentum;//动量项 double KCBetweenNeuronsLast[15][25][15][25]; //上次学习时权值的变化量 int NumberOfStage;//层的数量 int NumberOfNeuron[100];//各层神经元的数量 double ResultOfNeuron[100][100];//神经元最后一次运算时神经元的输出 int FunctionUsed;//使用的阈值函数 double Threshold;//神经元阈值 int NumberOfData;//训练样本数 double DataInput[100][10];//记录输入样本,第a个样本的第b个输入 double DataOutput[100][10];//记录输出样本 double Input[100];//记录输入 double OutPut[100];//记录输出 double KA;//阈值函数中的一个参数 double KSD;//宽松度-当误差平方除以二的平均值小于宽松度时训练结束 double grads[10][20];//各神经元最后一次运算后的局部梯度,用来反馈调节时使用 double InsertOfNeuron[100][100];//最后一次运算时神经元的输入 BOOL iflearning;//判断是否在学习 } -(void)learn;//开始学习 -(void)ChangeK;//改变神经元之间的权值 -(void)clear;//初始化 -(id)init;//也是初始化 -(double)F1:(double)x;//阈值函数1 -(double)F2:(double)x;//阈值函数2 -(double)F3:(double)x;//阈值函数3 -(double)F4:(double)x;//阈值函数4 -(double)F1D:(double)x;//阈值函数1导函数 -(double)F2D:(double)x;//阈值函数2导函数 -(double)F3D:(double)x;//阈值函数3导函数 -(double)F4D:(double)x;//阈值函数4导函数 -(double)FD:(double)x;//调用阈值函数导函数,自动判断应该调用哪个 -(void)LoadLearnDataInput:(int)learn;//从第learn个样本中读取输入到神经网络的输入区域 -(void)RunForStage:(int)stage;//单层运转神经网络,用于被运转函数调用 -(void)run;//运转神经网络 -(double)GetDelta:(int)Learn;//得到误差平方除以二的平均值 -(void)CaculateGrads:(int)learn;//计算据部梯度 -(void)CZXL;//重新更新所有权值 @end // // NeuronNetWork.m // net work // // Created by —————— on 12-1-19. // Copyright (c) 2012年 __MyCompanyName__. All rights reserved. // #import "NeuronNetWork.h" @implementation NeuronNetWork
〔-新春新年快乐-〕新春祝福活动〔-大家都来玩玩吧-〕 嗯,大家来把祝福的话、祝贺春节的话、任何你想说得话都发在这里吧。 大家尽量给填成诗词。 直接发也可以。 在新的一年祝大家:心想事成!有妹子的结婚!结了婚的生孩子!没妹子的找到妹子!对妹子不感兴趣的找到机油!找不到的手纸够用!
BP很强大,现在的人完全搞错使用方法了 我突然觉得把输入和输出接口再互相链接起来,然后把学习和计算的两步放在一起。学习过程中的输出也作为输出返回给输入。就有意想不到的效果,而不是用这种东西来拟合多次函数、、
新买了两本书 神经心理学 - 人民大学出版社 人工神经网络原理及仿真实例 - 机械工业出版社
今天以一种十分特殊的方式知梦并且控梦了,很奇怪 我从来不打算研究清明梦的,可是今天实在太奇怪了。 大概是凌晨?不清楚。 我在梦里,梦见自己做梦,然后自己在梦里对自己说,自己即将做的梦将会接受自己的控制。 然后一系列类似光影特效的东西,自己进入了梦中梦。应该是这样的。 然后奇迹来了,梦中梦接受了我的控制。 有人打球,我说进就进,说飞就飞,而且不管物理,按照我想的路线飞。 我想让一个类似架子的东西倒下,它就倒了。 后来我试着惹别人,还让别人顺着我,也成功了。 但是特别奇怪,为什么可以用这样的方式产生清明梦?
一个专门为其它公司编写人工智能的公司?世界上有么?
自主招生初审浙大竟然没过、、 只过了中科大和北理工、、、
遇见了一个非常奇怪的事情,谁能看看为什么? 程序面对同样的输入 在编译器里按运行就可以成功运行 但是只要在文件夹里点开exe运行,就会被强制退出 、、、
待定太难看,搞了一套,投完再改
级别待定。。。。。。 喵
、文理区别 文科生:叶的离去,是风的追求,还是树不挽留? 理科生:纱布,是脱落酸。
求个人把上次我发得两套头衔转到置顶中区、、、、 就是naji发得那个最早征集头衔名字得那个贴、、找不到得说、、
miaouuuu....
noip这次给多少内存阿? 、、、、256M?
目前貌似还没有任何手段测得神经元的阀值? 阀值理论或许并不完全正确?
作为吧主我已经率先对unjass做了彻底的研究跨时代的作出了冲锋 we吧要出名了
noip可以提交跨语言的程序么?我是C组的可以用C++么? 啊啊啊?谁知道?喵?
LAVIU改版中、遇到问题、关于神经网络的训练 就是关于神经网络的训练 与神经网络的学习 学习是必要的,但是我的理念是神经网络的结构和神经的各个既定数值是在编译时即已经确定,只有少数不确定量在发生变化。学习和记忆是神经回路和突出建立连接的。我一开始认为神经网络是不需要训练的,训练和学习不同。毕竟人脑生下来以后,各个神经原的参数应该就是固定的,只有少数值在变化、、、 可是,C++吧的大神们说,神经网络是需要训练的。按照他们的意思,神经网络神经原的各个参数似乎是在训练中定下来的。这虽然不符合生理学依据,但是却可以使神经网络更加容易应用、、 现在很郁闷究竟该不该添加神经网络的训练功能,这个功能也十分难完成。因为我的网络是一个纯拓扑结构网络,很难向BP一样进行训练、、、
LAVIU改版中、不过有一个问题想不通 就是关于神经网络的训练 与神经网络的学习 学习是必要的,但是我的理念是神经网络的结构和神经的各个既定数值是在编译时即已经确定,只有少数不确定量在发生变化。学习和记忆是神经回路和突出建立连接的。我一开始认为神经网络是不需要训练的,训练和学习不同。毕竟人脑生下来以后,各个神经原的参数应该就是固定的,只有少数值在变化、、、 可是,C++吧的大神们说,神经网络是需要训练的。按照他们的意思,神经网络神经原的各个参数似乎是在训练中定下来的。这虽然不符合生理学依据,但是却可以使神经网络更加容易应用、、 现在很郁闷究竟该不该添加神经网络的训练功能,这个功能也十分难完成。因为我的网络是一个纯拓扑结构网络,很难向BP一样进行训练、、、
LAVIU神经网络引擎最初版 用最简单的方法编写神经网络 baidu
LAVIU神经网络引擎最初版 用最简单的方法编写神经网络 baidu
LAVIU神经网络引擎最初版 用最简单的方法编写神经网络 这个程序的版本号是0.1 、、就是可以说是半成品,但是基础 模块已经齐全了,可以构建神经网络了。提供了输入输出的简 陋接口。目测要增加编程的时候可以用命令调用其它模本,就 可以搞模块化的神经网络了。比如大家下载好视觉分析的模块, 然后调用就好了。。。 但是呢,我只是一个高三的学生,学习压力异常的大。所以呢, 更新和改进也许不会很快。一直在想、、如果能被保送就好了, 就可以尽快投入到自己喜欢的研究中去,不需要和化学语文掐架 去了。。。哎、、只是幻想而已。 作者 北京市第五中学 苗忆南
aaaaaaaaaaaaaaaaaa http://tieba.baidu.com/mo/q/checkurl?url=http%3A%2F%2Fdownload.csdn.net%2Fdetail%2Fanying0%2F3726287&urlrefer=ee8845418cc2a566cfd390a1c2b6f6c0
神经网络出现故障、、已经调试累计5、6个小时了未果 、、、快疯了、、、
一个printf里面只能输出一个longlongint? 我输出两个,第二个就会变成0。 只输出一个就好了、、
一个神经网络大部分地区不会自动创造神经元 只有关于记忆的部分可能会创造神经元,而且量还很小。而且不是用于新知识的直接学习,应该是类似一种新陈代谢、所以人工智能有很大可能是根本不需要程序创造神经元的。
静止蛙没有用阿、、 汗、、、可以点攒、、
(进阶DP)多人背包、 题目描述 DD 和好朋友们要去爬山啦!他们一共有 K 个人,每个人都会背一个包。这些包的容量是相同的,都是 V。可以装进背包里的一共有 N 种物品,每种物品都有给定的体积和价值。 在 DD 看来,合理的背包安排方案是这样的: 每个人背包里装的物品的总体积恰等于包的容量。 每个包里的每种物品最多只有一件,但两个不同的包中可以存在相同的物品。 任意两个人,他们包里的物品清单不能完全相同。 在满足以上要求的前提下,所有包里的所有物品的总价值最大是多少呢? 输入格式 第一行有三个整数:K、V、N。 第二行开始的 N 行,每行有两个整数,分别代表这件物品的体积和价值。 输出格式 只需输出一个整数,即在满足以上要求的前提下所有物品的总价值的最大值。 样例输入2 10 5 3 12 7 20 2 4 5 6 1 1 样例输出57 样例说明 一种可以得到最优解的方案是:第一个人背体积为 7、2、1 的三种物品,价值为 25。第二个人背体积为 3、7 的两种物品,价值为 32。总价值 57。 数据范围 总人数 K<=50。 每个背包的容量 V<=5000。 物品种类数 N<=200。 其它正整数都不超过 5000。 输入数据保证存在满足要求的方案。
(DP进阶)质数取石子 题目描述 DD 和 MM 正在玩取石子游戏。他们的游戏规则是这样的:桌上有若干石子,DD 先取,轮流取,每次必须取质数个。如果某一时刻某一方无法从桌上的石子中取质数个,比如说剩下 0 个或 1 个石子,那么他/她就输了。 DD 和 MM 都很聪明,不管哪方存在一个可以必胜的最优策略,他/她都会按照最优策略保证胜利。于是,DD 想知道,对于给定的桌面上的石子数,他究竟能不能取得胜利呢? 当 DD 确定会取得胜利时,他会说:“不管 MM 选择怎样的取石子策略,我都能保证至多 X 步以后就能取得胜利。”那么,最小的满足要求的 X 是多少呢?注意,不管是 DD 取一次石子还是 MM 取一次石子都应该被计算为“一步”。 输入格式 第一行有一个整数 N,表示这个输入文件中包含 N 个测试数据。 第二行开始,每行有一个测试数据,其中仅包含一个整数,表示桌面上的石子数。 输出格式 你需要对于每个输入文件中的 N 个测试数据输出相应的 N 行。 如果对于该种情形是 DD 一定取得胜利,那么输出最小的 X。否则该行输出 -1。 样例输入3 8 9 16 样例输出1 -1 3 样例说明 当桌上有 8 个石子时,先取的 DD 只需要取走 7 个石子剩下 1 个就可以在一步之后保证胜利,输出 1。 当桌上有 9 个石子时。若 DD 取走 2 个,MM 会取走 7 个,剩下 0 个,DD 输。若 DD 取走 3 个,MM 会取走 5 个,剩下 1 个,DD 输。DD 取走 5 个或者 7 个的情况同理可知。所以当桌上有 9 个石子时,不管 DD 怎么取,MM 都可以让 DD 输,输出 -1。 当桌上有 16 个石子时,DD 可以保证在 3 步以内取得胜利。可以证明,为了在 3 步内取得胜利,DD 第一步必须取 7 个石子。剩下 9 个石子之后,不管第二步 MM 怎么取,DD 取了第三步以后可以保证胜利,所以输出 3。 数据范围 输入文件中的数据数 N<=10。 每次桌上初始的石子数都不超过 20000。
noip初赛八成过了 ,最后一道题最后两个空填反了、、 读程序写结果最后一道题错了
(基础算法背包)打包 【问题描述】 你现在拿到了许多的礼物,你要把这些礼物放进袋子里。你只有一个最多装下V 体积物品的袋子,你不能全部放进去。你也拿不动那么重的东西。你估计你能拿的最大重量为 G。现在你了解了每一个物品的完美值、重量和体积,你当然想让袋子中装的物品的完美值总和最大,你又得计划一下了。 【输入】 第一行:V 和 G 表示最大重量和体积。 第二行:N 表示拿到 N 件礼物。 第三到N+2行:每行3个数 Ti Vi Gi 表示各礼物的完美值、重量和体积 【输出】 输出共一个数,表示可能获得的最大完美值。 【输入输出样例】 输入(pack.in): 6 5 4 10 2 2 20 3 2 40 4 3 30 3 3 输出(pack.out): 50 【数据范围】 对于20%的数据 N,V,G,Ti,Vi,Gi≤10 对于50%的数据 N,V,G,Ti,Vi,Gi≤100 对于80%的数据 N,V,G,Ti,Vi,Gi≤300 80%到100%的数据是N,V,G,Ti,Vi,Gi≤380 的离散随机数据。
(基础DP系列)单词的划分 单词的划分(word.exe) 有一个很长的由小写字母组成字符串。为了便于对这个字符串进行分析,需要将它划分成若干个部分,每个部分称为一个单词。出于减少分析量的目的,我们希望划分出的单词数越少越好。你就是来完成这一划分工作的。 输入格式 从文本文件word.in中读入数据。 第一行,一个字符串。(字符串的长度不超过100) 第二行一个整数n,表示单词的个数。(n<=100) 第3~n+2行,每行列出一个单词。 输出格式 一个整数,表示字符串可以被划分成的最少的单词数。 样例输入 realityour 5 real reality it your our 样例输出 2 (原字符串可拆成real+it+your或reality+our,由于reality+our仅为两个部分,因此最优解为2,另外注意,单词列表中的每个单词都可以重复使用多次,也可以不用)
(动态规划系列)取暖管道 那个貌似被吞了
(基础算法最小生成树)清扫 现在要打扫国王的牧圈。已经30年没打扫了。所以这次的计划是用河水来冲。 牧圈排成整齐的格子,每相邻的两个之间都有门。要想让水进去,就必须打开这些门。这不是件容易的事情。因为有些圈里土堆得很高。因此打开门就很费劲。为了使花的力气最小,总是把门推向土低的一边。你的任务是计算最少得费多少劲。我们用土的厚度来描述这个值。 输入 第一行是宽度w和高度h,其中3 <= w,h <= 40。以下h行数据,描述了土的高度,也就是我们所浪费体力的度量。数据的范围在1到100之间。 输出 你得到的结果。所有的格子都必须进水。水是从左上角的格子进去的。 样例 stables.in 4 3 3 5 2 1 7 3 4 8 1 6 5 7 stables.out 26 (力气就使两个格子中较小的那个的值)
(基础算法DP系列)滑冰 滑雪 (ski.pas/c/cpp) 【问题描述】 滑雪是一项非常刺激的运动,为了获得速度,滑雪的区域必须向下倾斜,而且当你滑到坡底,你不得不再次走上坡或者等待升降机来载你。给出一个由二维数组表示的滑雪区域,数组的数字代表各点的高度。请你找出这个区域中最长的滑坡。 下面是一个例子:1 2 3 4 5 16 17 18 19 6 15 24 25 20 7 14 23 22 21 8 13 12 11 10 9 一个人可以从某个点滑向上下左右相邻四个点之一,当且仅当高度减小。在上面的例子中,一条可滑行的滑坡为24-17-16-1。当然,25-24-23-...-3-2-1更长。事实上,这是最长的一条滑坡。 【输入文件】 输入文件ski.in的第一行为两个数R, C,表示滑雪区域的行数和列数(1≤R,C≤100)。下面是R行,每行有C个整数,表示高度H(0≤H≤10000)。 【输出文件】 输出文件ski.out包括一行,只包含一个整数,表示滑雪区域中最长滑坡的长度。 【样例输入】 5 51 2 3 4 516 17 18 19 615 24 25 20 714 23 22 21 813 12 11 10 9 【样例输出】 25
(基础算法题DP系列)回文 问题描述: 所谓回文字符串,指是从左向右与从右向左读结果一致。如果一个字符串本身不是回文字符串,我们切分该字符串,可以得到最少回文串的个数是多少。 输入格式:(输入文件名为PALINS.IN) 仅1行: 输入字符串(字符串中只有26个英语小字母,字符中最长为100)。 输出格式:(输出文件名为PALIN.OUT) 仅1行: 输出最少分割回文串的个数 样例: PALIN.IN abaccbcb PALIN.OUT 3 数据解释:abaccbcb 切分为aba cc bcb - 数据规模 对于30%的数据,保证有字符个数≤8对于全部的数据,保证有字符个数≤100。
更新系统就能涂鸦了。。。。。。
放歌: 罗密欧与辛德瑞拉
这才叫技术含量、、、、、 哈哈
85?从1数到10的代码也删?脑子确定。。。。? 啊?
初级神经算法第一版-公开。仿生学神经算法 首先说明一下 1。我只是个高中生,程序略显凌乱,凑合看。以后改进,只是第一版 2。还没有加入让神经自动连接得功能,不过已经有了连接神经元得函数,所以实现将会非常简单。 3。程序会创建两个外部文件。output.ai用来存放对外输出信号,用来和其它程序衔接。excitingneurons.ai用来存放临时文件以确保神经的并行性。 4。本人很懒,没写多少注释。不过变量大多采用单词作为名称,太长的用的缩写,没实际用意义而为算法服务的没有实际意义的名字。 5。我发上来是想让大家查查bug,另求高人帮我计算一下2m内存大概能容纳多少神经。 注释的语法和拼写错误请忽略。。没查字典,,,
aaaaaaa #include<stdio.h> #include<string.h> #include<stdlib.h> #include<time.h> #define doorreducek 0.001; //build the menmber of neuron typedef struct neurons; typedef struct nerves; typedef struct excitingsave; int numofneurons=0; struct neurons { neurons *next; nerves *firstnerve; nerves *lastnerve; long int lastexcitetime; double excitereducek; int maxnervenum;// the max number of its' nerve double stddoor;// the standard door of this neuron double door;// the door of this neuron double state;// the state which control the neurons double kto;// when be excited,this neurons kto * connected neurons kfrom will be add to state of next double kfrom; // int output; } *firstneuron,*lastneuron; struct nerves { neurons *neuron; nerves *nextnerve; }; struct excitingsave { neurons *a; excitingsave *next; } *firstexneuron,*lastexneuron; int exctingneuronsnum=0; //to build a neurons link which save the neurons void buildneuronslink() { firstneuron = NULL; lastneuron = NULL; return ; } //a function used to add a new neuron in the link of neurons void createneuron(double stddoor,double kto,double kfrom,double reduce,int output) { neurons *newn; newn = (neurons *)malloc(sizeof(neurons)); newn->maxnervenum = 0; newn->excitereducek = reduce; newn->stddoor = stddoor; newn->door = stddoor; newn->state = 0; newn->kto = kto; newn->kfrom = kfrom; newn->next = NULL; newn->firstnerve = NULL; newn->lastnerve = NULL; newn->output = output; //printf("-%f-%f-\n",kto,newn->kto); if(firstneuron==NULL) { firstneuron = newn; lastneuron = newn; } else { lastneuron->next = newn; lastneuron = newn; } numofneurons++; } //connect a to b neurons void connectneuron(neurons *a,neurons *b) { nerves *newn; newn = (nerves *)malloc(sizeof(nerves)); newn->neuron = b; newn->nextnerve = NULL; if(a->firstnerve==NULL) { a->firstnerve = newn; a->lastnerve = newn; } else { a->lastnerve->nextnerve = newn; a->lastnerve = newn; } a->maxnervenum++; } //excite neuron a void exciteneuron(neurons *a) { nerves *p; neurons *to; FILE *f = fopen("excitingneurons.ai","a+"); FILE *f2 = fopen("output.ai","a+"); long int timenow = time(NULL); for(p=a->firstnerve;p!=NULL;p=p->nextnerve) { to = p->neuron; to->state += (to->kfrom) * (a->kto); if(to->state>=to->door) { printf("because %d,%d is excited\n",a,to); to->state = 0; to->door = to-> stddoor +(to->door - to->stddoor)*(1-(((double)(timenow - to->lastexcitetime)) * to->excitereducek)); to->door += (to->kfrom*a->kto)*doorreducek; to->lastexcitetime = timenow; fprintf(f,"%d\n",to); if(to->output!=0){fprintf(f2,"%d\n",to->output);} } } fclose(f); fclose(f2); } void deleteneuron(neurons *a) { } void cleanentxt() { FILE *f2 = fopen("excitingneurons.ai","w"); fclose(f2); } void cleanentxt2() { FILE *f = fopen("output.ai","w"); fclose(f); } void add0fortxt() { FILE *f = fopen("excitingneurons.ai","a+"); fprintf(f,"0\n"); fclose(f); return; } int main() { long int timer,j,key=1; FILE *f1; FILE *f0 = fopen("excitingneurons.ai","a+"); neurons *p; excitingsave *exs=NULL; buildneuronslink(); cleanentxt(); cleanentxt2(); createneuron(50,50,50,1,0); createneuron(60,50,50,1,0); createneuron(70,50,50,1,10); connectneuron(firstneuron,firstneuron->next); connectneuron(firstneuron->next,lastneuron); exciteneuron(firstneuron); for(;;)//the most impotant part of the progranmming { p = NULL; add0fortxt(); timer = time(NULL); key=1; firstexneuron = NULL; lastexneuron = NULL; f1 = fopen("excitingneurons.ai","r"); while(key==1) { fscanf(f1,"%d",&p); if(p==0) { key=0; } else { exs = (excitingsave *)malloc(sizeof(excitingsave)); exs->a = p; exs->next = NULL; if(firstexneuron==NULL) { firstexneuron=exs; lastexneuron=exs; } else { lastexneuron->next = exs; lastexneuron = exs; } } } fclose(f1); cleanentxt(); for(exs=firstexneuron;exs!=NULL;exs=exs->next) { exciteneuron(exs->a); } firstexneuron=NULL; lastexneuron=NULL; } fclose(f0); fclose(f1); return 0; }
首页
1
2
3
4
下一页