只萌萝莉
只萌萝莉
没有梦想可不行...
关注数: 91
粉丝数: 187
发帖数: 21,904
关注贴吧数: 96
雑用記録 その二
每日总结 RT
毎日サマリー 毎日の状況のレポートをここで更新いたします。
ウルトラバカ五大誓言 1. 幸せを手にいれることを重視 2. 自分が提供したい価値を提供できるために努力する 3. 具体的な目標を一個一個作る 4. 自分が納得できるまで努力する 5. 周りの人への配慮
平凡的人类最后的挣扎
杂事记录 具体每项复习的内容现在还难以确定,提供一些备选 c++ 之前的github(从0到1) c++ primier 之前的笔记 其他一些c++面试题,牛客网,csdn,网上的资源 实际项目 另外注意一下Linux下的c++开发 数据结构和算法 leetcode 剑指offer 算法导论笔记 之前那本算法书(日文) linux 之前的书 网上的面试题 之前的笔记 机器学习 ai工程师手册 网上的面试题 dnn500问? 具体如何准备还是要之后仔细看看 ,确定准备内容也是准备里很重要的一项吧 需要注意的是因为时间有限 不要想着慢慢打基础啥的了直接上手和面试关系最深的
久违的大概也是最后的签到帖
1月13号北宇治关东演奏会有人一起的么 rt 目前手里还多一张票, 原价出,有人要一起的话可以带入场
【先占个坑】关于这一场参加的三场演奏会 上个月我应该还在这里问过有没有人抽到昨天京都公演的球带入场... 然后这个演奏会后面我还是靠钞能力拿到了票(虽然也花了巨大的代价) 主要那时候不知道上周末比叡山和这周末洗足音乐大学有京吹的演奏会不然可能当时也不会拼命想拿到票 (以及当时也不知道后面才公布的关东公演的消息 还是四场) 不过怎么说呢, 感觉还是值得,毕竟ロームシアタ 这个场地很特殊,就是动画里多次选拔的场子...还是很有纪念意义, 也因为此在短短一周内跑了三场演奏会(算上紫罗兰那场见了四次唐沢美帆orz...) 先占个地方...详细之后有时间的时候慢慢补上好了
为什么高斯过程只需要用核函数去估计协方差就可以..? 一个所有关于高斯过程的解释都没有说明的问题(大概对于数学系的人们这个问题的答案过于显而易见了) 实际上每一条新的数据(包括预测数据)都会增加多元高斯的一个维度 对于学习核函数的过程而言,每个相同的数据只会用一次 也就是说该该维度上的分布只要逼近此维度上的数据就可以了 因此对于任意一个数据 就算均值向量不为零也可以通过调整方差的方式使得该维度上逼近程度相同 当然其实这个解释不完全严格 因为决定该维度输出的其实是联合概率分布 (说的通俗一点, 所有维度上均值都为0, 只通过协方差矩阵的调整的多元高斯分布 可以逼近一个每个次元只有一个点的离散点群)。。。。 好吧 不一定对
11月份京都的第五次定期演奏会有大佬抽到票没.... rt.其实之前三四次都没有注意时间错过了...这次因为京都的事情这几个月一直在关注京都的动态然后抽了一下11月演奏会的票... 但是果然没中。。感觉这次倍率爆炸...真的很想听现场版的利兹与青鸟 ,,, 于是有没有抽到票的大佬可以带人入场的【
cvpr2019相关paper Cao_SeerNet_Predicting_Convolutional_Neural_Network_Feature-Map_Sparsity_Through_Low-Bit_Quantization_CVPR_2019_paper.pdf ChamNet-Towards-Efficient-Network-Design-through-Platform-Aware-Model-Adaptation.pdf Chen_All_You_Need_Is_a_Few_Shifts_Designing_Efficient_Convolutional_CVPR_2019_paper.pdf Chen_You_Look_Twice_GaterNet_for_Dynamic_Filter_Selection_in_CNNs_CVPR_2019_paper.pdf cvpr2019.md Gao_Dynamic_Scene_Deblurring_With_Parameter_Selective_Sharing_and_Nested_Skip_CVPR_2019_paper.pdf Georgiadis_Accelerating_Convolutional_Neural_Networks_via_Activation_Map_Compression_CVPR_2019_paper.pdf He_Filter_Pruning_via_Geometric_Median_for_Deep_Convolutional_Neural_Networks_CVPR_2019_paper.pdf Jung_Learning_to_Quantize_Deep_Networks_by_Optimizing_Quantization_Intervals_With_CVPR_2019_paper.pdf Kim_Efficient_Neural_Network_Compression_CVPR_2019_paper.pdf Kossaifi_T-Net_Parametrizing_Fully_Convolutional_Nets_With_a_Single_High-Order_Tensor_CVPR_2019_paper.pdf Lemaire_Structured_Pruning_of_Neural_Networks_With_Budget-Aware_Regularization_CVPR_2019_paper.pdf Lin_Towards_Optimal_Structured_CNN_Pruning_via_Generative_Adversarial_Learning_CVPR_2019_paper.pdf Liu_Knowledge_Distillation_via_Instance_Relationship_Graph_CVPR_2019_paper.pdf Liu_Structured_Knowledge_Distillation_for_Semantic_Segmentation_CVPR_2019_paper.pdf Li_Compressing_Convolutional_Neural_Networks_via_Factorized_Convolutional_Filters_CVPR_2019_paper.pdf Li_Exploiting_Kernel_Sparsity_and_Entropy_for_Interpretable_CNN_Compression_CVPR_2019_paper.pdf Li_Partial_Order_Pruning_For_Best_SpeedAccuracy_Trade-Off_in_Neural_Architecture_CVPR_2019_paper.pdf Li_Selective_Kernel_Networks_CVPR_2019_paper.pdf Mehta_ESPNetv2_A_Light-Weight_Power_Efficient_and_General_Purpose_Convolutional_Neural_CVPR_2019_paper.pdf Mehta_On_Implicit_Filter_Level_Sparsity_in_Convolutional_Neural_Networks_CVPR_2019_paper.pdf Minnehan_Cascaded_Projection_End-To-End_Network_Compression_and_Acceleration_CVPR_2019_paper.pdf Molchanov_Importance_Estimation_for_Neural_Network_Pruning_CVPR_2019_paper.pdf Prakash_RePr_Improved_Training_of_Convolutional_Filters_CVPR_2019_paper.pdf Wang_Fully_Learnable_Group_Convolution_for_Acceleration_of_Deep_Neural_Networks_CVPR_2019_paper.pdf Wang_Kervolutional_Neural_Networks_CVPR_2019_paper.pdf Wu_FBNet_Hardware-Aware_Efficient_ConvNet_Design_via_Differentiable_Neural_Architecture_Search_CVPR_2019_paper.pdf Yang_ECC_Platform-Independent_Energy-Constrained_Deep_Neural_Network_Compression_via_a_Bilinear_CVPR_2019_paper.pdf Yang_Quantization_Networks_CVPR_2019_paper.pdf Yuan_Enhanced_Bayesian_Compression_via_Deep_Reinforcement_Learning_CVPR_2019_paper.pdf Yu_Learning_Metrics_From_Teachers_Compact_Networks_for_Image_Embedding_CVPR_2019_paper.pdf Zhao_Variational_Convolutional_Neural_Network_Pruning_CVPR_2019_paper.pdf
记一下 凸优化 image process RV slam/ git gitlab 计算机架构 os makecmake caffe aws 强化学习/ c c++ c# u3d / 有时间可以看的 先确保下载下来
tensorflow这个坑是在是深不见底 。。。。
2 ネットワーク圧縮アルゴリズム比較実験: 1. 使うデータセット、cifar10 2. 使うbaseline-network : **各アルゴリズムのsourcecodeで使用されたnetwork:** |アルゴリズム|convnet|lenent|mobilenet|resnet|vgg|densenet|googlenet|alexnet |他のnetwork実装可能||-----|---|----|----|---|------|----|----|---|----||*batchnorm-pruning: | ○| ○ | ○|○|○|×| × | × | 可能 ||CEGS | ○ | × | × | × | × | × | × | × |datasetも変更||graphtheory| × | × |× | ○ | ○ | ○ |× | ○ | 変更可能 ||* N2N | × | ○ | × | ○ | ○ | ○ | ○ | alexnet |教師dataがあれば ||slimming | × | × | × | ○ | ○ | ○ | × | × | 手前かかる || sact | × | × | × | ○ | × | × | × | × | resnet系のみに適用可能 ||*TRP | × | × | × |○ | ○ | ○ | × | ○ | 変更可能,他の部分を変更する必要がある | * 1. batchnorm-pruning のsourcecodeは自分で実装したもの(一部分) * 2. N2Nは論文通りの結果ではなかった* 3. network以外他の部分(cifar-TRPのmodelを定義する部分)も変更する必要がある 3. * resnetとvgg系で評価するのは妥当 * CEGS及びPCASは改めて実装する必要がある* まず手前があまりかからない実験できるアルゴリズムから実験をする, * 実験順番は...? TRP -> resnet20 () **sact -> (rewrite with cifar_model can revise model ) resnet20:diffcult to revise** sliming -> Resnet20( set deafult depth as 20 in resprune) N2N , can change network to resnet20 while need to change other part(teacher's data use make_teacher_data.py file) graph theory : only have resnet model for imagenet dataset , but can be revised batchnorm-pruning :problems with sourcecode 順番的に最後でやる while tensorflow 's sourcecode is base on resnet20 , can use virtualenv to set python2 environmentCEGS : dataset and model 順番的に暇の時間でやる PCAS: 0から実装する必要がある* VGG :* やるかどうかまだ決めていない
以防万一 file check list: * compressioninsight / モデルの内部状態(saprisity)などを確認する方法* distiller_jupyter_helpers //各種基本の関数の定義* experimental //get some stastic data of neural network* model summary , 提供した機能は* 指定されたtypeのlayerの情報を確認する:eg:conv3×3* weights footprints情報(?)を確認する* MACS情報を確認する* layerごとのL1-normを確認する* performance overview :* compute macs* confirm how compute is distributed* how many conv kernel sizes are used* how the MACs are distributed between layers and kernels* confirm resnet's MACs(example)```dummy_input = Variable(torch.randn(1, 3, 32, 32), requires_grad=False)df_dense = distiller.model_performance_summary(resnet20_dense, dummy_input, batch_size=1)df_sparse = distiller.model_performance_summary(resnet20_sparse, dummy_input, batch_size=1) dense_macs = df_dense['MACs'].sum()sparse_macs = df_sparse['MACs'].sum() print("Dense MACs: " + "{:,}".format(int(dense_macs)))print("Sparse MACs: " + "{:,}".format(int(sparse_macs)))print("Saved MACs: %.2f%%" % ((1 - sparse_macs/dense_macs)*100))```* pruning_channels_and_filters (check whether the layer before and after pruning is consistent)* show the model's layer 's state in PNG * Save intermediate feature-maps to file// 中間の出力を保存する
distiller in usage1. 如何做敏感度分析 (可以考虑试一下有没有用)2. 如何做摘要 ( 结果统计里给出不同种类的信息 比如macs)3. 收集活性化统计数据 统计relu函数的活性化程度有时间的话可以测试一下 compression models 各种神经网络压缩理论的介绍,虽然大部分应该都知道,可以再看一遍防止有遗漏 algorithm部分 pruning里的 结构化网络裁剪里 几个基础的算法 有时间也可以尝试一下 jupyter notebook(主要)tutorials (裁剪chennel 和filters部分) 今天完成
追試した各paperのgithub
使用大量时间在数学上的必要性? DL诚然这一块需要的数学知识非常的杂多 但是全部都补过来估计会占用太多的时间 考虑到两条路的重合的部分重心还是应该放在程序相关上(c++ c# c u3d之类的引擎 软件工学 计算机系统) 当然必要的部分还是需要补的不然日常业务都会有一些影响 以及以后万一就走工程师这条路的话也是需要相当的数学基础的 因此策略上数学主干线剩余的两块 (统计和非线性最优化)补完就好 剩余的下一年如果看论文什么的遇到什么新的知识适当的查一下就好,没有必要系统的去补那个领域了。(尤其是实变函数 泛函分析之类,现实一点。。。补不过来的) 此外今期结束前把数据构造和算法基本看完应该是。 下期的重心就转移到上面说的程序相关上。 具体是3C的复习和熟练(c#应该是重头开始学 212) 外加游戏引擎5m 最后有余力自己做着试试看 最后则是 软件硬件不够的地方 系统不够的地方在st完成就好。
tensorflow 部分list #定义神经网络的时候还有什么其他需要注意的? #损失函数在什么位置定义? 是怎样计算的? #优化器在什么位置定义, 其中各个相关参数在什么地方定义 #创建计算图 session 之后,图里要做哪些操作? #初始化,根据loss反向传播优化参数 #如何控制一次又一次的训练流程(怎样停止训练)(参照cifar的代码和之前斯坦福的简单版代码)#等间隔自动测试的代码该设置在什么位置? 同上#相关信息的输出代码设置在什么位置 同上#训练结束后如何保存模型 # 下次如何读取模型 # 如何把想看的参数添加到tensordoard 可视化选项之中 #如何启动tensorboard进行数据可视化 tensorboard --logdir(dir)
points for this year
解决策略 1. python 数据类型转换:列表和字典的基础知识 :画图:文件读写:切片:静态方法:命令行添加参数: 2. numpy切片:高维度张量操作: 维度变换 改变维度大小张量的矩阵式编程“: 避免循环的使用, broadcast 数据类型变换: 随机生成: 分布: 3. c++类的定义: 模板的定义: 其他一些概念(枚举,正则... )指针,内存管理相关 容器相关 输入输出相关 4. pytorch 神经网络模块(各个属性,各个方法) 学习流程控制模块: hook 、 数据输入模块 数据类型转换相关 梯度更新有关,分离出部分不更新的参数之类 多gpu时的并列计算....: (暂时不考虑) pytorch相关的可视化操作 基础学习设置,loss 优化器, pytorch的张量的特点5. tensorflow数据输入,输出,转换(流程控制,迭代) TensorFlow搭图, 如何做到和pytorch一样控制更新梯度还是不更新参数学习流程控制(非常重要,因为TensorFlow是通过迭代器来进行一次一次更新的) TensorFlow的变量 variable 有什么特点 : tensorboard可视化 6. 離散数学了解离散数学里有哪些概念,有哪些理论 7. 信号処理 基础部分,傅里叶变化,小波变化的含义大概了解滤波之类的有个概念 8. 画像処理一部分和信号处理共通的就无视了 偏重图像部分 : 成像原理 离散傅里叶变化、快速傅里叶变换,二维傅里叶变换 边缘检测理论 图片分割理论 图像梯度计算理论 滤波、噪音去除理论 形态学图像处理 图像编码理论(压缩理论) 9. 統計/確率論 了解这一理论里大致有哪些内容 和机器学习相关的重点了解: 贝叶斯分类器 10. DNN関係の理論这里就很杂了,太多了 基础网络有关 : cnn rnn 生成对抗网络 数学有关: 支持向量机 贝叶斯分类器 机器学习算法: 强化学习 无监督学习 弱监督学习 自编码自解码物体检测算法: 图片语义分割算法: 神经网络加速算法: 调参经验: 11. hardware 编译原理: 多核并列计算原理: 分布式计算 : 12. linux os文件管理 存储空间管理 文件编译功能 git的使用 13. make /cmake software 組み立て 文件链接, 编译, 主要是gcc cmake make gnu等东西的差别..... 14. opencv经典的一些图像处理算法的实现有个了解即可滤波边缘检测噪音去除梯度计算图像金字塔形态学操作 15. sever関係/ aws google cloud など 暂时不会用 有时间可以了解一下aws 16. 数据构造和基础算法排序 二分木 等算法基础... 那一本书差不多够了 链表 堆 栈 队列 等常见的数据结构 17. 机器视觉相关算法 slam,光流, 光流和slam有关的理论 稍作了解就可
???? ???
【老年魔卡粉】一些微不足道的个人收藏 RT, 老年魔卡粉一名。从很认真的喜欢上这部作品已经过去12年了吧。 虽然已经不水贴吧许久,不过刚好因为前一阵子b站萌战的契机觉得还是应该多认识些魔卡的厨子- -。 于是放一些个人的魔卡相关的周边...东西不多,其实也没什么东西 - - 另外时间跨度比较久远。。。首先是BD BOX 和DVD BOX BD是第三版的 DVD是最新版的(不得不吐槽魔卡已经出到第四版的 BD BOX了 相同的内容换一下封面 可能画质稍微有些变化)可能都可以申请吉尼斯记录了、、然后... 这个应该前年买的...之前clear card 开始连载的那段时间发售的一个box。里面是明信片和 一只小可。 介于桌子空间有限就补一张一张放明信片了。。。这个....之前和新漫画一起卖的一个礼盒... 结果里面的东西..意外的挺少的。 主要刚开始不知为什么我总以为这里面会是一套做曲奇的模子...然后是剧场版相关了。 lz很幸运赶上了今年和去年两部剧场版的重新上映,于是补了当年的电影票 顺便在电影院买了点相关周边...这套发卡其实有库洛牌和小樱牌两套,然而小樱牌那套因为曾经的一时兴起送给别人了...香港篇的一套明信片接下来,突然回到12年前- -。 应该说是真的认真喜欢上这部作品的开端吧...当时无意在书店 看到了接力出版社代理的这套漫画... 尤其是12卷真的是入坑神作.... 可惜这套漫画我也没有买全以及新漫画,新出的两卷都还没时间买....clear card 的挂卷日本这边711联动的文件夹接下来这个... 是超级古董了 2000年剧场版上映的时候电影院里卖的入场手册。这个是之前无意 在日本亚马逊买到的然后手办。。其实lz还真的没有几个- -。 中学的时候买过一些很小的那种不过也都没有带在身边了。 所以就只有这一个了。 大概就这么多了。今年10月到明年1月期间东京会有魔卡的美术展。 那个期间有机会旅游的同学一定不要忘记路过一下 _(:з」∠)_ 以及暑假东急电铁和魔卡在搞联动盖章活动, lz后天大概会去看看又没啥东西 - - (虽然可能盖章的本子已经被领完了 ) 如果能拍到东西到时候再跟新一波好了
恭喜P5最佳rpg 确实质量好
想问下国内托业考试题型变了没? 之前在日本考变了…这次时间赶不上所以在国内考 不知道有没有变?谢谢了
有大佬玩FF15吗 就问问 发几张图看看啊2333
我留下了悔恨的泪水 一直以来都以为制作组要这样让罚抄13集毫无作为的一季完结、 没想到TM两线的第二季。赶紧去亚马逊买BD去了。
如果下一集真的是最后一集 挺好奇会怎么做 20分钟 首先战斗部分收拾一堆杂魔物至少得几分钟吧 然后根据 op 巨大化咲夜肯定也要出现 从 出现到消失我觉得最保守也要7 、8分钟 这样其实留给所谓的美好的记忆」得展示时间只有不到10分钟……虽然我不否认大团聚
有光学达人嘛=。=…… 想求教一些问题【比较复杂】…… 最好想私聊一下… 问题是这样的 需要假定一个障碍物 形状可以规则 反射率反射模式也可以自己设定… 然后外部光源条件也可以自己设定。 然后将障碍物反射的光透过参数已知的透镜在照片上成像 需要计算照片每个像素的照度值 因为本身不是光学专业的对这个模拟怎么做完全没有头绪 或者需要哪些参考? 感谢万分
在下的一些个人考虑 微剧透动画党慎入 我们这些原作党中很大一部分人体会罚抄剧情的方式和纯动画党是不一样的,说到底这是动画和游戏的形式不同决定的。 gal的话很多人可以每天玩一点甚至每天集中玩很久,这样等你熟悉了超自研的日常突然进线和mt线受到的触动才会格外的大。而对于动画来说,每周只有一集就算把剧情做的很细一周20分钟再隔一周再20分钟,这种体验剧情的方式注定无法到达游戏的效果。所以既然这样把笔墨多花点在后期非日常使一些关键剧情能够在短时间内表现出来也不错
【不要误解】 怎么样才能在win7上玩风五 -。-……最近想重温下风五… 当然!我是有好好买正版的!以前在家里的Xp系统上玩的… 似乎没有一个能用的免cd布丁呢?
今天早上去把伤物语最后一周的入场特典拿了… 因为有考试一直拖到最后一周才去看…… 看了班长的胖次感觉要入坑啊…… 不得不说剧场版质量还是没得说的…特别是新房风格加上那个bgm… 嘛 本来晚上还有上海那个FMT的围观会2333 不过票价有点贵就不去围观诸位啦XD
询问下懂的人,现在在苏州买房子真的合算吗 比较贵的那种 最近父母一直在和我说要在苏州买房子,上周看完后说都涨到快四万了,当然他们想买房子一个是害怕以后房子涨起来可能就买不起了,二个就是投资?当然我本人对这些不太懂但我觉得我家里人其实也不懂。稍微查了下苏州今年的房价的确诡异啊…… 我个人观点是就算现在要买是不是买个1wー2w之间的保险点?4w左右的房子会不会有风险? 希望比较清楚的人给点建议谢谢
最近在玩传颂之物 发现对风7也没必要完全绝望 毕竟传颂的1和续作隔了13年,然而…
【格式】都在吵第三章忘了第二章了么 虽然pv很短但是感觉紧扣了“成长”这个主题,比如“如果我不做情况会更糟下去”以及“不能总是做一个孩子”这样的台词。 至于第三章、可能是单独讲岳的成长看预告貌似和巴达兽又发生了什么。
嗯,大概是12年过完年的时候吧,我总觉得那年会出7 刚开学无聊的重玩了一遍3,4 过了2年又玩了一次。四年过去了 也差不多放弃希望了,如果fy不要风色幻想7了,还不如找人攒钱自己做风7。
【格式】多图 这次元旦在御台场和光丘拍的照片 内附指南 1 首先是光丘 光丘其实没啥东西 位于东京的郊区练马区的边界 交通的话是都营地铁大江户线坐到底 很远 周围有一个光丘公园 为了还原我晚上去 没去公园 周围的草地不知道是不是太一和光踢球的地方
【水贴】随便又翻了翻DA发现几个有意思的细节 1 。21集这边光说话的语气和表情,绝对是妥妥的黑化前奏啊…… 虽然那时候还没有这个概念… 总觉得再往下就会面无表情的说出“嘘つき"2333 2. 小丑皇…你这是在偷窥无限龙的私生活! 3.不仅偷窥还奶了无限龙一口 无限龙就是被小丑皇奶死的 此刻他的内心一定是崩溃的
【感想】自己说的不吐槽,不过还是有点奇怪东映 为什么这么重要的纪念导演不请细田守呢……今天重看了战争游戏觉得细田守的表现力在数码里绝对胜过元永很多……
【吐槽】今天果然还是没拿到入场限定特典 不过下次有经验了,下周准备通宵去等,毕竟最后一次机会, 顺便东大妈820的剧集里面还一堆广告看完简直不得不让人买买买…
【求助】关于剧场版入场特典的问题……到底怎么拿? RT 今天提前半个小时想起拿所谓的入场特典发现前两场票早就卖空 是那天限定数量然后先买到票的人进电影院放在座位上的吗…还是买票的时候就给你,还是怎样的,下周最后一周了无论如何也想拿到啊!
【求助】求DA里一首ost,找了好久了 具体位置是DA33结尾阿和回忆南瓜兽矿石兽那边,以及DA37巫师兽牺牲那边。 官方ost似乎没收录 我看了各个网友给出的ost排名里面也没提到这个曲子。感觉就被默默忽视了明明很棒的曲子。 会不会是和神天进化一样改编自哪首的,如果知道曲名请告知万分感谢~
好久不来……炸个尸 昨天是学校校园祭准备日,今天开始的三天就是正式的学园祭了, 好久之前就期待可以参加这样的活动,上午逛了半天太累回来睡个觉下午继续hh
骷髅求测评 AKG的Y55 和索尼新出的那款h.ear mdr100aap 比差多少呢? sony那款今天听了真心不错不过由于一直想入个akg最后还是入了Y55 顺便Y55不用耳放一般mp3推的动么?
罚抄动画化的一天终于来到 其他不论key社的gal基本都只是时间问题。
(´Д` ) 明天去11区了…… 虽然说过程比较曲折前途比较黑暗不过总算还是实现了两年前的想法— —… 虽然未来估计会很艰辛,不过也只能走一步看一步了~
三年前通的青空… 前几天把fossette翻出来玩 海己结婚那篇和约定之日前十天的故事实在是看的泪腺崩坏。 能遇到青空真的太好了
能力考报名有人出现问题么 , 前天帮一个学弟报名然后付完款… 结果昨晚发现还是显示未付款状态… 然后今天打电话去考试中心周末不上班… 好坑 72小时之后会被取消考位貌似 也就是说明晚会取消然而那边还是不上班 该怎么办现在? ps 排除上了假冒网站,因为我帮两个人报的,还有个人完全没问题
偶尔路过
于是… 我也要(暂时?)变成11区党了… 大约是一年多前询问帖吧的诸位去11区读研如何,当然那时候我已经在魔都工作了, 然后当时大多数人都是反对的。 的确从现实角度看放弃一份收入还不错的稳定工作换到一个新的方向从零开始是一个很不明智的选择。 然而由于个人的一些执念,最后还是日语托福一路过来然后申请了学校的研究生。 未来肯定会很艰辛不过至少努力了不后悔吧~ ps:由于专业问题最后还是放弃了京都没能成为便当的后辈有点可惜~
N1低分飘过_(:з」∠)_ …感觉不是那个考场可以多考一些的~只好以后再继续学了
— —… 话说现在这个时代什么手游都不玩很奇怪吗 不仅仅这里包括之前身边的动漫社的几乎也是出去吃饭都拿着手机在打。 也不知道是什么原因手游开始兴起的时候正好特别忙也没入坑。 从一开始的亚瑟王到LL,舰N被无数人安利过然后到最后还是一款手游都没试过。 — —… 总觉得是不是成为跟不上时代的老年人了
这货的CV是绿川光… 于是脑补lb里的恭介被弄成这幅样子,恭介你也有今天prpr
又有奇怪的人混进来了 不得不说贴吧的尾行还真是方便w
我最近才知道原来百度空间死了— — 可能太久不用了没留意…其实刚开始在贴吧的时候特别喜欢百度空间和百度HI, 就是在贴吧的帖子里每个人ID旁边都会有个小房子和hi的气泡 — — 感觉比企鹅好看太多 那个时候觉得QQ简直垃圾因为百度空间可以自己设置各种ACG主题QQ那边又土还各种收钱… 而且感觉QQ很多人就是把很多东西转来转去— — 我特别讨厌“转”这个功能… 然而到了大二暑假之后莫名不在百度空间写东西了… 后来也习惯了以前憎恶的QQ空间…到现在也没想明白契机,至于新浪微博也没怎么用过因为一些事情开了后觉得这个东西太浮躁了根本就不是让人静下来写东西的地方…— —
请问下江宁或者本部暑假可以买旧课本的地方 暑假要看很多门课— —… 然而今天去买课本发现后街的旧书店关了… 求破… 早知道应该期末的时候就买…唉
这下子不得不来安利一发了啊=。= … 其实大家可能已经都玩过了?这个叫做高考恋爱100天的国产gal?(勉强算吧) 其实我之前虽然也知道但是昨天还是在动漫社其他人带一波节奏之后才跟风买了份激活码在steam上开玩…本来只想试试结果一直玩到早上6:00达成第一个结局… 整体觉得就是虽然作为国产gal cv方面以及台词之类或多或少会有一些违和但是也因为这样变得有趣了一些~ 剧情还是很赞的而且挺符合中国国情2333 而且还是有一定的可玩度— —
→ →....一周之内应援两场live…也是被官方搞得累cr lantis那两天魔都爆炸肯定不用多说了…就算没有像大佬那样虹桥浦东两边跑的接机光是现场全力应援也真是累… 结果还没休息就被黑崎真音川田麻美这场的主办吓cry… 只好到处想办法到处补救…事实上昨天live三分之一不到已经抬不动手…刚刚送走南京赶来应援的朋友看到黑崎真音微博的更新感觉还是挺安心
(´Д`) 关于18号live…有人需要应援的棒子吗 本来想问问有没有人过去提供棒子的,然后还是之前卖我kbx的一家店…他本人好像来不了这次…唔… 好像有50根光羽星的棒子这样…如果买不到应援棒的可以留下数字记个数当天这里可以帮他带过去… 顺便我根本不会卖东西 大家不要放我鸽子… 顺便电棒就是装电池的荧光棒,因为可以循环用而且可以变色所以感觉还是挺方便的… 哦…还有是15色的… 川田现在深蓝色多点,黑崎是紫色 除了君と太阳这首红色。
1
下一页