职称论文百科

xgboost论文发表在

发布时间:2024-07-04 04:35:51

xgboost论文发表在

Boosted trees是一种集成方法,Boosting算法是一种加法模型(additive training),定义如下:q(x)表示将样本x分到了某个叶子节点上,w是叶子节点的分数(leaf score) 下面通过一个具体的例子来说明:预测一个人是否喜欢电脑游戏,下图表明小男孩更喜欢打游戏。 XGBoost使用的目标函数如下: 我们可以看出XGBoost在GBDT的误差函数基础上加入了L1和L2正则项,其中Loss函数可以是平方损失或逻辑损失,T代表叶子节点数,w代表叶子节点的分数。加入正则项的好处是防止过拟合,这个好处是由两方面体现的:一是预剪枝,因为正则项中有限定叶子节点数;二是正则项里leaf scroe的L2模平方的系数,对leaf scroe做了平滑。 接下来我们对目标函数进行目标函数的求解: 该目标函数表示:第i样本的第t次迭代误差函数,后面的推导基于上式。这种学习方式已经从函数空间转到了函数空间: 下面对目标函数进行泰勒公式二级展开、化简: 如果确定了树的结构,为了使目标函数最小,可以令其导数为0,解得每个叶节点的最优预测分数为: 代入目标函数,解得最小损失为: 注: 近似算法中使用到了分位数,关于分位数的选取,论文提出了一种算法Weighted Quantile Sketch 。XGBoost不是按照样本个数进行分位,而是以二阶导数为权重 Q: 为什么使用hi加权? A: 比较直观的解释是因为目标函数可以化简为如下形式: 注: 红色路径代表默认方向

XGBoost 的方法源自于Friedman的二阶方法,XGBoost在正则化目标函数上做了小改进。XGBoost是陈天奇等人开发的一个开源机器学习项目,高效地实现了 GBDT算法 并进行了算法和工程上的许多改进。 (XGBoost本质上还是一个GBDT,但是力争把速度和效率发挥到极致)

对于一个含n个训练样本,m个features的给定数据集D,所使用的树集成模型(见图“树集成模型”)使用 K次求和函数(下图公式1) 来预测输出( 加法模型 )。

在2.1中的目标函数公式(对应论文公式2)上中的树集成模型包含函数作为参数,传统的欧几里得空间优化方法无法对其进行优化。因此,模型是以相加的方式训练(前向分步算法)的。认为y ̂_i(t)是第i个实例在第t次迭代时的预测,加入一个新的ft来最小化以下目标。目标函数表达式为:

对于该函数的优化,在 XGBoost 中使用了泰勒展开式,与 GDBT 不同的是 XGBoost 使用了泰勒二次展开式。去掉常数项(如下图“常数项”),最终得到简化后的函数(损失函数),如下图“损失函数”。

定义 q 函数将输入 x 映射到某个叶节点上,则定义每个叶子节点j上的样本集合为

除了正则化目标外,还使用了另外两种技术来进一步防止过拟合。

构建树,寻找分裂点的时候需要关注两个问题:选用什么特征(维度)进行切割和在所选特征(维度)取什么样的阈值进行切割。

在所有特征上,枚举所有可能的划分。 精确贪心算法从树的根节点开始,对每个叶节点枚举所有的可用特征。 文中指出:为了更高效,该算法必须首先根据特征值对数据进行排序,以有序的方式访问数据来枚举打分公式中的结构得分(structure score)的梯度统计(gradient statistics)。 (就是写两层循环穷举这两个参数,逐个尝试后保留最优的切分方案。 )   该算法要求穷举所有数据,当数据不能完全装入内存时(特征量比较大,设备不支持),就不可能有效地这样做。

分桶操作 ,该算法首先会根据特征分布的百分位数,提出候选划分点。将连续型特征映射到由这些候选点划分的分桶(buckets)中,聚合统计信息,基于该聚合统计找到proposal中的最优解。(计算每个桶中的统计信息就可以求出最佳分裂点的最佳分裂收益值)

采用分位数的直方图近似计算分位点,以近似获取特定的查询。使用随机映射将数据流投射在一个小的存储空间内作为整个数据流的概要,这个小空间存储的概要数据( 需要保留原序列中的最小值和最大值 )称为Sketch,可用于近似回答特定的查询。

在每个树节点中添加一个默认方向,对于缺失数据让模型自动学习默认的划分方向。采用的是在每次的切分中,让缺失值分别被切分到左节点以及右节点,通过计算得分值比较两种切分方法哪一个更优,则会对每个特征的缺失值都会学习到一个最优的默认切分方向。

XGBoost 在目标函数上加入了惩罚项,使模型的泛化能力大大增强,且对行列支持降采样,优化了计算速度。   比较有意思的点在于稀疏值处理,让模型自动学习,默认划分节点,选择最优。

xgboost论文发表在哪

问题一:发表论文去哪里投稿 若你是初次投稿,建议先找些门槛低的省级期刊投稿,这类杂志有《故事》、《故事汇》、《故事世界》、《幽默与笑话》。另外《知识窗》、《青年科学》、《思维与智慧》这些杂志你也可去试试。投稿时,你还要注意投稿格式,电子邮件投稿注意事项。 在这里顺便给你介绍一些注意事项,以提高你命中率:稿件后面要有完备的联系方式:作者名字、署名、地址、电话、邮箱,QQ什么的都要详细,以便编辑联系你啊!要是没有这些,发了你文章,难找你拿稿酬! 用电子邮件投稿,得注明投什么栏目,写上你名字和稿件名字。 另外,现在《故事会》在征稿。其原创稿酬千字400元,笑话每篇最高稿酬100元。 希望能解决您的问题。 问题二:哪里可以发表论文 有的啊,,, 问题三:论文在哪里发表 一般在期刊上发表讠仑文基本上都是需要评职称才发的,一般这种的找那种代理就行,网上很多的不过也有不可靠的,最好找熟人介绍下比较好,我发的时候就是同事介绍的壹品优,我也是直接就在那边发了,和同事说的差不多,挺好的。如果你没有熟人介绍不行就去看看。 问题四:在哪里发表论文比较可靠 答-您写的专业性很强的学术论文最好在正规刊物上发表,毕业论文或学习的论文就在学校学刊上发表。 问题五:论文在哪发表比较好? 答-您写的专业性很强的学术论文最好在正规刊物上发表,毕业论文或学习的论文就在学校学刊上发表。 问题六:在哪里可以发表论文 有的啊,, 问题七:在哪可以发表论文 你发论文主要是干嘛用的 问题八:评职称在哪发表论文 我也是广告,给你一个参考:第一,化工行业中级职称,如果没有意外的话,普刊,就是国家级或者省级刊物就可以。所谓的意外,就是说你可能处于大学或者科研单位,这样的话中级才会要求核心刊物。第二,价格问题,核心我就不说了,浮动太大没法说估计你也用不着,通常而言,综合科技类的省级和国家级价格基本持平,在五百左右,这个价格仅供参考,每个期刊都有自己的价格,如果是化工类专业性强一点的,价格可能略贵。大家不说价格的原因是公开的地方不方便,每个人都有自己的渠道,高了低了难免有纠纷,估计你也能理解,此外,注意无论是找编辑部还是找代理,资金安全要注意。定金和真伪鉴定都是作者需要考察的东西。我是代理,前几天还遇到了《学问》这个期刊的假刊,差点上当。 问题九:医学论文在哪发表论文好? 这个要看你的具体专业,以及对发表杂志有无要求。 比如你是传染病防治的,那最好还是发中国疾病控制之类的。 比如你要求中文核心期刊,那就选择专业对口的中文核心。 比如你要求SCI,那就选择SCI杂志。

论文发表的途径有两种:一是自己进行杂志社的选择进行投稿论文,二是可通过一些网站来进行论文的投稿发表。还有一些是通过朋友或者其他人员的介绍来进行论文的投稿。不管是哪种方面的论文投稿都要注意投稿的各项要求与信息,这样你的论文才能被收录发表。六零16四八26四

优化的分布式梯度提升算法,end-to-end 不需要特征抽取。输入原始数据,就能输出目标结果。 整篇论文技术实现分两个部分显而易见,xgboost是非线性(Tree)的加法模型如果是回归问题则可能是:                                                                                    而分类问题则应该是交叉熵, 此处 : 二分类问题: 多分类问题: 这里review一下,对于多分类及二分类,交叉熵及soft公式,二分类均是多分类的特例 : : 原文描述:Default direction, 按我的理解应该是:每轮迭代,每颗树对待一个特征缺失的方向处理应该是一致的,但是不同特征的缺失方向是随机的;不同的迭代子树,策略也是随机的在建树的过程中,最耗时是找最优的切分点,而这个过程中,最耗时的部分是 将数据排序 。为了减少排序的时间,Xgboost采用 Block结构 存储数据(Data in each block is stored in the compressed column (CSC) format, with each column sorted by the corresponding feature value) 对于approximate算法来说,Xgboost使用了多个Block,存在多个机器上或者磁盘中。每个Block对应原来数据的子集。不同的Block可以在不同的机器上计算。该方法对Local策略尤其有效,因为Local策略每次分支都重新生成候选切分点。使用Block结构的一个缺点是取梯度的时候,是通过索引来获取的,而这些梯度的获取顺序是按照特征的大小顺序的。这将导致非连续的内存访问,可能使得CPU cache缓存命中率低,从而影响算法效率在非近似的贪心算法中, 使用 缓存预取(cache-aware prefetching) 。具体来说,对每个线程分配一个连续的buffer,读取梯度信息并存入Buffer中(这样就实现了非连续到连续的转化),然后再统计梯度信息 在近似 算法中,对Block的大小进行了合理的设置。 定义Block的大小为Block中最多的样本数 。设置合适的大小是很重要的,设置过大则容易导致命中率低,过小则容易导致并行化效率不高。经过实验,发现2^16比较好当数据量太大不能全部放入主内存的时候,为了使得out-of-core计算称为可能,将数据划分为多个Block并存放在磁盘上。计算的时候,使用独立的线程预先将Block放入主内存,因此可以在计算的同时读取磁盘。但是由于磁盘IO速度太慢,通常更不上计算的速度。因此,需要提升磁盘IO的销量。Xgboost采用了2个策略: Block压缩(Block Compression):将Block按列压缩(LZ4压缩算法?),读取的时候用另外的线程解压。对于行索引,只保存第一个索引值,然后只保存该数据与第一个索引值之差(offset),一共用16个bits来保存 offset,因此,一个block一般有2的16次方个样本。 Block拆分(Block Sharding):将数据划分到不同磁盘上,为每个磁盘分配一个预取(pre-fetcher)线程,并将数据提取到内存缓冲区中。然后,训练线程交替地从每个缓冲区读取数据。这有助于在多个磁盘可用时增加磁盘读取的吞吐量。[1]  R. Bekkerman. The present and the future of the kdd cup competition: an outsider’s perspective. (xgboost应用) [2]  R. Bekkerman, M. Bilenko, and J. Langford. Scaling Up Machine Learning: Parallel and Distributed Approaches. Cambridge University Press, New York, NY, USA, 2011.(并行分布式设计) [3]  J. Bennett and S. Lanning. The netflix prize. In Proceedings of the KDD Cup Workshop 2007, pages 3–6, New York, Aug. 2007.(xgboost应用) [4]  L. Breiman. Random forests. Maching Learning, 45(1):5–32, Oct. 2001.(Breiman随机森林论文) [5]  C. Burges. From ranknet to lambdarank to lambdamart: An overview. Learning, 11:23–581, 2010. [6]  O. Chapelle and Y. Chang. Yahoo! Learning to Rank Challenge Overview. Journal of Machine Learning Research - W & CP, 14:1–24, 2011.(xgboost应用) [7]  T. Chen, H. Li, Q. Yang, and Y. Yu. General functional matrix factorization using gradient boosting. In Proceeding of 30th International Conference on Machine Learning(通过梯度提升的方法来实现general的矩阵分解) (ICML’13), volume 1, pages 436–444, 2013. [8] T. Chen, S. Singh, B. Taskar, and C. Guestrin. Efficient second-order gradient boosting for conditional random fields. In Proceeding of 18th Artificial Intelligence and Statistics Conference (AISTATS’15), volume 1, 2015.(二阶导boost实现的条件随机场) [9] R.-E. Fan, K.-W. Chang, C.-J. Hsieh, X.-R. Wang, and C.-J. Lin. LIBLINEAR: A library for large linear classification. Journal of Machine Learning Research, 9:1871–1874, 2008.(xgboost应用) [10] J. Friedman. Greedy function approximation: a gradient boosting machine. Annals of Statistics, 29(5):1189–1232, 2001.(gbm的贪心算法实现) [11] J. Friedman. Stochastic gradient boosting. Computational Statistics & Data Analysis, 38(4):367–378, 2002. (随机梯度下降) [12] J. Friedman, T. Hastie, and R. Tibshirani. Additive logistic regression: a statistical view of boosting. Annals of Statistics, 28(2):337–407, 2000.(叠加式的逻辑回归方式) [13] J. H. Friedman and B. E. Popescu. Importance sampled learning ensembles, 2003.(采样学习) [14] M. Greenwald and S. Khanna. Space-efficient online computation of quantile summaries. In Proceedings of the 2001 ACM SIGMOD International Conference on Management of Data, pages 58–66, 2001. [15] X. He, J. Pan, O. Jin, T. Xu, B. Liu, T. Xu, Y. Shi, A. Atallah, R. Herbrich, S. Bowers, and J. Q. n. Candela. Practical lessons from predicting clicks on ads at facebook. In  Proceedings of the Eighth International Workshop on Data Mining for Online Advertising, ADKDD’14, 2014.(xgboost应用) [16] P. Li. Robust Logitboost and adaptive base class (ABC) Logitboost. In Proceedings of the Twenty-Sixth Conference Annual Conference on Uncertainty in Artificial Intelligence (UAI’10), pages 302–311, 2010.(logitboost) [17] P. Li, Q. Wu, and C. J. Burges. Mcrank: Learning to rank using multiple classification and gradient boosting. In Advances in Neural Information Processing Systems 20, pages 897–904. 2008.(多分类应用) [18] X. Meng, J. Bradley, B. Yavuz, E. Sparks, S. Venkataraman, D. Liu, J. Freeman, D. Tsai, M. Amde, S. Owen, D. Xin, R. Xin, M. J. Franklin, R. Zadeh, M. Zaharia, and A. Talwalkar. MLlib: Machine learning in apache spark.  Journal of Machine Learning Research, 17(34):1–7, 2016.(分布式机器学习设计) [19] B. Panda, J. S. Herbach, S. Basu, and R. J. Bayardo. Planet: Massively parallel learning of tree ensembles with mapreduce. Proceeding of VLDB Endowment, 2(2):1426–1437, Aug. 2009.(分布式机器学习设计) [20] F. Pedregosa, G. Varoquaux, A. Gramfort, V. Michel, B. Thirion, O. Grisel, M. Blondel, P. Prettenhofer, R. Weiss, V. Dubourg, J. Vanderplas, A. Passos, D. Cournapeau, M. Brucher, M. Perrot, and E. Duchesnay. Scikit-learn: Machine learning in Python.  Journal of Machine Learning Research, 12:2825–2830, 2011.(sklearn) [21] G. Ridgeway. Generalized Boosted Models: A guide to the gbm package. [22] S. Tyree, K. Weinberger, K. Agrawal, and J. Paykin. Parallel boosted regression trees for web search ranking. In Proceedings of the 20th international conference on World wide web, pages 387–396. ACM, 2011. [23] J. Ye, J.-H. Chow, J. Chen, and Z. Zheng. Stochastic gradient boosted distributed decision trees. In Proceedings of the 18th ACM Conference on Information and Knowledge Management, CIKM ’09. [24] Q. Zhang and W. Wang. A fast algorithm for approximate quantiles in high speed data streams. In Proceedings of the 19th International Conference on Scientific and Statistical Database Management, 2007.(数据处理加速计算) [25] T. Zhang and R. Johnson. Learning nonlinear functions using regularized greedy forest. IEEE Transactions on Pattern Analysis and Machine Intelligence, 36(5), 2014.

首先,你要确定好自己所要发表论文的期刊,罗列好大致有那几个。1.找适合你的期刊,上面都会表明投稿邮箱、联系电话、联系方式等,可自己联系。2.各大检索数据库查找,部分期刊在被收录的数据库的页面是有征稿函的.征稿函里一般有官方的联系方式,直接按格式整理,按要求投稿即可。3.查找期刊的官方网站,注意很多网站只是代理征稿网站或者子网站,并不是真正的官网,而且有些期刊是没有官方网站的,可以联系查找主办单位的联系方式进行咨询。4.用搜索引擎搜索《期刊刊名》+征稿函.少部分期刊是会有编辑对外发布征稿信息的,但是这个就需要你自己擦亮眼睛进行分辨是不是真正的征稿信息了。5.找论文代理或者代投机构.万能的某宝或者百度,搜索XX发表,提醒你擦亮眼睛,子很多很多很多。其他,你可以咨询身边已经成功投稿发表的朋友,既然已成功发表,渠道肯定没问题,比你自己摸索要非常省时省力。(资料来源:中国论文网http;//)

在潍坊发表论文在哪发表

大部分论文都在期刊上发表,CN期刊。

少数的是发表到国外的期刊,或者直接是在杂志的官网上线,比如SCI。对于大多数人来说,发表CN期刊就可以了。

期刊,定期出版的刊物。如周刊、旬刊、半月刊、月刊、季刊、半年刊、年刊等。由依法设立的期刊出版单位出版刊物。期刊出版单位出版期刊,必须经新闻出版总署批准,持有国内统一连续出版物号,领取《期刊出版许可证》。

广义上分类

从广义上来讲,期刊的分类,可以分为非正式期刊和正式期刊两种。非正式期刊是指通过行政部门审核领取“内部报刊准印证”作为行业内部交流的期刊(一般只限行业内交流不公开发行),但也是合法期刊的一种,一般正式期刊都经历过非正式期刊过程。

正式期刊是由国家新闻出版署与国家科委在商定的数额内审批,并编入“国内统一刊号”,办刊申请比较严格,要有一定的办刊实力,正式期刊有独立的办刊方针。

“国内统一刊号”是“国内统一连续出版物号”的简称,即“CN号”,它是新闻出版行政部门分配给连续出版物的代号。“国际刊号”是“国际标准连续出版物号”的简称,即“ISSN号”,我国大部分期刊都配有“ISSN号”。

此外,正像报纸一样,期刊也可以不同的角度分类。有多少个角度就有多少种分类的结果,角度太多则流于繁琐。一般从以下三个角度进行分类:

按学科分类

以《中国图书馆图书分类法.期刊分类表》为代表,将期刊分为五个基本部类:

(1)思想(2)哲学(3)社会科学(4)自然科学(5)综合性刊物。在基本部类中,又分为若干大类,如社会科学分为社会科学总论、政治、军事、经济、文化、科学、教育、体育、语言、文字、文学、艺术、历史、地理。

按内容分类

以《中国大百科全书》新闻出版卷为代表,将期刊分为四大类:

(1)一般期刊,强调知识性与趣味性,读者面广,如我国的《人民画报》、《大众电影》,美国的《时代》、《读者文摘》等;

(2)学术期刊,主要刊载学术论文、研究报告、评论等文章,以专业工作者为主要对象;

(3)行业期刊,主要报道各行各业的产品、市场行情、经营管理进展与动态,如中国的《摩托车信息》、《家具》、日本的《办公室设备与产品》等;

(4)检索期刊,如我国的《全国报刊索引》、《全国新书目》,美国的《化学文摘》等。

按学术地位分类

可分为核心期刊和非核心期刊(通常所说的普刊)两大类。

关于核心期刊

核心期刊,是指在某一学科领域(或若干领域)中最能反映该学科的学术水平,信息量大,利用率高,受到普遍重视的权威性期刊。

发表论文的平台如下:

1.知网

这里所说的是知网,是清华大学和清华同方共同办的这个数据库。在前些年他也叫中国期刊网,由于后来有人自己建了个网站也叫中国期刊网,自己收录期刊,假李逵装真李逵。玩文字游戏,导致很多作者被上当。

所以现在知网对外不称中国期刊网了,就是叫知网。从论文发表来说,知网是最权威的,最有说服力的数据库。

凡是知网收录的期刊,一定是正规的,可以放心大胆的发表的,但是最近这两年知网变得更严格,所以知网收录的期刊发表费用比较贵一些。

2.万方数据库

万方数据库,也是一个比较大的论文数据库,仅次于知网。其权威性和重要性就等于是一个弱化版的知网,但是也是比较大。

从期刊正规性来说,如果一个期刊,知网不收录,但是万方数据库收录,说明还是比较正规的,虽然不如知网收录的那么正规。但是对于一般单位来说够用。

对于大学这样的单位可能必须要求知网。而对于一些企业单位,只要万方数据库能检索到已经发表的论文,就算不错了。所以,万方数据库也是一个必须参考的标准。

3.维普网

维普网在前些年实际上假刊比较多,比较泛滥,这两年所说期刊审核严格,上面审核严格,但是维普网收录的期刊从正规性和权威性上来说,都是严重不如知网和万方数据库。

对于很多要求不高的单位,或者评一些初级职称的单位,只有维普网收录的期刊还能管点用。稍微严格一些的,就不大灵光了。

发表在sci的论文在哪看

1、知网高级检索页,先点击下方的“学术期刊”板块,就出现了“来源类别”选项,可选sci

2、Web of Science是获取全球学术信息的重要数据库,收录各学科领域中权威、有影响力的期刊。Web of Science 包括著名的三大引文索引数据库(SCI、SSCI、A&HCI)。

在Web of Science首页选择“Web of Science核心合集”

查找 SCI 论文有用的方法和步骤如下:

1、使用学术搜索引擎。像 Google Scholar、Microsoft Academic、PubMed 等搜索引擎都提供了检索 SCI 论文的功能,可以根据关键词、作者、期刊等信息来查找相关的文献。

2、使用学术文献数据库。常见的学术文献数据库包括 Web of Science、Scopus、CNKI 等,这些数据库都提供了广泛的文献资源,可以通过关键词、作者、期刊等信息来检索 SCI 论文。

3、根据期刊的影响因子进行筛选。SCI 期刊是由 Clarivate Analytics 公司评定的高影响因子期刊,因此可以根据期刊的影响因子来筛选和查找 SCI 论文。

4、使用专门的SCI论文检索工具。一些专门的SCI论文检索工具如SCI-Hub,可以在无法获取到付费SCI论文时通过检索页面直接获取到论文全文。

以下是搜sci论文的方法:

一、通过CNKI、万方数据

很多学术论文检索的网站都可以检索到SCI论文,例如CNKI,万方数据等。我们以CNKI为例,看看如何查询。

登录CNKI官网,在页面内选择高级检索跳转至检索页面后,在“学术期刊”中选择“SCI来源”,随后在检索栏里输入相应的期刊名、作者等信息。

二、通过Web of Science和Sciencedirect进行查询

CNKI可以查到绝大部分的SCI论文,但是不如Web of Science和Sciencedirect收录的全面,上述两个网站,一个是SCI的官网网站,一个是专门收录SCI论文的网站。在收录领域完全覆盖的同时,更新的速度快。两个网站的检索论文方式差不多,以Web of Science为例。

二者检索论文的方式差异不大,以Web of Science为例,登陆官网后在数据库中选择“Core collection”,在搜索框内输入期刊名、刊号等相关信息。

三、Web of Science不是免费开放的

在学术者检索论文之前,需要明确的是,SCI的数据库并不免费开放。如果查询者并不想花费查询费用,可以寻找就近的高等院校,通过该院校校园网账号进入高等教育图书馆的SCI数据库进行检索。

在哪里发表论文在哪找

写论文推荐以下网站:

1、知网

这个网站作为大学生都应该知道,知网是国内查找学术文献最齐全的网站,以收录核心期刊和专业期刊为主。

大多数高校都会给学生购买知网的版权,学生可以通过校园网登陆网站进行查询下载资料,那在校外也可以通过对应的账号进行登陆,随时下载文献。

2、维普网

中文科技期刊资源一站式服务平台,维普网是国内独家仓储式作品出版平台,提供各类学术论文、各类范文、中小学课件、教学资料等文献下载。

3、万方数据知识服务平台

内容以科技信息为主,兼顾人文,适合工科或理工科院校,重点收录以科技部论文统计源的核心期刊,核心期刊比例高,收录文献质量高。

4、百度学术

百度学术可以快速检测到收费和免费的学术论文、图书、会议等,而且支持时间、关键词、作者等多种条件的筛选,针对一篇文章还提供了多个来源,一个网站无法下载,可以用另外一个。

与百度学术类似的还有Bing学术搜索、谷歌学术搜索。

5、中国国家图书馆

与国内多家公共图书馆联合,集合4万余册电子图书资源、上千种电子期刊以及各地图书馆分站的优质特色数字资源。只需要注册、实名认证就可以免费下载和查看。

6、超星发现

这个网站主要面向大学以上高校用户,是全世界最大的中文电子书图书网站,数据涵盖了1949年后85%以上的中国大陆所有出版书籍。

毕业设计可以去以下网址找.

一、 综合类1、蓝之韵论文http://www.21blue.com 门类较全。2、学生大论文中心、蜂朝无忧论文网门类很全。4、论文下载中心门类很全。5、论文帝国

二、 教育类1、教研论文交流中心以中小学教育为主,基础教育、英语教学文章居多。2、教育教学论文网以教育论文为主,包含:语文论文 美术论文 物理论文化学论文 英语论文 历史论文 德育论文 教学论文数学论文 音乐论文 生物论文 自然论文 体育论文地理论文 摄影论文 劳动技术 农村教育 毕业论文素质论文 医学论文 电子电器学 思维科学 计算机论文活动课教学 书法篆刻论文 创新教育研究 心理健康教育西部教育论文 信息技术论文3、教育论文、中国园丁网论文大观、北大附小学校教师的文章:三、 专业类1、优秀论文杂志以科技类为主。2、论文资料网以财经经济管理类为主。3、法律图书馆文如其名。4、法学论文资料库文如其名。5、中国总经理网论文集、mba职业经理人论坛、中国农业在线-农业论文、体育论文、财经学位论文下载中心、公开发表论文_深圳证券交易所、中国路桥资讯网论文资料中心、论文商务中心、法律帝国:四、 论文写作教学类1、学术论文其实是学术论文的写作网站。五、 博硕士论文1、论文统计实际上就是万方的论文统计。2、台湾博硕士论文咨讯网、北京大学学位论文样本收藏、学位论文 (清华大学)科技论文在线论文中国 :新浪论文网分类:中国论文联盟:大学生论文库论文资料网:论文下载中心:毕业论文网:学位论文:无忧论文网:北京语言文化大学论文库:

相关百科
热门百科
首页
发表服务