去早发表网吧
《美国统计学协会期刊》,《生物统计杂志》,《皇家统计学协会期刊:B系列》,《统计学年报》,《美国统计学家》等都属于权威学术期刊.另外,朱力行教授曾经在【annals of statistics】上面发表文章,这个杂志被公认为国际统计学最顶级的杂志之一。范剑青教授担任【annals of statistics】的主编。
统计学参考文献格式
统计学是一门有关统计数据的科学。它研究如何搜集、整理资料和进行数量分析,推断的一门方法论科学。是统计工作经验的总结和概括。以下是我整理的统计学参考文献格式,欢迎阅读。
一、统计学参考文献的类型
参考文献(即引文出处)的类型以单字母方式标识,具体如下:
M――专著 C――论文集 N――报纸文章
J――期刊文章 D――学位论文 R――报告
对于不属于上述的文献类型,采用字母“Z”标识。
对于英文参考文献,还应注意以下两点:
1.作者姓名采用“姓在前名在后”原则,具体格式是: 姓,名字的首字母. 如: Malcolm Richard Cowley 应为:Cowley M.R.,如果有两位作者,第一位作者方式不变,&之后第二位作者名字的首字母放在前面,姓放在后面,如:Frank Norris 与Irving Gordon应为:Norris F. & I.Gordon.
2.书名、报刊名使用斜体字,如:Mastering English Literature,English Weekly。
二、统计学参考文献格式及举例
1.期刊类
【格式】[序号]作者.篇名[J].刊名,出版年份,卷号(期号):起止页码.
【举例】
[1] 王海粟.浅议会计信息披露模式[J].财政研究,2004,21(1):56-58.
[2] 夏鲁惠.高等学校毕业论文教学情况调研报告[J].高等理科教育,2004(1):46-52.
[3] Heider E.R.& D.C.Oliver. The structure of color space in naming and memory of two languages [J]. Foreign Language Teaching and Research, 1999, (3): 62-67.
2.专著类
【格式】[序号]作者.书名[M].出版地:出版社,出版年份:起止页码.
【举例】
[4] 葛家澍,林志军.现代西方财务会计理论[M].厦门:厦门大学出版社,2001:42.
[5]Gill R.Mastering English Literature [M]. London: acmil,1985: 42-45.
3.报纸类
【格式】[序号]作者.篇名[N].报纸名,出版日期(版次).
【举例】
[6] 李大伦.经济全球化的重要性[N]. 光明日报,1998-12-27(3).
[7] French W. Between Silences: A Voice from China[N]. Atlantic Weekly,1987-8-15(33).
4.论文集
【格式】[序号]作者.篇名[C].出版地:出版者,出版年份:起止页码.
【举例】
[8] 伍蠡甫.西方文论选[C]. 上海:上海译文出版社,1979:12-17.
[9] Spivak G. “Can the Subaltern Speak?”[A]. In C.Nelson & L. Grossberg(eds.). Victory in Limbo: Imigism [C].Urbana: University of Illinois Press, 1988, pp.271-313.
[10] Almarza G.G. Student foreign language teacher’s knowledge growth [A]. In D.Freeman and J.C.Richards (eds.). Teacher Learning in Language Teaching [C]. New York: Cambridge University Press. 1996. pp.50-78.
5.学位论文
【格式】[序号]作者.篇名[D].出版地:保存者,出版年份:起止页码.
【举例】
[11] 张筑生.微分半动力系统的不变集[D].北京:北京大学数学系数学研究所, 1983:1-7.
6.研究报告
【格式】[序号]作者.篇名[R].出版地:出版者,出版年份:起止页码.
【举例】
[12] 冯西桥.核反应堆压力管道与压力容器的LBB分析[R].北京:清华大学核能技术设计研究院, 1997:9-10.
7.条例
【格式】[序号]颁布单位.条例名称.发布日期
【举例】
[15] 中华人民共和国科学技术委员会.科学技术期刊管理办法[Z].1991-06-05.
8.译著
【格式】[序号]原著作者. 书名[M].译者,译.出版地:出版社,出版年份:起止页码.
【拓展内容】
统计学论文
摘要: 随着我国经济的发展,统计思想及统计工作在我国经济发展中的地位越来越重要。本文就统计思想体系及其在统计工作的指导意义进行了讨论。
关键词: 统计思想;统计工作;影响
在当前我国统计工作中,认清统计的真谛、领会统计思想,对统计本身来讲,有利于提高统计水平和统计工作者的整体素质;对外界而言,有利于树立别的工作及别的理论不能取代和比拟的统计权威。
一、统计思想简述
统计思想是指统计工作中应树立的世界观和方法论。哲学上世界观和方法论是基础,是人们行动的指南,也是统计工作中应遵守的指南。这里统计思想是指统计不同于别的学科所特有的世界观和方法论,也是树立统计权威的基础。
统计的总体思想使统计始终要站在研究对象的整体角度来看问题,形成了大量观察法和大数定律等一系列认识规律。所谓“站得高,看得远”、“把握大局”也是这种思想的体现。这要求统计工作者在工作中,做到万变不离其宗。因为,总体资料是由作为承担者的个体身上搜集后综合而来的,而个体资料千差万别,有些界限还不好判断。这时就需要站在总体的角度,看哪些符合总体要求,哪些不符合总体要求,避免“旁观者清,当局者迷”,避免偏离统计本身的功能。
二、统计思想的几个方面
1.均值思想。
均值是对所要研究对象的简明而重要的代表。均值概念几乎涉及所有统计学理论,是统计学的基本思想。它告诉我们统计认识问题是从其发展的一般规律来看,侧重点不在总规模或个体,体现了数量观和推断观。均值思想也要求从总体上看问题,但要求观察其一般发展趋势,避免个别偶然现象的干扰,故也体现了总体观。
2.变异思想。
统计研究同类现象的总体特征,它的前提则是总体各单位的特征存在着差异。如果各单位之间不存在差异,也就不需要做统计,如果各单位之间的差异是按已知条件事先可以推定,也就不需要用统计方法。统计方法就是要认识事物数量方面的差异。统计学反映变异情况较基本的概念是方差,是表示“变异”的“一般水平”的概念。可以说,均值与方差这两个概念分别起到“隐异显同”和“知同察异”的作用。平均与变异都是对同类事物特征的抽象和宏观度量。
3.估计思想。
估计以样本推测总体,是对同类事物的由此及彼式的认识方法。使用估计方法有一个预设:样本与总体具有相同的性质,样本才能代表总体,但样本的代表性受偶然因素影响,在估计理论对置信程度的测量就是保持逻辑严谨的必要步骤。
4.相关思想。
马克思主义哲学认为,事物是普遍联系的,在变化中,经常出现一些事物相随共变或相随共现的情况,总体又是由许多个别事务所组成,这些个别事物是相互关联的,我们所研究的事物总体是在同质性的基础上形成。总体中的个体之间、这一总体与另一总体之间是相互关联的。相关概念表现的就是事物之间的关系。
5.拟合思想。
拟合是对不同类型事物之间关系之表象的抽象。任何一个单一的关系必须依赖其他关系而存在,所有实际事物的关系都表现得非常复杂,这种方法就是对规律或趋势的拟合。拟合的成果是模型,反映一般趋势,趋势表达的是“事物和关系的变化过程在数量上所体现的模式和基于此而预示的可能性”。
6.思想。
统计方法总是归纳性的,其结论永远带有一定的或然性,基于局部特征和规律所推广出来的判断不可能完全可信,检验过程就是利用样本的实际资料来检验事先对总体某些数量特征的假设是否可信。
三、统计工作
统计工作应包括统计设计、统计调查、统计整理、统计分析、统计信息应用和发布等D 个环节;而作为统计工作成果的统计资料显然应包括调查的原始资料,整理的系统资料和分析的深度加工资料;统计学研究统计工作的全过程,同时也研究统计资料的可行性、可信性和可用性。3个涵义之间存在着严密的辨证关系。
统计工作的5个环节中,设计是基础,说统计学是方法论的科学,最主要的就体现在统计设计上;统计工作能否达到目的,关键也在于设计。若把统计工作看作是产品生产过程,统计设计就相当于产品设计,统计调查就是施工,统计整理就是组装,统计分析就是质量检验与分析,统计信息应用与发布就是广告宣传与销售。每一环节都具有很强的技术性,但设计和分析是技术性、理论性最强的工作,统计的特殊功能也主要体现在这两个环节上。统计设计实际上是告诉操作者怎样去调查,怎样去整理;分析与信息发布就是告诉用户统计可以达到什么目的.,而这些目的是别的专业达不到的。发达国家为什么对统计如此重视,联合国为什么专门设立统计委员会,关键也体现在这两个方面。
今天的社会,统计已相当发达,无论是资料搜集方法研究,还是统计规律研究,其目的都是为了认识我们所研究的对象,或者说认识统计总体。统计工作者从调查开始到整理出对外服务的系统资料,这一过程使人们对统计总体的外貌有比较清楚的认识,如果我们能再从数字后面找出内部特征,就能总结出现象发展的规律性,结合社会经济运行的法则,就可以提出管理社会经济的有效建议。统计指标体系是一个完整的科学系统,由统计指标所核定的数量是有科学涵义的,指标之间是有严密分工的。因此,统计分析是别的分析所不能比拟的。
四、统计工作如何改进
统计学虽然在20 世纪已经取得了无可比拟的伟大成就, 但还没有成熟为一个具有完整稳固基础的知识领域, 因为就统计学的研究对象而言, 其所能涉及到的范围是如此之大、我们所面临的未知是如此之多而不得不需要不断夯实和拓展其学科基础, 以保证统计学定量认知的职能与功能。所以, 从人类不断增加和提高的对统计的要求出发,我们要更强调多学科的交叉与相融, 要不断汲取其他相关学科例如数学、复杂系统科学、混沌学、仿真学、计算机学等的最新发展成果来补充、拓展统计学的基础, 否则,统计学的发展就会缺乏生命力, 就会裹足不前。
在市场经济时期,全面系统的统计工作却需要具有一定统计业务基础、专业技术和相对固定的统计人员来完成。相对稳定的统计队伍,可以积累经验,为企业管理做出更大、更快捷的贡献。如果责任心不强、上进心不足、业务素质低下,势必贻误正常工作。统计人员要善于学习,不断提高自己的业务素质,才能胜任本职工作。同时,企业单位,行业系统,尤其是企业集团需要具有责任心、富有时代感,并有开拓创新精神与较高业务素质,能带领同事一道学习与工作的统计负责人。
在这种情况下,统计人员应自尊,要自信、自强,方能自立。统计人员务必刻苦学习,努力工作争取创新,多出成果。与此同时,企业领导和有关部门,也应为统计人员创造机会,组织他们学习统计知识及相关的业务知识、法律制度和微机知识,支持他们参加统计工作会议,鼓励统计人员参加业务水平和技术职称的考试,引导他们积极提供统计资料,主动参与企业管理,对工作积极并有较大贡献或较快进步者,应该及时给予表彰。
随着社会的发展,统计学在我国的地位越来越高,也越来越受重视,统计思想体系也越来越完善,相信不久的将来我国的统计工作将会不入更高的一层台阶。
参考文献:
〔1〕思想探讨[J]. 合作经济与科技, 2006,(04)
〔2〕庞有贵.统计工作及统计思想 [J]. 科技情报开发与经济,2004,(03)
〔3〕唐源鸿.统计学的普及及应用[j].经营管理者,2010,(01)
推荐《人口学刊》,核心期刊,简介如下:
创刊时间:1979年8月主办单位:吉林大学主管单位:中华人民共和国教育部办刊宗旨:以马列主义、毛泽东思想和邓小平理论为指导,坚持党的四项基本原则,为人民服务,为社会主义建设服务。构建中国人口科学体系,为我国的人口与计划生育事业提供理论指导。办刊特色:以“学术的权威性,理论的创新性,方向的引领性,规范的样板性”为建刊目标,紧密结合我国的人口现象和人口实践,立足国情,面向世界,注意把握人口科学的发展脉络,捕捉人口科学的研究热点,积极创新,倡导争鸣,欣赏定性与定量相结合的研究方法,重视实践对理论的验证与反拨。主要栏目:综合研究、人口理论、人口政策、人口迁移、人口城市化、人口老龄化、少数民族人口、人口统计与分析、人口与发展、人口与资源环境、人口与社会保障、劳动就业与人力资源开发、计划生育理论与实践。
本科生可以发表的期刊很多,《魅力中国》《长江丛刊》《改革与开放》。
期刊,定期出版的刊物。如周刊、旬刊、半月刊、月刊、季刊、半年刊、年刊等。由依法设立的期刊出版单位出版刊物。期刊出版单位出版期刊,必须经新闻出版总署批准,持有国内统一连续出版物号,领取《期刊出版许可证》。
以《中国大百科全书》新闻出版卷为代表,将期刊分为四大类:
(1)一般期刊,强调知识性与趣味性,读者面广,如我国的《人民画报》、《大众电影》,美国的《时代》、《读者文摘》等;
(2)学术期刊,主要刊载学术论文、研究报告、评论等文章,以专业工作者为主要对象;
(3)行业期刊,主要报道各行各业的产品、市场行情、经营管理进展与动态,如中国的《摩托车信息》、《家具》、日本的《办公室设备与产品》等;
(4)检索期刊,如我国的《全国报刊索引》、《全国新书目》,美国的《化学文摘》等。
核心论文期刊如下:
1、南大核心期刊:
"中文社会科学引文索引"(CSSCI)由南京大学中国社会科学研究评价中心开发研制而成CSSCI来源文献检索界面,收录包括法学、管理学、经济学、历史学、政治学等在内的25大类的500多种学术期刊。
2、北大核心期刊:
又叫中文核心,《中文核心期刊要目总览》是由北京大学图书馆及北京十几所高校图书馆众多期刊工作者及相关单位专家参加的研究项目,项目研究成果以印刷型图书形式出版,此前已由北京大学出版社出了八版。
3、统计源期刊(又称“中国科技核心期刊”):
中国科学技术信息研究所“中国科技论文统计源期刊”,也叫科技核心,分为自然科学卷和社会科学卷,期刊较多。
4、中国社会科学院文献信息中心“中国人文社会科学核心期刊”:
中国社会科学院文献信息中心1996年开始进行人文社会科学文献计量研究工作, 建有“社会科学论文统计分析数据库”、“中国人文社会科学引文数据库”、社科论文摘转量统计库。
5、CSCD期刊:
中国科学院文献情报中心“中国科学引文数据库(CSCD)来源期刊”创建于1989年,收录我国数学、物理、化学、天文学、地学、生物学、农林科学、医药卫生、工程技术和环境科学等领域出版的中英文科技核心期刊和优秀期刊千余种。
CVPR这两年变味了
推荐下计算机视觉这个领域,依据学术范标准评价体系得出的近年来最重要的9篇论文吧: (对于英语阅读有困难的同学,访问后可以使用翻译功能) 一、Deep Residual Learning for Image Recognition 摘要:Deeper neural networks are more difficult to train. We present a residual learning framework to ease the training of networks that are substantially deeper than those used previously. We explicitly reformulate the layers as learning residual functions with reference to the layer inputs, instead of learning unreferenced functions. We provide comprehensive empirical evidence showing that these residual networks are easier to optimize, and can gain accuracy from considerably increased depth. On the ImageNet dataset we evaluate residual nets with a depth of up to 152 layers—8× deeper than VGG nets [40] but still having lower complexity. An ensemble of these residual nets achieves 3.57% error on the ImageNet test set. This result won the 1st place on the ILSVRC 2015 classification task. We also present analysis on CIFAR-10 with 100 and 1000 layers. The depth of representations is of central importance for many visual recognition tasks. Solely due to our extremely deep representations, we obtain a 28% relative improvement on the COCO object detection dataset. Deep residual nets are foundations of our submissions to ILSVRC & COCO 2015 competitions1, where we also won the 1st places on the tasks of ImageNet detection, ImageNet localization, COCO detection, and COCO segmentation. 全文链接: 文献全文 - 学术范 (xueshufan.com) 二、Very Deep Convolutional Networks for Large-Scale Image Recognition 摘要:In this work we investigate the effect of the convolutional network depth on its accuracy in the large-scale image recognition setting. Our main contribution is a thorough evaluation of networks of increasing depth using an architecture with very small (3x3) convolution filters, which shows that a significant improvement on the prior-art configurations can be achieved by pushing the depth to 16-19 weight layers. These findings were the basis of our ImageNet Challenge 2014 submission, where our team secured the first and the second places in the localisation and classification tracks respectively. We also show that our representations generalise well to other datasets, where they achieve state-of-the-art results. We have made our two best-performing ConvNet models publicly available to facilitate further research on the use of deep visual representations in computer vision. 全文链接: 文献全文 - 学术范 (xueshufan.com) 三、U-Net: Convolutional Networks for Biomedical Image Segmentation 摘要:There is large consent that successful training of deep networks requires many thousand annotated training samples. In this paper, we present a network and training strategy that relies on the strong use of data augmentation to use the available annotated samples more efficiently. The architecture consists of a contracting path to capture context and a symmetric expanding path that enables precise localization. We show that such a network can be trained end-to-end from very few images and outperforms the prior best method (a sliding-window convolutional network) on the ISBI challenge for segmentation of neuronal structures in electron microscopic stacks. Using the same network trained on transmitted light microscopy images (phase contrast and DIC) we won the ISBI cell tracking challenge 2015 in these categories by a large margin. Moreover, the network is fast. Segmentation of a 512x512 image takes less than a second on a recent GPU. The full implementation (based on Caffe) and the trained networks are available at http://lmb.informatik.uni-freiburg.de/people/ronneber/u-net. 全文链接: 文献全文 - 学术范 (xueshufan.com) 四、Microsoft COCO: Common Objects in Context 摘要:We present a new dataset with the goal of advancing the state-of-the-art in object recognition by placing the question of object recognition in the context of the broader question of scene understanding. This is achieved by gathering images of complex everyday scenes containing common objects in their natural context. Objects are labeled using per-instance segmentations to aid in precise object localization. Our dataset contains photos of 91 objects types that would be easily recognizable by a 4 year old. With a total of 2.5 million labeled instances in 328k images, the creation of our dataset drew upon extensive crowd worker involvement via novel user interfaces for category detection, instance spotting and instance segmentation. We present a detailed statistical analysis of the dataset in comparison to PASCAL, ImageNet, and SUN. Finally, we provide baseline performance analysis for bounding box and segmentation detection results using a Deformable Parts Model. 全文链接: 文献全文 - 学术范 (xueshufan.com) 五、Rethinking the Inception Architecture for Computer Vision 摘要:Convolutional networks are at the core of most state of-the-art computer vision solutions for a wide variety of tasks. Since 2014 very deep convolutional networks started to become mainstream, yielding substantial gains in various benchmarks. Although increased model size and computational cost tend to translate to immediate quality gains for most tasks (as long as enough labeled data is provided for training), computational efficiency and low parameter count are still enabling factors for various use cases such as mobile vision and big-data scenarios. Here we are exploring ways to scale up networks in ways that aim at utilizing the added computation as efficiently as possible by suitably factorized convolutions and aggressive regularization. We benchmark our methods on the ILSVRC 2012 classification challenge validation set demonstrate substantial gains over the state of the art: 21:2% top-1 and 5:6% top-5 error for single frame evaluation using a network with a computational cost of 5 billion multiply-adds per inference and with using less than 25 million parameters. With an ensemble of 4 models and multi-crop evaluation, we report 3:5% top-5 error and 17:3% top-1 error on the validation set and 3:6% top-5 error on the official test set. 全文链接: 文献全文 - 学术范 (xueshufan.com) 六、Mask R-CNN 摘要:We present a conceptually simple, flexible, and general framework for object instance segmentation. Our approach efficiently detects objects in an image while simultaneously generating a high-quality segmentation mask for each instance. The method, called Mask R-CNN, extends Faster R-CNN by adding a branch for predicting an object mask in parallel with the existing branch for bounding box recognition. Mask R-CNN is simple to train and adds only a small overhead to Faster R-CNN, running at 5 fps. Moreover, Mask R-CNN is easy to generalize to other tasks, e.g., allowing us to estimate human poses in the same framework. We show top results in all three tracks of the COCO suite of challenges, including instance segmentation, bounding-box object detection, and person keypoint detection. Without tricks, Mask R-CNN outperforms all existing, single-model entries on every task, including the COCO 2016 challenge winners. We hope our simple and effective approach will serve as a solid baseline and help ease future research in instance-level recognition. Code will be made available. 全文链接: 文献全文 - 学术范 (xueshufan.com) 七、Feature Pyramid Networks for Object Detection 摘要:Feature pyramids are a basic component in recognition systems for detecting objects at different scales. But pyramid representations have been avoided in recent object detectors that are based on deep convolutional networks, partially because they are slow to compute and memory intensive. In this paper, we exploit the inherent multi-scale, pyramidal hierarchy of deep convolutional networks to construct feature pyramids with marginal extra cost. A top-down architecture with lateral connections is developed for building high-level semantic feature maps at all scales. This architecture, called a Feature Pyramid Network (FPN), shows significant improvement as a generic feature extractor in several applications. Using a basic Faster R-CNN system, our method achieves state-of-the-art single-model results on the COCO detection benchmark without bells and whistles, surpassing all existing single-model entries including those from the COCO 2016 challenge winners. In addition, our method can run at 5 FPS on a GPU and thus is a practical and accurate solution to multi-scale object detection. Code will be made publicly available. 全文链接: 文献全文 - 学术范 (xueshufan.com) 八、ORB: An efficient alternative to SIFT or SURF 摘要:Feature matching is at the base of many computer vision problems, such as object recognition or structure from motion. Current methods rely on costly descriptors for detection and matching. In this paper, we propose a very fast binary descriptor based on BRIEF, called ORB, which is rotation invariant and resistant to noise. We demonstrate through experiments how ORB is at two orders of magnitude faster than SIFT, while performing as well in many situations. The efficiency is tested on several real-world applications, including object detection and patch-tracking on a smart phone. 全文链接: 文献全文 - 学术范 (xueshufan.com) 九、DeepLab: Semantic Image Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs 摘要:In this work we address the task of semantic image segmentation with Deep Learning and make three main contributions that are experimentally shown to have substantial practical merit. First , we highlight convolution with upsampled filters, or ‘atrous convolution’, as a powerful tool in dense prediction tasks. Atrous convolution allows us to explicitly control the resolution at which feature responses are computed within Deep Convolutional Neural Networks. It also allows us to effectively enlarge the field of view of filters to incorporate larger context without increasing the number of parameters or the amount of computation. Second , we propose atrous spatial pyramid pooling (ASPP) to robustly segment objects at multiple scales. ASPP probes an incoming convolutional feature layer with filters at multiple sampling rates and effective fields-of-views, thus capturing objects as well as image context at multiple scales. Third , we improve the localization of object boundaries by combining methods from DCNNs and probabilistic graphical models. The commonly deployed combination of max-pooling and downsampling in DCNNs achieves invariance but has a toll on localization accuracy. We overcome this by combining the responses at the final DCNN layer with a fully connected Conditional Random Field (CRF), which is shown both qualitatively and quantitatively to improve localization performance. Our proposed “DeepLab” system sets the new state-of-art at the PASCAL VOC-2012 semantic image segmentation task, reaching 79.7 percent mIOU in the test set, and advances the results on three other datasets: PASCAL-Context, PASCAL-Person-Part, and Cityscapes. All of our code is made publicly available online. 全文链接: 文献全文 - 学术范 (xueshufan.com) 希望对你有帮助!
PAMI:IEEE Transactions on Pattern Analysis and Machine Intelligence,IEEE 模式分析与机器智能杂志IJCV:International Journal on Computer Vision,国际计算机视觉杂志 TIP:IEEE Transactions on Image Processing,IEEE图像处理杂志CVIU:Computer Vision and Image Understanding,计算机视觉与图像理解PR:Pattern Recognition,模式识别PRL:Pattern Recognition Letters,模式识别快报
1,《汽车工来程》2011版北大中文核心期刊、2012年科技核心期刊:月刊,由中国汽车工程学会主办主要刊登汽车理论的探讨、试验研究成果以及汽车设计、制造、新材料使用、技术管理等方面的学术论文。
2,《汽车技术》2011版北大中文核心期刊、2012年科技核心期刊:(月刊)创刊于1970年,由中国汽车工程学会、长春汽车研究所主办。本刊以报道汽车整车及其零部件设计、研究、试验、材料、工艺、使用和维修等方面的应用技术为主,并兼有理论研究和普及知识。
扩展资料:
遴选范围:
遴选范围。创刊5年以上的公开发行的科技期刊;按国家有关规定,期刊社必须满足采编人员数量和质量规定的科技期刊;优先考虑我国优势学科和特色学科的科技期刊,优先考虑具备集约化发展趋势、由全国性学术社团或科研机构主办的优秀科技期刊。
定量指标:一是根据来源期刊的引文数据,进行规范化处理,计算各种期刊总被引频次、影响因子、即年指标、被引半衰期、论文地区分布数、基金论文数和自引总引比等项科技期刊评价指标,并按照期刊的所属学科、影响因子、总被引频次和期刊字顺分别进行排序。
中国知网中收录的统计学类核心期刊有3种,北大中文核心期刊、中国科学引文数据库(CSCD)、中国科技论文统计源期刊(即中国科技核心)。
各类别核心所收录的期刊:北大中文核心[仅1种]:中华护理杂志;中国科学引文数据库(CSCD)[仅4种]:中华护理杂志;护理学杂志;解放军护理杂志;中国护理管理。
相关信息介绍:
其他期刊介绍
1、《计算机工程与应用》。该期刊的主办单位是华北计算技术研究所,每半个月出版一次,为电子信息科学综合核心期刊。创刊时间为1964年,出版地是北京,邮发代号为82-605。
2、《环境化学》。该期刊的主办单位是中国科学院生态环境研究中心,为月刊类型,是环境科学与资源利用类的核心期刊。创刊时间为1982年,出版地是北京,邮发代号:82-394。
3、《控制工程》。该期刊的主办单位是东北大学,为月刊类型,是自动化技术类的核心期刊。创刊时间为1994年,出版地是辽宁省沈阳市,邮发代号:8-216。
首先,登录中国期刊全文数据库、万方数据库或者 维普数据库(此为中国三大专业文献数据库)或国外Pubmed/Medline等国外专业数据库,然后搜索相关的文献,写出您的文章。其次,再去以上数据库中搜索相关专业期刊编辑部信息(国家级或是非国家级,核心或者非核心,统计源或者非统计源期刊等等),找到投稿联系方式,这样的方法避免网上很多钓鱼网站,确保您投稿的期刊是合法的。最后,祝好运。欢迎交流。静石医疗,竭诚为您服务。
南京铁道医学院学报是统计源期刊吗?
据有统计源期刊的医学杂志:《中国基层医药》、《中国临床医学》、《实用预防医学》、北大核心期刊:《山东医药》、《重庆医学》、还有好的国家级的期刊,如果你想发表,你可以帮你。联系我吧。