
体育专业毕业论文开题报告模板
下面是我整理的体育专业毕业论文开题报告模板,希望对大家有所帮助。
1、 题目来源
2、 研究目的和意义
3、 阅读的主要参考文献及资料名称
4、 国内外现状和发展趋势与研究的主攻方向
5、 主要研究内容、需重点研究的关键问题及解决思路
6、 完成毕业设计(论文)所必须具备的工作条件(如工具书、计算机辅助设计、某类市场调研、实验设备和实验环境条件等)及解决的办法
7、 工作的主要阶段、进度与时间安排
8、开题报告参考文本:中学生缺乏体育兴趣原因分析与对策
中学生缺乏体育兴趣原因分析与对策
1、题目来源
社会实践
2、研究目的和意义
体育兴趣是人们力求积极认识和优先从事体育活动的心理倾向。它是与参与体育活动的需要相联系的意向活动。如果1个人对体育活动感兴趣,他就会积极参加,热心投入,活动的结果将是需要的满足并由此得到充分的情绪体验,所以体育兴趣是体育参与的基本动力之1。
在体育课越来越受重视的今天,还有学生不喜欢上体育课,每到上体育课和课外活动时间,总会找出种种借口向老师请假不上课或根本不到课堂上课。但如果学生对参加体育活动有了兴趣,他们就会把学习与体育锻炼作为自身的需要,积极参与体育活动,克服主观困难,以利于提高体育教学质量和养成良好的体育锻炼习惯。本课题的研究能够为广大体育教师寻找学生缺乏体育兴趣的原因提供参考,同时对于采取有效措施激发和培养学生的体育兴趣,调动学生在体育课或体育活动中的积极主动性具有1定的意义。
3、阅读的主要参考文献及资料名称
[1] 马启伟。体育心理学[M]。北京:高等教育出版社。1996
[2] 苏梅青,卢勤。浅谈学生体育兴趣的培养[J]。山西师大体育学院学报。2,4(35)
[3] 续志红。浅谈体育教学中如何激发学生的运动兴趣[J]。延安教育学院学报。24,4(18):77-78
[4] 谢月芳。关于中学生不喜欢体育课的调查分析。
[5] 顾久贤。谈如何培养学生的体育兴趣[J]。机械职业教育。24年第4期
[6] 丁文武。培养中学生对体育课的.兴趣。北大附中深圳南山分校网博雅刊第2期
[7] 罗士达,王立冲。如何培养中学生对体育课的兴趣[J]。体育成人教育
学刊。23,2(19):17-18
[8] 浅议中学生对体育课的兴趣。121学校体育网(理论研究)
[9] 缪本海,叶条凤。我院新生体育课的兴趣现状调查与分析[J]。广东水利电力
职业技术学院学报。24,4(18):77-78
[1] 王天惠。体育兴趣的培养与激发[J]。济宁师专学报。1999,6(2):52
[11] 杨宁宏。浅谈体育教学中学生体育兴趣的培养[J]。青海教育。24年第1-2期
[12] 卫洪斌。体育课激趣体会[J]。雅安职业技术学院学报。24,4(18):97-98
[13] 杨国红。体育兴趣与培养[J]。理论观察。24,5
[14] 叶钢。体育兴趣的激发与培养[J]。陕西教育。25,12
[15] 尚立文。鼓励性语言在体育教学中的妙用[J]。青海教育。24年第1-2期
4、国内外现状和发展趋势与研究的主攻方向
就目前来看,国内外研究此课题的很多,如:美国心理学家戴克提出的3大定律(练习律、效果律、准备律),明确提出学生学习动机、学习的兴趣在体育教学中的作用。这1理论对于激发学生的体育兴趣,活跃课堂气氛,提高教学质量很有价值。在日本,学校在体育教学的过程中,从组织教法和安排上,越来越注重提高学生的体育兴趣。在美国和北欧1些国家的体育课以学生为主,尽情发挥学生好动的天性激发课堂气氛,以提高学生的体育兴趣。这些国家的体育课都有个共同的特点就是注重课上激发学生的兴趣,使学生能够在愉快的气氛中进行体育锻炼。
现在国内对中学生缺乏体育兴趣原因和体育兴趣的培养相关的研究很多,如:谢月芳在《关于中学生不喜欢体育课的调查分析》中分析了中学生缺乏体育兴趣的原因。她认为中学生不喜欢上体育课的原因有自身和外部两方面的原因。而关于体育兴趣培养的研究比较多比较杂。
5、主要研究内容、需重点研究的关键问题及解决思路
本课题的研究,在总结前人经验基础上,从中学体育教学实际出发,提出对于中学生缺乏体育兴趣原因分析与对策的较新观点,以便为培养学生的体育兴趣,推动体育教学,促进学生全面发展提供参考。研究的主要内容包括以下几点:
1.中学生体育兴趣的现状;
2.中学生缺乏体育兴趣的原因;
3.解决问题的方法及对策。
需重点研究的是中学生缺乏体育兴趣的原因,及如何激发和培养学生的体育兴趣,使学生喜欢上体育课并积极主动的去参与体育活动。
6、完成毕业设计(论文)所必须具备的工作条件 (如工具书、计算机辅助设计、某类市场调研、实验设备和实验环境条件等)及解决的办法
1.查阅相关文献,要求图书馆对我们开放。
2.应用计算机辅助设计,要求学校机房对我们开放,给予我们足够的时间。
7、工作的主要阶段、进度与时间安排
本课题的研究时间期限为5个月左右,28年1月开题,28年5月结题。研究进度分为查阅指导教师指定及其它相关文献资料、总结分析文献资料、实地考察、资料整理、最后成文4个阶段。
28年1月 查阅文献资料阶段。
28年2月 分析文献资料、实地考察阶段。
28年3月—4月 资料整理阶段。
28年5月 最后成文阶段
人体姿态估计是计算机视觉中一个很基础的问题。从名字的角度来看,可以理解为对“人体”的姿态(关键点,比如头,左手,右脚等)的位置估计。 人体姿态估计可以分为两种思路, (1)“top-down”,它指先检测人体区域,再检测区域内的人体关键点。
已有"bottom-up"方法缺点:(1)未利用全局上下文先验信息,也即图片中其他人的身体关键点信息;(2)将关键点对应到不同的人物个体,算法复杂度太高。 文章改进点:提出“Part Affinity Fields (PAFs)”,每个像素是2D的向量,用于表征位置和方向信息。基于检测出的关节点和关节联通区域,使用greedy inference算法,可以将这些关节点快速对应到不同人物个体。
损失函数是保证网络能收敛的最重要的关键点,因此作者对两分支的损失函数均采用L2 loss。训练时,每个阶段都会产生loss,避免梯度消失;预测时只使用最后一层的输出。公式表示如下: 其中, 表示branch1 的label图,也称为heatmap; 是branch2 的label图 ,也称为vectormap。另外,考虑到有些训练数据集只标注了图片中部分人物的关节点,因此对损失函数采用了空域加权操作,W表示二值化mask矩阵,当位置p的标签缺失时其值为0,否则值为1。显然,对于未被标记的人物关节点 ,而被标记的人物关节点和非关节点 ,所以未被标记的人物关节点不会影响模型的学习过程,整个CNN网络架构的优化目标函数如下,
实际上就是使用2D高斯分布建模,求出一张图像上身体j部位的heatmap,记第k个人的第j个关节的heatmap为 , 表示位置信息,则有: 表示了使用part affinity fields(PAF)建模骨骼区域,对于骨骼区域内的每一个像素,使用2D向量同时表征位置和方向信息,这里的方向指代当前骨骼对应的关节点对的连接方向,对应vectormap。以下图的骨骼区域为例
经过上述过程,我们已经得到各个关节点的坐标图--heatmap,与关节对连接的vectormap,现在的问题就是如何合理地在推理阶段将各个关节连接成一段骨骼,并将它们组装成一个人? 关节拼接 :对于任意两个关节点位置 和 ,通过计算PAFs的线性积分来表征骨骼点对的相关性,也即表征了骨骼点对的置信度,公式表示如下, 为了快速计算积分,一般采用均匀采样的方式近似这两个关节点间的相似度, 多人检测 :由于图片中人数不确定,同时伴随遮挡、变形等问题,因此只使用上述计算关节对相似度,只能保证局部最优,因此作者利用greedy relaxation的思想生成全局较优的搭配。具体操作如下: (1)已知不同关节点的heatmap,也就是不同人的某个关节点的点集; (2)现在要将不同的点集进行唯一匹配,如:一群表示手肘的点集和手腕的点集,两点集中的点必须存在唯一匹配; (3) 关节点之间的相关性PAF已知,将关键点作为图的顶点,将关键点之间的相关性PAF看为图的边权,则将多人检测问题转化为二分图匹配问题,并用匈牙利算法求得相连关键点最优匹配。
由上图可知,COCO数据集总共有18个关键点,17个肢体骨架,但heatmap多了一个背景图,vectormap多了耳朵和肩膀的肢体,为什末要虚构这麽一个肢体呢,因为有时候人体是背对相机的,眼睛这个关键点是不可见的,为了更好的预测耳朵,引入这两个个肢体(也就是关节对:2-16和5-17)。所以总共有19个肢体,应为vectormap为矢量,预测时分为x,y两个分量,所以有19*2=38
完全参考 ,结合节中vectormap( )的计算公式与绿色虚线框内的区域以点集数学公式理解。 关键是叉乘的几何意义是两个向量所组成的平行四边形的面积,所以 就表示与向量 平行距离为 的区域,也就是骨骼宽度。
后来论文作者对网络结构进行了改进,使得效果更好,速度更快,参考文献【11】。
【1】 Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields 【2】 人体姿态估计的过去、现在和未来 【3】 论文解读-Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields 【4】 Realtime Multi-Person 2D Pose Estimation Using Part Affinity Fields【菜鸟读者】 【5】 知乎:openpose笔记 【6】 openpose论文总结:Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields 【7】 详细介绍匈牙利算法步骤 【8】 Github 项目 - OpenPose 关键点输出格式 【9】 openpose的细节处理 【10】 tf-openpose人体姿态估计标签生成--heatmap--vectormap 【11】 OpenPose: Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
参考: 姿态论文整理: 经典项目: 姿态识别和动作识别任务本质不一样,动作识别可以认为是人定位和动作分类任务,姿态识别可理解为关键点的检测和为关键点赋id任务(多人姿态识别和单人姿态识别任务) 由于受到收集数据设备的限制,目前大部分姿态数据都是收集公共视频数据截取得到,因此2D数据集相对来说容易获取,与之相比,3D数据集较难获取。2D数据集有室内场景和室外场景,而3D目前只有室内场景。 地址: 样本数:>= 30W 关节点个数:18 全身,多人,keypoints on 10W people 地址: 样本数:2K 关节点个数:14 全身,单人 LSP dataset to 10; 000 images of people performing gymnastics, athletics and parkour. 地址: 样本数:2W 关节点个数:9 全身,单人样本数:25K 全身,单人/多人,40K people,410 human activities 16个关键点:0 - r ankle, 1 - r knee, 2 - r hip,3 - l hip,4 - l knee, 5 - l ankle, 6 - l ankle, 7 - l ankle,8 - upper neck, 9 - head top,10 - r wrist,11 - r elbow, 12 - r shoulder, 13 - l shoulder,14 - l elbow, 15 - l wrist 无mask标注 In order to analyze the challenges for fine-grained human activity recognition, we build on our recent publicly available \MPI Human Pose" dataset [2]. The dataset was collected from YouTube videos using an established two-level hierarchy of over 800 every day human activities. The activities at the first level of the hierarchy correspond to thematic categories, such as ”Home repair", “Occupation", “Music playing", etc., while the activities at the second level correspond to individual activities, . ”Painting inside the house", “Hairstylist" and ”Playing woodwind". In total the dataset contains 20 categories and 410 individual activities covering a wider variety of activities than other datasets, while its systematic data collection aims for a fair activity coverage. Overall the dataset contains 24; 920 video snippets and each snippet is at least 41 frames long. Altogether the dataset contains over a 1M frames. Each video snippet has a key frame containing at least one person with a sufficient portion of the body visible and annotated body joints. There are 40; 522 annotated people in total. In addition, for a subset of key frames richer labels are available, including full 3D torso and head orientation and occlusion labels for joints and body parts. 为了分析细粒度人类活动识别的挑战,我们建立了我们最近公开发布的\ MPI Human Pose“数据集[2]。数据集是从YouTube视频中收集的,使用的是每天800多个已建立的两级层次结构人类活动。层次结构的第一级活动对应于主题类别,例如“家庭维修”,“职业”,“音乐播放”等,而第二级的活动对应于个人活动,例如“在屋内绘画”,“发型师”和“播放木管乐器”。总的来说,数据集包含20个类别和410个个人活动,涵盖比其他数据集更广泛的活动,而其系统数据收集旨在实现公平的活动覆盖。数据集包含24; 920个视频片段,每个片段长度至少为41帧。整个数据集包含超过1M帧。每个视频片段都有一个关键帧,其中至少包含一个人体,其中有足够的身体可见部分和带注释的身体关节。总共有40个; 522个注释人。此外,对于关键帧的子集,可以使用更丰富的标签,包括全3D躯干和头部方向以及关节和身体部位的遮挡标签。 14个关键点:0 - r ankle, 1 - r knee, 2 - r hip,3 - l hip,4 - l knee, 5 - l ankle, 8 - upper neck, 9 - head top,10 - r wrist,11 - r elbow, 12 - r shoulder, 13 - l shoulder,14 - l elbow, 15 - l wrist 不带mask标注,带有head的bbox标注 PoseTrack is a large-scale benchmark for human pose estimation and tracking in image sequences. It provides a publicly available training and validation set as well as an evaluation server for benchmarking on a held-out test set (). PoseTrack是图像序列中人体姿态估计和跟踪的大规模基准。 它提供了一个公开的培训和验证集以及一个评估服务器,用于对保留的测试集()进行基准测试。 In the PoseTrack benchmark each person is labeled with a head bounding box and positions of the body joints. We omit annotations of people in dense crowds and in some cases also choose to skip annotating people in upright standing poses. This is done to focus annotation efforts on the relevant people in the scene. We include ignore regions to specify which people in the image where ignored duringannotation. 在PoseTrack基准测试中, 每个人都标有头部边界框和身体关节的位置 。 我们 在密集的人群中省略了人们的注释,并且在某些情况下还选择跳过以直立姿势对人进行注释。 这样做是为了将注释工作集中在场景中的相关人员上。 我们 包括忽略区域来指定图像中哪些人在注释期间被忽略。 Each sequence included in the PoseTrack benchmark correspond to about 5 seconds of video. The number of frames in each sequence might vary as different videos were recorded with different number of frames per second. For the **training** sequences we provide annotations for 30 consecutive frames centered in the middle of the sequence. For the **validation and test ** sequences we annotate 30 consecutive frames and in addition annotate every 4-th frame of the sequence. The rationale for that is to evaluate both smoothness of the estimated body trajectories as well as ability to generate consistent tracks over longer temporal span. Note, that even though we do not label every frame in the provided sequences we still expect the unlabeled frames to be useful for achieving better performance on the labeled frames. PoseTrack基准测试中包含的 每个序列对应于大约5秒的视频。 每个序列中的帧数可能会有所不同,因为不同的视频以每秒不同的帧数记录。 对于**训练**序列,我们 提供了以序列中间为中心的30个连续帧的注释 。 对于**验证和测试**序列,我们注释30个连续帧,并且另外注释序列的每第4个帧。 其基本原理是评估估计的身体轨迹的平滑度以及在较长的时间跨度上产生一致的轨迹的能力。 请注意,即使我们没有在提供的序列中标记每一帧,我们仍然期望未标记的帧对于在标记帧上实现更好的性能是有用的。 The PoseTrack 2018 submission file format is based on the Microsoft COCO dataset annotation format. We decided for this step to 1) maintain compatibility to a commonly used format and commonly used tools while 2) allowing for sufficient flexibility for the different challenges. These are the 2D tracking challenge, the 3D tracking challenge as well as the dense 2D tracking challenge. PoseTrack 2018提交文件格式基于Microsoft COCO数据集注释格式 。 我们决定这一步骤1)保持与常用格式和常用工具的兼容性,同时2)为不同的挑战提供足够的灵活性。 这些是2D跟踪挑战,3D跟踪挑战以及密集的2D跟踪挑战。 Furthermore, we require submissions in a zipped version of either one big .json file or one .json file per sequence to 1) be flexible . tools for each sequence (., easy visualization for a single sequence independent of others and 2) to avoid problems with file size and processing. 此外,我们要求在每个序列的一个大的.json文件或一个.json文件的压缩版本中提交1)灵活的. 每个序列的工具(例如,单个序列的简单可视化,独立于其他序列和2),以避免文件大小和处理的问题。 The MS COCO file format is a nested structure of dictionaries and lists. For evaluation, we only need a subsetof the standard fields, however a few additional fields are required for the evaluation protocol (., a confidence value for every estimated body landmark). In the following we describe the minimal, but required set of fields for a submission. Additional fields may be present, but are ignored by the evaluation script. MS COCO文件格式是字典和列表的嵌套结构。 为了评估,我们仅需要标准字段的子集,但是评估协议需要一些额外的字段(例如,每个估计的身体标志的置信度值)。 在下文中,我们描述了提交的最小但必需的字段集。 可能存在其他字段,但评估脚本会忽略这些字段。 At top level, each .json file stores a dictionary with three elements: * images * annotations * categories it is a list of described images in this file. The list must contain the information for all images referenced by a person description in the file. Each list element is a dictionary and must contain only two fields: `file_name` and `id` (unique int). The file name must refer to the original posetrack image as extracted from the test set, ., `images/test/023736_mpii_test/`. 它是此文件中描述的图像列表。 该列表必须包含文件中人员描述所引用的所有图像的信息。 每个列表元素都是一个字典,只能包含两个字段:`file_name`和`id`(unique int)。 文件名必须是指从测试集中提取的原始posetrack图像,例如`images / test / 023736_mpii_test / `。 This is another list of dictionaries. Each item of the list describes one detected person and is itself a dictionary. It must have at least the following fields: * `image_id` (int, an image with a corresponding id must be in `images`), * `track_id` (int, the track this person is performing; unique per frame),` * `keypoints` (list of floats, length three times number of estimated keypoints in order x, y, ? for every point. The third value per keypoint is only there for COCO format consistency and not used.), * `scores` (list of float, length number of estimated keypoints; each value between 0. and 1. providing a prediction confidence for each keypoint), 这是另一个词典列表。 列表中的每个项目描述一个检测到的人并且本身是字典。 它必须至少包含以下字段: *`image_id`(int,具有相应id的图像必须在`images`中), *`track_id`(int,此人正在执行的追踪;每帧唯一), `*`keypoints`(浮点数列表, 长度是每个点x,y,?的估计关键点数量的三倍 。每个关键点的第三个值仅用于COCO格式的一致性而未使用。), *`得分`(浮点列表,估计关键点的长度数;每个值介于0和1之间,为每个关键点提供预测置信度), 数据集有360万个3D人体姿势和相应的图像,共有11个实验者(6男5女,论文一般选取1,5,6,7,8作为train,9,11作为test),共有17个动作场景,诸如讨论、吃饭、运动、问候等动作。该数据由4个数字摄像机,1个时间传感器,10个运动摄像机捕获。 由Max Planck Institute for Informatics制作,详情可见Monocular 3D Human Pose Estimation In The Wild Using Improved CNN Supervision论文 论文地址: 1,单人姿态估计的重要论文 2014----Articulated Pose Estimation by a Graphical Model with ImageDependent Pairwise Relations 2014----DeepPose_Human Pose Estimation via Deep Neural Networks 2014----Joint Training of a Convolutional Network and a Graphical Model forHuman Pose Estimation 2014----Learning Human Pose Estimation Features with Convolutional Networks 2014----MoDeep_ A Deep Learning Framework Using Motion Features for HumanPose Estimation 2015----Efficient Object Localization Using Convolutional Networks 2015----Human Pose Estimation with Iterative Error 2015----Pose-based CNN Features for Action Recognition 2016----Advancing Hand Gesture Recognition with High Resolution ElectricalImpedance Tomography 2016----Chained Predictions Using Convolutional Neural Networks 2016----CPM----Convolutional Pose Machines 2016----CVPR-2016----End-to-End Learning of Deformable Mixture of Parts andDeep Convolutional Neural Networks for Human Pose Estimation 2016----Deep Learning of Local RGB-D Patches for 3D Object Detection and 6DPose Estimation 2016----PAFs----Realtime Multi-Person 2D Pose Estimation using PartAffinity Fields (openpose) 2016----Stacked hourglass----StackedHourglass Networks for Human Pose Estimation 2016----Structured Feature Learning for Pose Estimation 2017----Adversarial PoseNet_ A Structure-aware Convolutional Network forHuman pose estimation (alphapose) 2017----CVPR2017 oral----Realtime Multi-Person 2D Pose Estimation usingPart Affinity Fields 2017----Learning Feature Pyramids for Human Pose Estimation 2017----Multi-Context_Attention_for_Human_Pose_Estimation 2017----Self Adversarial Training for Human Pose Estimation 2,多人姿态估计的重要论文 2016----AssociativeEmbedding_End-to-End Learning for Joint Detection and Grouping 2016----DeepCut----Joint Subset Partition and Labeling for Multi PersonPose Estimation 2016----DeepCut----Joint Subset Partition and Labeling for Multi PersonPose Estimation_poster 2016----DeeperCut----DeeperCut A Deeper, Stronger, and Faster Multi-PersonPose Estimation Model 2017----G-RMI----Towards Accurate Multi-person Pose Estimation in the Wild 2017----RMPE_ Regional Multi-PersonPose Estimation 2018----Cascaded Pyramid Network for Multi-Person Pose Estimation “级联金字塔网络用于多人姿态估计” 2018----DensePose: Dense Human Pose Estimation in the Wild ”密集人体:野外人体姿势估计“(精读,DensePose有待于进一步研究) 2018---3D Human Pose Estimation in the Wild by Adversarial Learning “对抗性学习在野外的人体姿态估计”
96 浏览 6 回答
330 浏览 3 回答
289 浏览 3 回答
353 浏览 7 回答
287 浏览 5 回答
88 浏览 3 回答
172 浏览 3 回答
123 浏览 2 回答
241 浏览 3 回答
219 浏览 5 回答
296 浏览 3 回答
318 浏览 4 回答
162 浏览 4 回答
344 浏览 5 回答
226 浏览 3 回答