首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 15 毫秒
1.
针对传统E-learning系统的不足,本文提出了一个新的基于推拉模式的交互式个性化学习评价环境。在拉模式中,通过信息采集和分析算法来发现学习过程中的弱点。在推模式中,选择合适的算法来建立个性化的学习评价模型。最后通过决策树理论提供给用户合理的建议。实验结果表明了本文所提出的评价算法的有效性和准确性。  相似文献   

2.
基于知识结构图的个性化学习内容生成算法   总被引:2,自引:0,他引:2  
在结构化知识图的基础上,根据不同学生的学习状态,提出了网络学习环境的个性化学习内容生成算法.在课程本体知识结构图的基础上,经过动态评估学习过程而形成基于不同学生的个性化知识结构图,结合其子空间及有向无环图的拓扑排序方法,设计并实现了基于目标知识点的学习路径和个性化学习内容生成算法,以及在线学习环境中个性化学习内容生成机制.经网络学习课程实例验证表明,该算法可以满足学生个性化学习的需求.  相似文献   

3.
根据属性特征推荐资源,由于存在冷启动和稀疏性问题,限制了在线学习资源推荐的性能.基于知识表示和协同过滤,将学习者的学习水平和学习风格等特征融入推荐过程,进行协同过滤个性化推荐,提出了一种学习资源精准推荐模型,构建了学习者和学习资源知识表示模型;通过实验表明知识表示-协同过滤相结合的推荐算法在个性化推荐和推荐准确度方面优于传统的CF算法.  相似文献   

4.
丁旭 《科技信息》2010,(3):I0065-I0066
随着数据挖掘技术在网络学习平台上的应用,越来越多的网络学习者希望得到快速、准确的个性化推荐信息。本文以网络学习平台中学习行为频繁项集为倒。详细阐述了构建快速额繁模式统计分析模型的算法和评价。  相似文献   

5.
为了满足当前中小学教师继续教育系统的个性化服务需求,提高继续教育的效果,提出了一种新的基于学习分析的继续教育系统.首先基于LDA算法,提出了关注点的提取算法,用于生成具备个性化学习特点的学习序列,然后建立基于学习分析的个性化学员模型,对学习序列进行优化,最后利用该系统对考核成绩进行实验分析.该系统具备很好的鲁棒性和稳定性,能有效提高学员的学习成绩.  相似文献   

6.
在服务互联网环境下,大量的用户需求可能被不同的用户同时提出。如何针对用户的个性化需求快速有效地构造服务解决方案是一个值得研究的问题。文中提出了一种基于模式的个性化服务定制方法,通过实验验证了文中所提算法的有效性。首先,利用历史服务请求及服务解决方案识别出的需求模式和服务模式,建立需求模式和服务模式之间的匹配关系。然后,提出一种基于模式的个性化服务定制算法(LPSC)来处理用户的个性化需求。在LPSC算法中,对于每个用户的个性化需求,根据用户需求的相似度进行分类构造虚拟需求。再用有限个数的需求模式去替代虚拟需求,通过需求模式与服务模式的匹配关系找到需求模式对应的最佳服务模式集,通过服务模式的组合来产生最终的服务解决方案。  相似文献   

7.
基于知识点对象的个性化学习系统实施   总被引:3,自引:0,他引:3  
提出了一套个性化学习系统实施方案.该方案以知识点对象为核心组织学习资源,通过数据挖掘等方法获取学习者在学习进度和学习风格两方面模型,并采用“学习内容提取算法”获取适合学习者知识水平的学习内容,再通过XSL技术,根据不同的学习风格模型,对相同的知识点对象进行不同表现和封装.  相似文献   

8.
针对现有的个性化学习资源推荐方法存在不能够从学习者的学习缺陷出发推荐学习资源的不足,提出一种基于知识状态的个性化学习资源推荐方法,它首先根据知识点之间的关联关系构建知识图谱,然后根据学习者知识状态进行推导生成待学习知识点向量,最后设计相似性迭代算法从学习资源库中匹配最适合学习者的学习资源.通过实验证明,该方法具有不错的推荐效果和性能.  相似文献   

9.
一种面向个性化网络学习的协同学习任务生成方法   总被引:1,自引:0,他引:1  
提出了一种面向个性化网络学习的协同学习任务自动生成方法.该方法以学习目标与学习小组中学习者的个性特征为输入,通过基于学习者认知水平的协作成员分组和基于耦合度的协同学习模式分配,生成符合学习者群体个性特征的协同学习任务,从而有效地解决了网络学习中个性化学习与协同学习相结合的问题.该方法已在实时教学系统中进行了测试,结果表明,相对无指导的协同学习,根据此方法所生成的学习任务的协同学习可有效提高学习效率.  相似文献   

10.
基于智能体 (Agent)系统强化学习原理和基于动态规划的Q -学习算法的基础上 ,提出了一种新的Agent强化学习算法 .该算法在Agent学习过程中不断调整Agent知识库的加权值 ,在强化学习的每个阶段 ,通过选取合适的信度分配函数来修正Agent强化学习动作的选取策略 .与标准的Q -学习方法相比 ,具有更加合理的物理结构 ,并且能保证算法收敛 .仿真实验说明该方法加快了标准Q -学习算法的收敛速度 ,具有较好的学习性能  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号