期刊文献+
共找到7篇文章
< 1 >
每页显示 20 50 100
控制性低中心静脉压在腹腔镜肝切除中的应用:前瞻性随机对照研究 被引量:36
1
作者 陈熙 胡朝辉 +2 位作者 彭永海 罗华 杨培 《中国微创外科杂志》 CSCD 北大核心 2018年第7期585-589,共5页
目的探讨控制性低中心静脉压(controlled low central venous pressure,CLCVP)技术在肝细胞癌腹腔镜肝切除术中应用的有效性及安全性。方法选择2017年1~7月因肝细胞癌行腹腔镜肝切除术52例,采用密闭信封法随机分为低中心静脉压组27例(... 目的探讨控制性低中心静脉压(controlled low central venous pressure,CLCVP)技术在肝细胞癌腹腔镜肝切除术中应用的有效性及安全性。方法选择2017年1~7月因肝细胞癌行腹腔镜肝切除术52例,采用密闭信封法随机分为低中心静脉压组27例(低压组,2~4 cm H2O)和正常中心静脉压组25例(对照组,5~10 cm H2O)。2组年龄、性别、肿瘤直径、肝切除范围、肝癌分期、Child-Pugh分级、总胆红素、ICG-R15、肝硬度值差异均无统计学意义(P>0.05)。比较2组手术情况、术后并发症及术后住院时间。结果小范围(≤2个肝段)肝切除时,低压组(n=13)与对照组(n=14)手术时间、术中出血量、肝门阻断时间、术后并发症发生率、术后住院时间均无统计学差异(P>0.05)。大范围肝切除时,低压组(n=14)较对照组(n=11)具有较短的手术时间[(221.4±49.9)min vs.(287.2±69.4)min,t=-2.758,P=0.011],较少的术中出血量[中位数300(60~660)ml vs.450(200~1200)ml,Z=-2.853,P=0.004],较短的肝门阻断时间[15(10~45)min vs.30(15~60)min,Z=-2.429,P=0.015]以及较短的术后住院时间[(11.9±1.7)d vs.(14.1±2.2)d,t=-0.412,P=0.010]。结论在大范围腹腔镜肝切除时应用CLCVP技术是安全有效的,能够明显减少术中出血量,减少肝门阻断时间,缩短手术时间及住院日。 展开更多
关键词 肝切除 腹腔镜检查 肝细胞癌 中心静脉压 出血
在线阅读 下载PDF
一种电信行业海量数据分组统计方法 被引量:3
2
作者 王锐 陈丽 马方明 《计算机应用与软件》 CSCD 北大核心 2012年第12期237-239,共3页
结合电信行业海量数据的特点,提出一种分组统计方法,充分利用有限的、较低的系统资源成本,满足海量数据统计分析应用指标计算的精确性和及时性,特别是通过传统全量或增量方法无法快速出数的指标。采用合适的分组,该方法也可以应用于互... 结合电信行业海量数据的特点,提出一种分组统计方法,充分利用有限的、较低的系统资源成本,满足海量数据统计分析应用指标计算的精确性和及时性,特别是通过传统全量或增量方法无法快速出数的指标。采用合适的分组,该方法也可以应用于互联网、金融、电子商务等其他行业。 展开更多
关键词 海量数据 分组统计 增量统计
在线阅读 下载PDF
论数据分组的误导作用 被引量:4
3
作者 张皓 黄向阳 《商业经济与管理》 CSSCI 北大核心 2008年第4期62-66,共5页
对数据分组之后再进行处理是一种常见方法,但是这种方法可能产生错误结果。本文搜集了几个实际的数据分析案例,说明对数据的分析可以是任意的,但是对分析结果的解释必须受制于研究对象和周围条件。本文结合案例提出了一些避免分组陷阱... 对数据分组之后再进行处理是一种常见方法,但是这种方法可能产生错误结果。本文搜集了几个实际的数据分析案例,说明对数据的分析可以是任意的,但是对分析结果的解释必须受制于研究对象和周围条件。本文结合案例提出了一些避免分组陷阱的手段,还提供了理解辛普森悖论的一个角度。 展开更多
关键词 辛普森悖论 数据分组 统计方法的滥用
在线阅读 下载PDF
基于HADOOP的大数据描述统计分析 被引量:2
4
作者 宋廷山 郭思亮 韩伟 《统计与信息论坛》 CSSCI 北大核心 2015年第11期32-38,共7页
从统计学视角研究了大数据分析问题,以当前较为流行的Hadoop云计算平台为基础,分析设计了海量数据描述统计分析的整体架构,分析了相关统计分析算法的特点并给出了实现的具体思路。最后通过实际数据进行了实验性验证,取得了较为理想的效... 从统计学视角研究了大数据分析问题,以当前较为流行的Hadoop云计算平台为基础,分析设计了海量数据描述统计分析的整体架构,分析了相关统计分析算法的特点并给出了实现的具体思路。最后通过实际数据进行了实验性验证,取得了较为理想的效果,为海量数据的统计分析提供了一个可供借鉴的新思路。 展开更多
关键词 海量数据 描述统计分析 HADOOP平台
在线阅读 下载PDF
GDSS数据仓库的研究
5
作者 覃征 李伟华 +1 位作者 戚德虎 康继昌 《西北工业大学学报》 EI CAS CSCD 北大核心 1999年第2期247-251,共5页
提出一种GDSS核心部件数据仓库的设计要素,阐述了数据仓库的体系结构、数据仓库的决策支持数据、信息的挖掘及其管理方法,它将对群决策支持系统中数据共享、知识共享有着重要的应用价值。
关键词 群决策支持系统 数据仓库 知识库 GDSS 数据挖掘
在线阅读 下载PDF
基于指标间关联增效的指挥效能评估优化模型
6
作者 王子明 李冬 +1 位作者 杨大伟 王琪 《现代防御技术》 北大核心 2015年第6期199-203,共5页
针对传统的指挥效能评估模型没有考虑指标间相互影响的问题,基于对特定指标集进行多次观测所得的多维数据集,利用关联分析技术,分析并量化消费型指标对效益型指标的关联增效,并基于关联增效的数学期望构建了消费型指标的评估补偿量模型... 针对传统的指挥效能评估模型没有考虑指标间相互影响的问题,基于对特定指标集进行多次观测所得的多维数据集,利用关联分析技术,分析并量化消费型指标对效益型指标的关联增效,并基于关联增效的数学期望构建了消费型指标的评估补偿量模型,进而改进了传统的指挥效能评估模型。 展开更多
关键词 指挥效能 评估模型 评价指标 数据统计 关联分析 关联增效
在线阅读 下载PDF
大规模结构网格数据的相关性统计建模轻量化方法
7
作者 杨阳 武昱 +1 位作者 汪云海 曹轶 《计算机研究与发展》 EI CSCD 北大核心 2023年第3期676-689,共14页
高置信度的数据可视分析对于大规模数值模拟至关重要,但是当前高性能计算机的存储瓶颈导致可视分析应用获取原始高分辨率网格数据越来越困难.基于统计建模的方法能够极大降低高分辨数据存储成本,但是重建数据的不确定性高.为此,提出了... 高置信度的数据可视分析对于大规模数值模拟至关重要,但是当前高性能计算机的存储瓶颈导致可视分析应用获取原始高分辨率网格数据越来越困难.基于统计建模的方法能够极大降低高分辨数据存储成本,但是重建数据的不确定性高.为此,提出了一种大规模结构网格数据的相关性统计建模轻量化方法,用于对并行数值模拟生成的大规模多块体数据进行高效分析与可视化.该方法的技术核心是通过数据块间的统计相关性,指导邻接数据块的统计建模,从而有效地保留数据统计特征,且不需要对不同并行计算节点中的数据块进行合并与重新分块.通过耦合数据块的数值分布信息、空间分布信息和相关性信息,该方法可以更精确地重建原始数据,降低可视化的不确定性.实验测试采用了最大10亿网格规模的5组科学数据,定量分析结果显示,在相同数据压缩比下,该方法相比现有方法可将数据重建精度最大提升近2个数量级. 展开更多
关键词 数据轻量化 大规模并行科学模拟 大规模多块体数据 相关性统计建模 科学可视化
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部