期刊文献+
共找到33篇文章
< 1 2 >
每页显示 20 50 100
面向Serverless应用的跨函数行为分析与约束技术
1
作者 詹东阳 黄子龙 +3 位作者 谭凯 俞兆丰 贺铮 张宏莉 《信息网络安全》 北大核心 2025年第9期1329-1337,共9页
无服务器计算中的应用被分解为函数运行于不同容器中,由于具有轻量化优势被广泛应用,但是也带来了安全风险。这种架构使程序内部接口暴露于网络,增加了攻击面以及越权访问等安全风险,威胁控制流和数据流的完整性。而现有的安全检测方法... 无服务器计算中的应用被分解为函数运行于不同容器中,由于具有轻量化优势被广泛应用,但是也带来了安全风险。这种架构使程序内部接口暴露于网络,增加了攻击面以及越权访问等安全风险,威胁控制流和数据流的完整性。而现有的安全检测方法难以同时保护无服务器计算中容器(函数)间的控制流和数据流完整性。因此,文章提出一种面向Serverless应用的跨函数行为分析与约束技术,研究基于静态分析的函数间完整业务访问模型提取方法,实现实时的跨函数访问安全检测。实验结果表明,文章所提方法的异常控制流与数据流检出率分别达到97.54%和92.87%,并将监控误报率降低了10%以上,能够提升无服务器计算安全性。 展开更多
关键词 无服务器计算 静态分析 访问控制
在线阅读 下载PDF
Cloudless-Training:基于serverless的高效跨地域分布式ML训练框架
2
作者 谭文婷 吕存驰 +1 位作者 史骁 赵晓芳 《高技术通讯》 CAS 北大核心 2024年第3期219-232,共14页
跨地域分布式机器学习(ML)训练能够联合多区域的云资源协作训练,可满足许多新兴ML场景(比如大型模型训练、联邦学习)的训练需求。但其训练效率仍受2方面挑战的制约。首先,多区域云资源缺乏有效的弹性调度,这会影响训练的资源利用率和性... 跨地域分布式机器学习(ML)训练能够联合多区域的云资源协作训练,可满足许多新兴ML场景(比如大型模型训练、联邦学习)的训练需求。但其训练效率仍受2方面挑战的制约。首先,多区域云资源缺乏有效的弹性调度,这会影响训练的资源利用率和性能;其次,模型跨地域同步需要在广域网(WAN)上高频通信,受WAN的低带宽和高波动的影响,会产生巨大通信开销。本文提出Cloudless-Training,从3个方面实现高效的跨地域分布式ML训练。首先,它基于serverless计算模式实现,使用控制层和训练执行层的2层架构,支持多云区域的弹性调度和通信。其次,它提供一种弹性调度策略,根据可用云资源的异构性和训练数据集的分布自适应地部署训练工作流。最后,它提供了2种高效的跨云同步策略,包括基于梯度累积的异步随机梯度下降(ASGD-GA)和跨云参数服务器(PS)间的模型平均(MA)。Cloudless-Training是基于OpenFaaS实现的,并被部署在腾讯云上评估,实验结果表明Cloudless-Training可显著地提高跨地域分布式ML训练的资源利用率(训练成本降低了9.2%~24.0%)和同步效率(训练速度最多比基线快1.7倍),并能保证模型的收敛精度。 展开更多
关键词 跨地域分布式机器学习(ML)训练 跨云ML训练 分布式训练框架 serverless 跨云模型同步
在线阅读 下载PDF
大语言模型推理中的存储优化技术综述 被引量:3
3
作者 葛旭冉 欧洋 +5 位作者 王博 赵宇 吴利舟 王子聪 陈志广 肖侬 《计算机研究与发展》 北大核心 2025年第3期545-562,共18页
近年来,大语言模型在多个领域展现出卓越的性能,显著改变了人类的生活方式.然而,随着模型规模的不断增长和用户对长上下文推理需求的增加,大语言模型推理系统在存储方面面临诸多问题.首先,庞大的模型参数和键值缓存导致GPU显存资源不足... 近年来,大语言模型在多个领域展现出卓越的性能,显著改变了人类的生活方式.然而,随着模型规模的不断增长和用户对长上下文推理需求的增加,大语言模型推理系统在存储方面面临诸多问题.首先,庞大的模型参数和键值缓存导致GPU显存资源不足;其次,分布式大语言模型推理系统难以充分利用GPU集群的存储资源,存在资源过度配置和存储容错的问题.因此,从显存优化、异构存储和分布式存储3方面入手,归纳总结了现有研究在解决GPU显存容量不足和资源利用率低下方面的努力.基于显存优化的大语言模型推理系统通过高效的键值缓存管理、压缩以及注意力算子优化,提高了GPU显存利用率,降低了显存占用.基于异构存储的大语言模型推理系统利用多种类别的存储资源扩展存储容量,通过张量放置策略、异步数据传输以及智能显存分配与预取技术,降低了异构存储带来的I/O开销.基于分布式存储的大语言模型推理系统通过批处理、多级调度、冗余复制等策略,优化了多机存储和计算资源的利用,提高了大语言模型推理任务的执行效率和容错能力.最后,总结了现有研究,并对未来的研究方向进行了展望. 展开更多
关键词 大语言模型推理系统 显存管理 异构存储 分布式存储 故障恢复 无服务大语言模型推理
在线阅读 下载PDF
服务器无感知计算系统性能优化技术研究综述 被引量:1
4
作者 杨光 刘杰 +3 位作者 曲慕子 王帅 叶丹 钟华 《软件学报》 北大核心 2025年第1期47-78,共32页
服务器无感知计算是新兴的云计算模式,它基于“函数即服务(FaaS)”的范式,以函数为部署和调度的基本单位,为用户提供大规模并行和自动伸缩的函数执行服务,且无需用户管理底层资源.对于用户,服务器无感知计算能够帮助他们摆脱集群底层基... 服务器无感知计算是新兴的云计算模式,它基于“函数即服务(FaaS)”的范式,以函数为部署和调度的基本单位,为用户提供大规模并行和自动伸缩的函数执行服务,且无需用户管理底层资源.对于用户,服务器无感知计算能够帮助他们摆脱集群底层基础设施管理的负担,专注于业务层的开发和创新;对于服务提供商,服务器无感知计算将应用分解为细粒度的函数,极大地提高了调度效率和资源利用率.显著的优势让服务器无感知计算迅速吸引了业界的注意,然而,服务器无感知计算与传统云计算迥然不同的计算模式以及对任务各方面的严格限制给应用的迁移带来了诸多障碍,各种越来越复杂的任务也对服务器无感知计算的性能提出了越来越高的要求,服务器无感知计算的性能优化成为一个重要的研究课题.从4个方面对服务器无感知计算系统性能优化技术的相关研究工作进行梳理和综述,并介绍现有的系统实现.(1)介绍面向典型任务的优化技术,包括任务适配和针对特定任务的系统优化;(2)综述沙箱环境的优化工作,包括沙箱方案和冷启动优化技术,它们是决定函数运行速度的核心;(3)概括I/O和通信技术的优化,它们是服务器无感知计算应用程序的主要性能瓶颈;(4)简述相关的资源调度技术,包括面向平台和面向用户的调度策略,它们决定着系统的资源利用率和任务的执行效率.最后,总结当前服务器无感知计算性能优化技术所面临的问题和挑战,并展望未来可能的发展方向. 展开更多
关键词 服务器无感知计算 函数即服务 云函数 云计算 性能优化
在线阅读 下载PDF
基于无服务器计算的多方数据库安全计算系统 被引量:2
5
作者 马旭阳 周小凯 +5 位作者 郑浩宇 崔斌 徐泉清 杨传辉 晏潇 江佳伟 《软件学报》 北大核心 2025年第3期1084-1106,共23页
联合多方数据库的安全计算可以在保护数据隐私的情况下,对多个数据库的私有数据进行联合查询或联合建模.这样的联合体通常是一个松散的组织,各参与的数据库可以随时离线,然而现有多方安全计算系统通常采用秘密共享等隐私计算方案,需要... 联合多方数据库的安全计算可以在保护数据隐私的情况下,对多个数据库的私有数据进行联合查询或联合建模.这样的联合体通常是一个松散的组织,各参与的数据库可以随时离线,然而现有多方安全计算系统通常采用秘密共享等隐私计算方案,需要参与者保持在线状态,导致系统的可用性较差.此外,现有系统对外提供服务时无法预知用户的数量以及请求速度,如果将系统部署在私有集群或者租用云计算平台的虚拟机,面对爆发式请求时系统延迟增大,在请求较少时又造成资源浪费,表现出较差的可扩展性.随着云计算技术的发展,无服务器计算(serverless computing)作为一种新的云原生部署范式出现,具有良好的弹性资源伸缩能力.在该工作中,提出了基于无服务器计算环境的系统架构和间接通信方案,实现了一套高可扩展、高可用的多方数据库安全计算系统,可以容忍数据库节点掉线,并且在用户请求流量发生变化时自动伸缩系统资源.基于阿里云和OceanBase数据库实现了系统原型并进行了充分的实验对比,结果显示该系统在低频查询、横向建模等任务上,在计算成本、系统性能和可扩展性方面优于现有系统,最高能够节省78%的计算成本、提升系统性能1.6倍,同时也分析了本系统对于复杂查询、纵向建模等任务存在的不足. 展开更多
关键词 云原生系统 无服务器计算 多方数据库安全计算
在线阅读 下载PDF
FineFlow:FaaS工作流部署优化与执行系统
6
作者 刘璐 高浩城 +2 位作者 陈伟 吴国全 魏峻 《软件学报》 北大核心 2025年第2期488-510,共23页
FaaS(function-as-a-service,函数即服务)工作流由多个函数服务编排而成,通过对多个函数的协调控制来实现复杂的业务应用.当前FaaS工作流系统主要基于集中式的数据存储实现函数间的数据传递,导致FaaS函数间的数据传输开销大,显著影响应... FaaS(function-as-a-service,函数即服务)工作流由多个函数服务编排而成,通过对多个函数的协调控制来实现复杂的业务应用.当前FaaS工作流系统主要基于集中式的数据存储实现函数间的数据传递,导致FaaS函数间的数据传输开销大,显著影响应用性能.在高并发情况下,频繁的数据传输还会产生严重的网络带宽资源争用,导致应用性能下降.针对上述问题,基于函数服务间的细粒度数据依赖分析,提出一种基于关键路径的函数部署优化方法,设计了依赖敏感的数据存取与管理机制,有效减少函数间数据传输,从而降低FaaS工作流应用执行的数据传输时延和端到端时延.设计实现了FaaS工作流系统FineFlow,并基于5个真实FaaS工作流应用开展实验评估.实验结果表明,相比于基于集中式数据存储函数交互机制的FaaS工作流平台,FineFlow能够有效降低FaaS工作流应用的数据传输时延:最高降低74.6%,平均降低63.8%;平均降低应用端到端执行时延19.6%.特别地,对于具有明显细粒度数据依赖的FaaS工作流应用,相比于现有的基于数据本地性的优化方法,FineFlow能够使数据传输时延和端到端时延进一步分别降低28.4%和13.8%.此外,FineFlow通过减少跨节点的数据传输,能够有效缓解网络带宽波动对FaaS工作流执行性能的影响,提升应用性能受网络带宽影响的鲁棒性. 展开更多
关键词 FaaS工作流 函数即服务 服务器无感知计算 数据本地性 有向无环图 关键路径 部署优化
在线阅读 下载PDF
云边协同环境下面向负载时间窗口的无服务器应用资源分配方法
7
作者 张铭豪 肖博怀 +1 位作者 郑松 陈星 《计算机科学》 北大核心 2025年第6期336-345,共10页
随着云边协同环境中的计算需求日益多样化,以虚拟机为最小资源粒度的传统计算架构暴露出灵活性不足、成本效益低下等问题。无服务器计算作为一种具有出色扩展性与灵活性的新兴计算架构,为解决上述问题提供了新的思路。针对云边协同环境... 随着云边协同环境中的计算需求日益多样化,以虚拟机为最小资源粒度的传统计算架构暴露出灵活性不足、成本效益低下等问题。无服务器计算作为一种具有出色扩展性与灵活性的新兴计算架构,为解决上述问题提供了新的思路。针对云边协同环境下面向负载时间窗口的无服务器应用资源分配问题,提出了一种规则引导下基于协同进化算法的无服务器应用资源分配方法RARCA。该方法考虑某资源调整时刻及未来一段时间的工作负载情况,运用规则引导的分布式资源更新机制,实现计算资源的动态分配与调整。同时,协同进化机制的信息共享与协同优化能力,使得算法能够高效搜索全局最优的资源分配方案,显著提升了整体资源分配方案的实时性和有效性。实验结果表明,RARCA能够以秒级的决策时间获得更优质的资源分配方案,相比基准方法,在资源分配的性能上提高了2.8%~14.5%。 展开更多
关键词 云边协同 资源分配 负载时间窗口 无服务器计算 协同进化算法
在线阅读 下载PDF
拟态函数:面向无服务器的拟态防御研究
8
作者 傅则凡 潘高宁 +1 位作者 任一支 胡铭德 《信息网络安全》 北大核心 2025年第6期988-1002,共15页
虽然无服务器架构通过事件驱动和全托管模式降低了云计算的开发与运维成本,但其程序离散化、输入多源化和依赖复杂化的特性引发的安全威胁使传统防御机制难以应对。拟态防御虽能有效阻断漏洞利用链,但其异构策略在无服务器环境下存在局... 虽然无服务器架构通过事件驱动和全托管模式降低了云计算的开发与运维成本,但其程序离散化、输入多源化和依赖复杂化的特性引发的安全威胁使传统防御机制难以应对。拟态防御虽能有效阻断漏洞利用链,但其异构策略在无服务器环境下存在局限性,与无服务器函数应用机制不适配,导致实际部署困难。文章针对无服务器环境的安全挑战,提出一种面向无服务器的拟态防御方案——拟态函数。文章通过分析拟态防御框架下的异构条件,设计面向无服务器架构的异构策略,构造基于无服务器的拟态防御原型系统,实现对面向无服务器的未知漏洞利用的拦截阻断;进而,为了避免拟态防御场景下的拒绝钱包攻击(DoW)放大问题,文章通过对异构执行体调度算法的设计,缓解高并发流量对异构执行体调度不均衡的影响,实现系统异构性与性能的平衡。实验结果表明,拟态函数原型系统能够有效抵御面向无服务器的未知攻击,并且能够有效控制异构执行体离散度。 展开更多
关键词 无服务器 拟态防御 云原生
在线阅读 下载PDF
基于最长时延加权带宽的Wasm与容器混合函数部署优化方法
9
作者 谌燃照 李哲雄 +2 位作者 顾琳 钟梁 曾德泽 《计算机科学》 北大核心 2025年第9期170-177,共8页
容器技术因具备轻量化、易于部署和高可用等优势,在边缘服务器无感知计算平台中得到了广泛使用。然而,随着应用对低延迟需求的增长,容器的冷启动所引发的高时延问题逐渐成为系统性能的瓶颈。WebAssembly(Wasm)凭借其轻量级沙箱特性和毫... 容器技术因具备轻量化、易于部署和高可用等优势,在边缘服务器无感知计算平台中得到了广泛使用。然而,随着应用对低延迟需求的增长,容器的冷启动所引发的高时延问题逐渐成为系统性能的瓶颈。WebAssembly(Wasm)凭借其轻量级沙箱特性和毫秒级启动能力,成为容器技术在某些场景下的重要补充方案。然而,Wasm的计算性能相较容器存在劣势,尤其在需要处理函数间的复杂依赖关系时,Wasm和容器的固有优缺点使得函数部署方式和部署位置的决策变得十分困难。为解决该问题,构建了基于函数依赖关系的服务器无感知计算模型,将Wasm与容器混合部署问题转换为非线性整数规划问题。该问题随后被证明是一个NP-hard问题。为此,设计了长时延敏感的加权带宽贪心调度算法(Long-Latency-Sensitive Weighted Bandwidth Greedy Scheduling Algorithm,LLS-WBG),根据函数依赖以及前驱函数最长完成时间,加权计算服务器带宽,以优化资源利用并降低任务尾时延。基于真实世界数据的实验结果表明,在边缘计算场景下,与先进算法相比,所提出的算法能够使应用完成时间减少44.45%。 展开更多
关键词 服务器无感知计算 容器 边缘计算 WebAssembly
在线阅读 下载PDF
基于概率分布的无服务器计算弹性伸缩算法
10
作者 李威 李光辉 +2 位作者 赵庆林 代成龙 陈思 《计算机研究与发展》 北大核心 2025年第2期503-516,共14页
在容器技术和微服务框架的普及背景下,无服务器计算为开发者提供了一种无需关注服务器操作以及硬件资源管理的云计算范式.与此同时,无服务器计算通过弹性扩缩容实时地适应动态负载变化,能够有效降低请求响应延时并且减少服务成本,满足... 在容器技术和微服务框架的普及背景下,无服务器计算为开发者提供了一种无需关注服务器操作以及硬件资源管理的云计算范式.与此同时,无服务器计算通过弹性扩缩容实时地适应动态负载变化,能够有效降低请求响应延时并且减少服务成本,满足了客户对于云服务成本按需付费的需求.然而,无服务器计算中面临着弹性扩缩容需求导致的冷启动延迟问题.提前预热函数实例能够有效地降低冷启动发生频率和延时.然而,在云环境中流量突发问题极大地增加了预测预热函数实例数的难度.针对上述挑战,提出了一种基于概率分布的弹性伸缩算法(probability distribution based auto-scaling algorithm,PDBAA),利用监控指标历史数据预测未来请求的概率分布,以最小化请求响应延时为目的计算预热函数实例的最佳数量,并且PDBAA能够有效地结合深度学习技术的强大预测功能进一步提升性能.在Knative框架中,通过NASA和WSAL数据集对算法进行了验证,仿真实验表明,相比于Knative弹性伸缩算法以及其他预测算法,所提出的算法弹性性能提升了31%以上,平均响应时间降低了16%以上,能够更好地解决流量突发问题,有效地降低了无服务器计算请求的响应延时. 展开更多
关键词 无服务器计算 函数即服务 冷启动延时 弹性伸缩 深度学习
在线阅读 下载PDF
基于服务器无感知计算架构的并行计算通信框架
11
作者 袁雨馨 李庆文 +1 位作者 史骁 赵晓芳 《高技术通讯》 北大核心 2025年第6期590-603,共14页
随着云计算技术的发展与成熟,并行计算在云环境中得到了越来越多的实践。服务器无感知计算作为云计算中的一种新型的应用部署与计算方式,允许用户弹性分配资源并实现负载均衡,并提供了更强的可扩展性和更大的灵活性。然而,无状态的特性... 随着云计算技术的发展与成熟,并行计算在云环境中得到了越来越多的实践。服务器无感知计算作为云计算中的一种新型的应用部署与计算方式,允许用户弹性分配资源并实现负载均衡,并提供了更强的可扩展性和更大的灵活性。然而,无状态的特性导致服务器无感知计算框架并不完全适用于传统并行计算,其中通信是一个关键问题。本文提出了一个具有服务质量(quality of service,QoS)保障的通信框架FreeParallel,旨在基于服务器无感知计算中的函数即服务(function as a service,FaaS)平台构建面向并行计算的通信能力。FreeParallel结合了消息传递接口(message passing interface,MPI)并行计算编程模型,有效地保证了通信服务的质量;并采用代理模型来支持并行函数的识别和转换,并以服务形式灵活部署在多个FaaS或虚拟化平台上。此外,本研究还提出了函数间通信流量的QoS管理策略fm Clock,在保证传输公平性的前提下,实现基于请求和限制的通信原语级网络资源分配。实验结果表明,点对点通信场景下FreeParallel与虚拟化平台的覆盖网络相比传输性能略有不足,但比当前服务器无感知计算状态共享方案的传输效率有至少89.5%的提升。并且FreeParallel在集合通信场景下表现极佳,比基线方法提升了59.9%~83.1%。同时,带有fm Clock策略的FreeParallel能够实现原语级按比例分配策略,避免了不同原语间请求的交叉干扰,案例表明,策略的加入降低了应用25.0%的完成时间。 展开更多
关键词 服务器无感知计算 消息传递接口并行计算 服务质量保障 弹性资源分配
在线阅读 下载PDF
服务器无感知计算关键技术研究及实践探索
12
作者 周丹颖 黄天昊 刘如明 《计算机科学》 北大核心 2025年第S1期777-782,共6页
云计算借助其规模效应实现对资源的集约化利用,最大化发挥计算的价值。近年来,服务器无感知计算作为一种新兴的云计算范式迅速崛起,正深刻重塑着应用程序的开发、部署与运维方式。以应用为中心,服务器无感知计算进一步优化了云服务的供... 云计算借助其规模效应实现对资源的集约化利用,最大化发挥计算的价值。近年来,服务器无感知计算作为一种新兴的云计算范式迅速崛起,正深刻重塑着应用程序的开发、部署与运维方式。以应用为中心,服务器无感知计算进一步优化了云服务的供给模式,简化了云上应用的构建方式,有效提升了云资源利用率,代表了云计算的重要演进方向。当前,服务器无感知计算技术发展趋于成熟,服务形态愈加丰富,涵盖了函数即服务、边缘函数即服务、服务器无感知容器服务、服务器无感知应用托管服务等典型模式,在人工智能、边缘计算、大数据分析等领域已形成诸多优秀实践。文中从服务器无感知计算的概念入手,分析其价值与发展脉络,剖析其核心技术及应用实践,探讨服务器无感知技术生态及其演进趋势,并给出我国服务器无感知计算的发展建议。 展开更多
关键词 服务器无感知 云计算 云原生 函数即服务 容器 微服务
在线阅读 下载PDF
服务器无感知平台性能度量研究
13
作者 温金凤 陈震鹏 +1 位作者 柳熠 刘譞哲 《软件学报》 北大核心 2025年第5期1974-2005,共32页
服务器无感知计算是一种新兴的云计算范型,它允许开发者专注于应用逻辑的开发,而不需要负责底层复杂的任务管理.通过这种范型,开发者可以快速构建更小粒度的应用,即函数级别的应用.随着服务器无感知计算的日益流行,各大云计算厂商相继... 服务器无感知计算是一种新兴的云计算范型,它允许开发者专注于应用逻辑的开发,而不需要负责底层复杂的任务管理.通过这种范型,开发者可以快速构建更小粒度的应用,即函数级别的应用.随着服务器无感知计算的日益流行,各大云计算厂商相继推出各自的商业服务器无感知平台.然而,这些平台的特点尚未得到系统的研究和可靠的比较.全面分析这些特点可以帮助开发者选择合适的服务器无感知平台,并以正确的方式开发和执行基于服务器无感知计算的应用.为此,开展了面向主流的商业服务器无感知平台特征的实证研究.涵盖的主流服务器无感知平台包括亚马逊Lambda、谷歌Cloud Functions、微软Azure Functions和阿里巴巴Function Compute.研究内容主要分为两大类:特征总结和运行时性能分析.在特征总结中,通过对这些服务器无感知平台的官方文档进行探究,从开发、部署和运行时3个方面的关键特征进行总结和比较.在运行时性能分析中,使用代表性的基准测试程序,从多个维度分析了这些服务器无感知平台提供的运行时性能.具体而言,首先分析了影响应用冷启动性能的关键因素,如编程语言和内存大小.其次,探究了服务器无感知平台执行各类任务的执行性能.基于特征总结和运行时性能分析的结果,总结了一系列发现,并为开发者、云计算厂商和研究者提供了具有现实指导意义的启示和潜在的研究机会. 展开更多
关键词 度量研究 服务器无感知计算 软件工程 云计算 平台比较
在线阅读 下载PDF
无服务边缘环境中的镜像缓存与资源分配
14
作者 曾旺 池梦莉 +2 位作者 于正欣 苗旺 陈哲毅 《小型微型计算机系统》 北大核心 2025年第10期2515-2522,共8页
新兴的无服务边缘计算(Serverless Edge Computing,SEC)可在降低任务计算延迟的同时高效应对多变的服务模式,进而提升资源利用效率.然而,在资源受限的SEC中部署服务时常出现频繁的镜像置换,导致了过度的服务延迟与通信成本.现有的解决... 新兴的无服务边缘计算(Serverless Edge Computing,SEC)可在降低任务计算延迟的同时高效应对多变的服务模式,进而提升资源利用效率.然而,在资源受限的SEC中部署服务时常出现频繁的镜像置换,导致了过度的服务延迟与通信成本.现有的解决方案通常通过修改镜像结构或移动仓库位置来降低镜像请求时间,但其在一定程度上违背了容器隔离的设计初衷,并造成了额外的计算与存储开销.为了解决这些重要挑战,本文提出了一种新颖的面向SEC环境的镜像缓存与资源分配(Image Caching and Resource Allocation,ICRA)框架,并将原问题解耦为两个子问题分别进行求解.针对镜像缓存子问题,设计了一种基于改进深度强化学习(Deep Reinforcement Learning,DRL)的镜像缓存方法,通过引入双critic网络与延迟更新机制,以提升镜像缓存性能.针对资源分配子问题,根据任务属性与队列负载,引入凸优化理论进行容器资源分配以降低任务完成延迟.大量实验验证了所提ICRA框架的有效性.与基准方法相比,ICRA框架能够在保证服务质量的同时显著降低系统成本,并在不同场景下均表现出更加优越的性能. 展开更多
关键词 无服务边缘计算 镜像缓存 资源分配 深度强化学习 凸优化
在线阅读 下载PDF
基于容器镜像共享机制的无服务计算工作流性能优化方法
15
作者 王洋洋 申国伟 +1 位作者 崔允贺 付玉杰 《计算机应用研究》 北大核心 2025年第11期3405-3411,共7页
针对传统部署模型在无服务计算中难以适应动态集群镜像资源变化,导致函数工作流冷启动延迟增加、资源利用率低下的问题,提出了一种基于容器镜像共享机制的无服务计算工作流优化方法Gust。通过函数镜像相似性调度算法和依赖包层重组机制... 针对传统部署模型在无服务计算中难以适应动态集群镜像资源变化,导致函数工作流冷启动延迟增加、资源利用率低下的问题,提出了一种基于容器镜像共享机制的无服务计算工作流优化方法Gust。通过函数镜像相似性调度算法和依赖包层重组机制,提升函数镜像间共享层的复用度,减少镜像拉取带来的冷启动开销,并结合遗传算法实现函数组合划分,优化工作流在多节点环境下的部署与执行。实验在OpenFaaS平台上对比多个基准方法验证了Gust的有效性,结果表明Gust方法的平均冷启动时间降低了20.3%、SLO违约率平均减少了16.8%。相较于传统方法,Gust有效提升了无服务计算的函数工作流执行性能和经济性。 展开更多
关键词 云计算 无服务计算 函数工作流 容器镜像共享机制 部署模型
在线阅读 下载PDF
基于无服务器边缘计算下的服务负载调度算法 被引量:1
16
作者 高明 陈国扬 《计算机应用研究》 CSCD 北大核心 2024年第3期811-817,841,共8页
随着边缘计算的不断发展,其在资源管理配置方面逐渐出现相关问题,无服务器计算作为一种新的方式可以有效解决边缘计算的相关问题。然而,无服务器计算不具备在分布式边缘场景中高效处理请求所需服务负载调度的能力,针对这一问题,提出了... 随着边缘计算的不断发展,其在资源管理配置方面逐渐出现相关问题,无服务器计算作为一种新的方式可以有效解决边缘计算的相关问题。然而,无服务器计算不具备在分布式边缘场景中高效处理请求所需服务负载调度的能力,针对这一问题,提出了一种基于无服务器边缘计算的服务负载调度算法(service load scheduling algorithm,SLSA)。SLSA的核心是通过隐式建模充分考虑了动态变化的节点状态、负载调度器放置等影响因素来优化整体时延,然后通过改进的平滑加权轮询调度(smooth weighted round robin,SWRR)算法进行服务调度。经仿真实验分析,SLSA在资源消耗上有着明显下降,同时在单城市场景与多城市场景下均有良好的性能表现,其中在单城市场景中相对于集中式轮询调度(round robin centralized,RRC)算法提升了43.01%,在多城市场景中提升了53.81%。实验结果表明,SLSA可以有效降低资源消耗率并提升性能。 展开更多
关键词 边缘计算 无服务器计算 负载调度 性能对比
在线阅读 下载PDF
基于OpenFaaS的多边缘管理框架
17
作者 林璟峰 李鸣 +1 位作者 陈星 莫毓昌 《计算机科学》 CSCD 北大核心 2024年第10期362-371,共10页
移动边缘计算(Mobile Edge Computing,MEC)是一种利用靠近移动设备的边缘节点提供的计算能力,来提升性能的前沿技术。现有的一些先进的计算卸载方法,已能够支持在MEC环境中基于函数粒度进行动态卸载。函数即服务(Function as a Service,... 移动边缘计算(Mobile Edge Computing,MEC)是一种利用靠近移动设备的边缘节点提供的计算能力,来提升性能的前沿技术。现有的一些先进的计算卸载方法,已能够支持在MEC环境中基于函数粒度进行动态卸载。函数即服务(Function as a Service,FaaS)作为无服务架构的一种经典范式,提供了一种在函数粒度上构建和拓展应用程序的新方式。相比传统的方式,FaaS提供了理想的资源弹性。OpenFaaS作为当下流行的开源FaaS项目,为FaaS平台的搭建提供了良好的基础。将先进的计算卸载方法与FaaS解决方案(OpenFaaS)进行整合,是有意义且具有挑战的。为此,文中设计并实现了一个基于OpenFaaS的多边缘管理框架,该框架实现了对多个边缘上OpenFaaS的搭建与状态管理。同时,对于需要部署的函数,将其重构并部署到OpenFaaS上,在运行时能够灵活地在多个OpenFaaS间调度函数执行。针对5个实际的Java智能应用对该框架进行了评估,结果表明该框架可以有效管理多个边缘,且与本地运行相比,该框架平均可节省10.49%~49.36%的响应时间。 展开更多
关键词 无服务架构 函数即服务(FaaS) OpenFaaS 计算卸载 移动边缘计算
在线阅读 下载PDF
面向高密度混部的动态资源分配方法
18
作者 郭静 胡存琛 包云岗 《计算机研究与发展》 EI CSCD 北大核心 2024年第9期2384-2399,共16页
当前的无服务计算提供商采用了一种灵活度低、固定CPU和内存分配比例的耦合式资源分配策略.随着更多类型应用被部署在无服务计算平台中,该策略已无法满足函数应用的多样化资源需求.由于函数应用的资源分配粒度小、部署密度高,若将CPU与... 当前的无服务计算提供商采用了一种灵活度低、固定CPU和内存分配比例的耦合式资源分配策略.随着更多类型应用被部署在无服务计算平台中,该策略已无法满足函数应用的多样化资源需求.由于函数应用的资源分配粒度小、部署密度高,若将CPU与内存资源的分配进行解耦,需解决资源配置空间爆炸问题.提出Semi-Share,一个面向无服务计算的解耦式资源管理系统,为函数寻找最优资源配置的同时降低混部函数之间的干扰.为解决资源配置空间爆炸问题,Semi-Share构建了一个2层资源分配架构,将资源配置空间划分为多个子空间来降低问题复杂度.第1层是函数分组,基于函数的资源使用特征和历史负载信息进行函数分组,根据分组将资源配置空间划分为多个子空间.第2层是资源分配,利用贝叶斯优化和加权打分函数来指导模型在资源配置空间中朝正确的方向搜索,降低时间开销.实验结果显示,Semi-Share相较于被广泛使用的梯度下降搜索法降低了平均85.77%的时间开销,并为函数带来平均42.72%的性能提升;与同样使用贝叶斯优化的耦合式资源分配系统COSE相比,Semi-Share能带来平均32.25%的性能提升. 展开更多
关键词 无服务计算 混部 性能保障 服务质量 资源分配 高部署密度
在线阅读 下载PDF
面向服务器无感计算的模型推理服务切换方法研究
19
作者 温鑫 曾焘 +1 位作者 李春波 徐子晨 《计算机工程与科学》 CSCD 北大核心 2024年第7期1210-1217,共8页
模型推理服务正随着大模型技术的发展被广泛应用,为模型推理服务构建稳定可靠的体系结构支撑逐渐成为云服务商关注的焦点。服务器无感计算是一种资源粒度细、抽象程度高的云服务计算范式,具有按需计费、弹性扩展等优势,能够有效提高模... 模型推理服务正随着大模型技术的发展被广泛应用,为模型推理服务构建稳定可靠的体系结构支撑逐渐成为云服务商关注的焦点。服务器无感计算是一种资源粒度细、抽象程度高的云服务计算范式,具有按需计费、弹性扩展等优势,能够有效提高模型推理服务的计算效率。但是,模型推理服务工作流呈现出多阶段的特点,独立的服务器无感计算框架难以确保模型推理服务工作流各阶段的最优执行。因此,如何利用不同服务器无感计算框架的性能特征,实现模型推理服务工作流各阶段的在线切换,缩短整体工作流的执行时间,是亟待解决的关键问题。讨论模型推理服务在不同服务器无感计算框架上的切换问题。首先,使用预训练模型构建模型推理服务函数,得出异构服务器无感计算框架的性能特征;其次,采用机器学习技术构建二分类模型,结合异构服务器无感计算框架的性能特征,实现模型推理服务在线切换框架原型;最后,搭建测试平台,生成模型推理服务工作流,完成在线切换框架原型的性能评估。初步实验结果表明,在线切换框架原型与独立的服务器无感计算框架相比,最大可缩短模型推理服务工作流57%的执行时间。 展开更多
关键词 模型推理服务 服务器无感计算 机器学习
在线阅读 下载PDF
存储备份技术探析 被引量:49
20
作者 韩德志 谢长生 李怀阳 《计算机应用研究》 CSCD 北大核心 2004年第6期1-4,7,共5页
快速增长的网络数据信息和其高可用性的要求刺激了存储备份技术的发展。目前 ,存储备份容灾正受到用户的关注 ,不少用户都已开始了这方面的考虑。为了更好地帮助用户了解有关存储备份容灾方面的知识 ,详细地介绍了存储网络备份容灾所涉... 快速增长的网络数据信息和其高可用性的要求刺激了存储备份技术的发展。目前 ,存储备份容灾正受到用户的关注 ,不少用户都已开始了这方面的考虑。为了更好地帮助用户了解有关存储备份容灾方面的知识 ,详细地介绍了存储网络备份容灾所涉及到的技术及其代表性的产品。 展开更多
关键词 镜像 快照 局域网自由备份 无服务器备份 网络数据管理协议
在线阅读 下载PDF
上一页 1 2 下一页 到第
使用帮助 返回顶部