分类目录归档:其他

2023-06-01组会摘要01

本次组会对近期的研究工作《面向分布式电网异常检测模型的隐私保护》进行汇报,主要从科研背景、科研问题、科研目的以及研究进展这几方面来阐述。

科研背景

  1. 智能电网:智能电网将信息和通信技术集成到传统电网中,以管理电能的产生、分配和消耗。尽管它有许多优点,但它面临着重大挑战,例如检测网格中的异常行为。识别异常行为有助于发现不寻常的用户功耗、基础设施故障、停电、设备故障、能源盗窃或网络攻击。
  2. 异常检测:基于机器学习的智能电表数据技术在异常检测中显示出显著的效果。然而,传统的基于机器学习的异常检测需要智能电表与中央服务器共享本地数据,这引起了对数据安全和用户隐私的担忧。在分布式电网的场景下,我们想要尽可能地保证用户的隐私,基于联邦学习(FL)的智能电网异常检测受到越来越多的关注。

科研问题

随着联邦学习在各种分布式场景下的应用,联邦学习在异常检测方面存在以下挑战:

1. 对于联邦学习来说,它的通信代价远大于计算的代价,边缘设备和服务器之间通常是远程连接,带宽很低网络延迟很高,对它的实时性有着很大影响,所以我们要提升联邦学习的通信效率。

2. 由于联邦学习是整合所有数据孤岛中的数据对其进行分析挖掘,这就要求我们所有的参与节点都是可信的,在传统联邦学习中结点的可信程度决定着联邦学习的鲁棒性,这样就需要对联邦学习的聚合算法进行调整,让它可以抵御恶意节点的攻击。

3。相关文献证明了如果我们需要训练一个有效的模型,那在训练的过程中我们所使用的梯度是和原来的数据密切相关的,也就是我们在使用联邦学习时,虽没有泄露原始的数据,但仍传递了原始数据的相关信息,对其进行隐私保护是有着很重要意义的,这也是我们所研究的问题。

科研目的

本次研究旨在提出一种面向分布式电网异常检测模型的隐私保护方法,使用同态加密方法,通过对梯度进行加密来保护隐私,也不影响联邦学习的效果。具体来说,就是接将原文加密,然后联邦学习的中央服务器能够在密文上进行各种运算,最终得到结果的密文也就是我们聚合之后的梯度的加密密文。同态加密能够在不影响训练效果的情况下保护隐私,但是我们的加密的过程大大增加了我们所需要传输的数据量,因此还需要对中间传输的数据进行压缩,从而实现通信成本和隐私保护均衡的分布式异常检测模型。

研究内容

基于同态加密的联邦学习框架

具体研究内容将在组会中讲述

研究计划

  1. 设计实验实现对联邦Transformer中间参数进行压缩,取得初步实验结果。
  2. 对原模型和压缩后的模型的中间参数进行同态加密,比较通信成本。

2023-05-25-组会摘要01

本次组会对近期的研究工作《基于深度强化学习的微电网能源管理》进行总结,主要从科研背景、科研问题、科研目的以及研究进展这几方面来汇报。

科研背景

1,微电网:一种小型发配电系统,能够有效整合分布式电源、用电负载和储能系统,能够实现可再生能源的就地消纳、提高供电牢靠性、可以处理偏僻地域的用电问题并为电网提供支撑,削峰填谷。
2,V2G:指电动汽车给电网送电的技术,其核心思想在于电动汽车和电网的互动,利用大量电动汽车的储能源作为电网和可再生能源的缓冲。
3:负荷预测:电力系统负荷预测是电力系统调度、实时控制、运行计划和发展规划的前提,是电网调度部门和规划部门所必须具有的基本信息。准确的负荷预测有助于提高系统的安全性和稳定性,能够减少发电成本。随着电力市场的建立和发展,短期负荷预测技术已成为电力系统EMS系统中必不可少的部分。

科研问题

1,微电网的状态变量存在复杂性和多变性,传统的基于模型的方法难以很好地处理微电网的能源管理问题。
2,新能源电动汽车数量的剧增,将电动汽车作为移动电源参与供电成为可能,如何更好地进行能源管理是一个问题。

科研目的

根据短期负荷预测的结果,调度适量的电动汽车作为电源参与微电网能源管理,并提出一种基于深度强化学习的微电网能源管理方法,对储能以及发电设施进行管理,然后在保证系统稳定运行的前提下,通过实时能源管理提升运营商的利润以及系统平衡因子。

研究内容

系统整体架构

差分隐私增强的安全联邦学习

科研背景

联邦学习(Federated Learning)是一种分布式机器学习方法,旨在通过在本地设备上进行模型训练,同时保护用户数据的隐私。相比于传统的集中式机器学习方法,联邦学习将模型训练推送到用户设备上,让设备在本地使用本地数据进行模型训练,然后将模型参数的更新发送回中央服务器进行聚合,从而实现全局模型的改进。

联邦学习的核心目标是解决分散数据的隐私保护和数据安全性的问题。它适用于那些存在大量敏感数据的场景,例如移动设备、边缘计算环境或跨组织合作中的数据共享、

科研问题

  • 在联邦学习中,参与方上传模型参数的更新,这可以暴露一些关于本地训练数据的信息。攻击者可以通过分析这些参数更新来推断参与方的训练数据,从而侵犯数据隐私。
  • 安全多方计算确保了参与方之间的计算安全性,但在传输数据和计算过程中,可能会暴露参与方的模型参数更新,这可能会导致攻击者利用这些信息进行数据推断攻击。
  • 差分隐私通过在数据中引入噪声来保护隐私,但这会或降低数据的准确性和可用性,而且导致传输和计算的开销增加。

科研目的

提出一种差分隐私增强的安全联邦学习框架,将安全多方计算与差分隐私相结合,弥补彼此的缺点,提供更全面的隐私保护和数据效用。

系统模型

①选择参与者,服务器将当前模型参数θt发送给这些参与方。
②本地模型更新
③将∆θ_t^i拆分成两个份额[∆θ_t^i]_A 和[∆θ_t^i]_B,分别发送到服务器S_A和S_B。
④添加噪声,由S_A或S_B聚合。

2023年5月18日 组会报告摘要-02

本次组会汇报关于基于知识图谱的网络安全威胁情报推理技术研究的思路进展,从科研背景、科研问题、科研目的、研究内容等几个方面展开。

科研背景

  • 随着信息化不断扩大以及网络技术的持续发展,网络安全事件频发,网络攻击手段也日益呈现复杂多变、长持续性、高隐蔽性等特点。依靠传统的入侵防御系统等被动防御手段无法有效地维护网络空间安全,因此兴起了网络安全威胁情报(CTI)等综合防御策略。网络安全威胁情报是指基于证据的威胁知识,可以为决策提供信息,目的是防御攻击或缩短处理与检测的时间。
  • 网络安全威胁情报在实际应用中主要面临着数据类型多样、分布离散、内容不一致等问题,因此引入了知识图谱技术框架来试图解决这一问题。
  • 当前在知识图谱上实现推理大致可以分为两类:基于符号规则(本体公理或符号逻辑)的方法和基于表示学习(嵌入)方法。传统基于符号规则的方法主要优点是具备可解释性,主要缺点是不易于处理隐含和不确定的知识;基于表示学习的方法主要优点是推理效率高且能表征隐含知识,主要缺点是丢失可解释性

科研问题

  • 网络安全威胁情报在实际应用过程中存在使用多个数据源海量数据难以处理的问题。
  • 在网络安全威胁情报领域单一使用基于符号规则的知识推理模型或基于表示学习的知识推理模型表现欠佳。

科研目的

  • 分析网络安全威胁情报特点,将多个数据源关联起来,构建一个网络安全威胁情报知识图谱。
  • 提出一种融合表示学习符号规则的知识推理算法,提高发现网络安全威胁情报知识图谱中实体与实体间潜在关系的能力,不断完善威胁情报知识图谱。

研究内容

  • 知识图谱构建
  • 知识推理模型

2023年4月20日 组会报告摘要-02

我本次汇报的题目是:《基于生成式对抗网络的网络流量异常检测方法研究》,我将从科研背景和意义、研究内容与方法、总结展望三个个方面进行汇报。

2023年4月20日 组会报告摘要-01

我本次汇报的题目是:《横向联邦学习下的后门攻防初探》,我将从联邦学习和后门攻击、联邦下的后门攻击、集中式后门和分布式后门攻击等

联邦学习
每个机构都有自己的数据,联合起来是一个完整的大数据库,可用来训练一个大数据模型。
出于安全和隐私的限制,每一个机构都不想或者不能把数据和别人共享。数据以孤岛的形式存在。
定义:使多个参与方在保护数据隐私、满足合法合规要求下前提继续进行机器学习,解决数据孤岛问题

后门攻击
在训练数据中加入部分注入特殊触发器的样本,训练得到嵌入后门的模型,则在预训练阶段,模型遇到带有该触发器的样本时会自动出现错误预测
后门攻击目的:保持对原始数据精度的前提下,在输入嵌入触发器时,模型将其分类至目的标签

联邦下的后门攻击
如何将后门攻击应用在联邦学习中?
• 后门应该作用于全局模型。
• 后门应该在全局模型中存活多轮。
• 后门不影响全局模型的整体准确性

集中式与分布式后门攻击
集中式后门攻击定义:基于联邦学习使恶意参与方可以直接影响联合模型这一事实,指恶意触发器被注入到一个客户端的本地训练数据集。

2023年4月13日 组会报告摘要-01

我本次汇报的题目是:《联邦学习中的安全和隐私保护问题研究》,我将从科研背景、科研目的、科研问题、研究内容、研究计划五个方面进行汇报。

科研背景

我国高度重视数字经济

在政策方面,2019 年党的十九届四中全会首次将数据与土地、劳动力、资本、技术并列作为重要的生产要素。

在管理机制方面,2023 年国务院组建国家数据局,负责协调推进数据基础制度建设,统筹数据资源整合共享和开发利用,统筹推进数字中国、数字经济、数字社会规划和建设。

在行业方面,地方数据交易所进入了高速发展阶段。2022 年上海数据交易所发布了《数据要素流通标准化白皮书》、广东省发布《广东省数据要素市场化配置改革白皮书》,以基于标准化布局保障数据流通、释放数据潜在价值,为数据要素市场化及数字经济发展提供方向指导。

在数字信息凸显,数据安全风险与日俱增,数据泄露、数据贩卖等数据安全事件频发,为个人技术日新月异的发展趋势下,数据已成为数字经济发展的核心生产要素,是国家重要资产和基础战略资源。随着数据价值的愈加隐私、企业商业秘密、国家重要情报等带来了严重的安全隐患。

趋势:1.内外部安全威胁持续升级 2.数据伦理道德问题凸显

因此,国内外相继发布了数据相关的保护条例。

中国三管齐下的信息安全法律框架

科研目的

当前在数据安全的主要矛盾是当前数据已经被定义为了一种生产要素,因此需要数据流动起来而不是形成数据孤岛,才能让数据释放其价值。然而从数据安全的角度来说,一旦数据发生了流动,就会对数据产生安全和隐私相关的问题。因此,对于这样的一种矛盾,联邦学习是一种很好的解决方案,因为每一个client的数据在本地训练,因此可以让数据在不流动的前提下,让数据释放其价值。然而联邦学习本身仍然存在一些安全和隐私的风险。

科研问题

尽管联邦学习通过在本地客户端上进行本地模型训练在一定程度上保护了数据的隐私和安全,但仍然存在一些攻击手段可能泄露个人信息。因此我们希望探究设计联邦学习系统时可能面临的挑战以及可能的解决办法。

研究内容

如下图所示,联邦学习中存在的数据安全威胁主要可以概括为三方面

1.在客户端的隐私保护

2.在服务器的隐私保护

3.联邦安全框架的安全防护

联邦学习的结构与存在的数据安全威胁

对于联邦学习中存在的数据安全威胁、以及对应的一些防护方法,以及采用了一些防护方法又引发的新的需要解决的问题等,将在组会上进行详细的介绍。

2023年4月6日 组会报告摘要-02

我本次回报的题目为《推荐系统的个性化隐私保护研究》,我将从科研背景、科研问题、科研目的、研究内容、研究计划五个方面进行汇报。

科研背景

荐系统作为缓解信息过载问题的有效途径, 其通过过滤无用信息进而筛选出用户可能感兴趣的物品以此达到提升用户体验和商户利润的目的。因而该技术得到了许多学者们的广泛关注。如何在保证用户隐私与数据安全的前提下分析用户行为模式成为了近年来研究的热点。

科研问题

隐私保护技术需要可信服务器的支持,实际中,难以找到一个完全可信的服务器。

不同用户对隐私保护的需求不同,如何平衡用户的隐私保护需求和推荐准确性要求,成为了当前亟需解决的问题。

科研目的

设计一个满足本地化差分隐私的推荐系统,为用户选择合适的隐私预算,满足不同用户个性化的需求。

科研内容

推荐算法

本地化差分隐私的推荐系统

具体内容将在组会上详细介绍。

2023年4月6日 组会报告摘要-01

我本次汇报的是我的研究课题《考虑数据隐私保护的BTM光伏发电预测:一种联邦深度强化学习方法》,我将从科研背景、科研问题、科研方法、研究计划、参考文献五个方面进行汇报。

科研背景

“表后”的术语(behind the meter,BTM)是指位于单个实体拥有的单个建筑物或多个设施中的可再生能源系统.通常与分布式发电和存储单元一起运行,以满足最终用户的全部或部分能源需求,BTM 系统的关键部分是通过有效的优化和调度算法来协调负载。

主要特点:1位置(区分behind-the-meter (BTM) and front-of-meter systems ?能源系统相对电表的位置) 2.现场生成(用户资产上产生任何能源的都视为表后,包括pv,小型风力涡轮机,甚至燃气发电机等) 3.现场发电使用 4.现场储能 5.不可见(对于服务商,没有记录,没有监测)

按照尺寸分类一般可分为二类:智能家居、微电网

好处:经济效益、减少温室气体、延期电网投资、提高电网弹性和电能质量、能源独立和安全

BTM系统可能的影响

电力系统变化:大量的BTM光伏系统,on-site发电量的增加导致了电力系统的运行和规划的变化,特别是在一天中的关键时刻,负载预测发生了变化
改变区域负荷:大量BTM光伏系统会显著改变区域净负荷曲线的形状,并带来平衡和可靠性挑战,如中午高峰显著下降,而后夜升高
电力公司难以观测:电力公司只能获得用户累积的净负载数据,BTM光伏系统情况下,难以将光伏与实际负载分开观测
负荷预测退化:大量BTM渗透,对负载预测质量下降,阻碍可靠和高效的网络

科研问题

对比btm的影响来说,有减轻甚至避免的方法,核心就是对BTM光伏系统的容量和未来发电量提前预测。

表后预测光伏问题:精度、安全、隐私和适配

科研目的

1.提出了一种深度强化学习(DRL)中的深度确定性策略梯度(DDPG)算法作为BTM光伏发电预测的基本预测模型,与传统预测方法相比,可以提高预测精度。
2.为了处理数据的隐私性和开放性、资源开销等,提出了一种分布式联邦预测方案,该方案结合了联邦学习和DRL(FedDRL),用于多区域的BTM发电预测。

研究内容

联邦学习主要由一个联合服务器和多个客户端组成。大多数训练过程都是在每个客户端的边缘设备上本地完成的。原始数据彼此之间不共享,通过共享参数的方式,适用于解决数据隐私和分布式场景的问题。
DDPG作为一种深度强化学习算法,在解决连续动作空间问题方面具有高效稳定的能力。并且它是基于Actor-Critic(演员—评论家)框架的算法,该框架有四个神经网络。Actor(演员)和Critic(评论家)各包含一个主网络和一个目标网络。

具体研究内容将会在组会详细介绍。